假设我们要在10台Ubuntu 部署爬虫如何搞之?用传统的方法会吐血的,除非你记录下来每个步骤,然后步骤之间的次序还完全一样,这样才行。但是这样还是累啊,个别软件下载又需要时间。所以Docker出现了。Docker把系统,各种需要的应用,还有设置编译成一个image,然后 run一下就可以了。跟虚拟机的区别是不需要而外的物理支持,共用的。
1. 部署步骤
1.1 上传本地scrapy爬虫代码除了settings外到git 服务器
1.2 编写Dockerfile文件,把settings和requirements.txt 也拷贝到image里,一起打包成一个image
Dockerfile内容:
FROM ubuntuRUN apt-get updateRUN apt-get install -y gitRUN apt-get install -y nano RUN apt-get install -y redis-server RUN apt-get -y dist-upgradeRUN apt-get install -y openssh-serverRUN apt-get install -y python3.5 python3-pipRUN apt-get install -y zlib1g-dev libffi-dev libssl-devRUN apt-get install -y libxml2-dev libxslt1-devRUN mkdir /codeWORKDIR /codeADD ./requirements.txt /code/ADD ./settings.py /code/RUN mkdir /code/myspiderRUN pip3 install -r requirements.txtVOLUME [ "/data" ]
评论列表()