我正在尝试通过运行此命令在本地设置 Scrapy docker env
docker build -t scrapy .
我遇到以下错误
Get:20 http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntu精确发布 [49.6 kB]
获得:21http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntubionic-backports/universe amd64 软件包 [2975 B]
获得:22http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntu精确的 Release.gpg [198 B]
点火:22http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntu精确发布.gpg
正在阅读包裹清单...
W:GPG错误:http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntu精确发布:由于公钥不可用,无法验证以下签名:NO_PUBKEY 40976EAF437D05B5
E:存储库'http://archive.ubuntu.com/ubuntu http://archive.ubuntu.com/ubuntu精确发布'未签署。
命令“/bin/sh -c apt-get update”返回非零代码:100
我的 Docker 文件如下所示
############################################################
# Dockerfile for a Scrapy development environment
# Based on Ubuntu Image
############################################################
FROM ubuntu
MAINTAINER NeuralFoundry <neuralfoundry.com>
RUN echo deb http://archive.ubuntu.com/ubuntu precise universe >> /etc/apt/sources.list
RUN apt-get update
## Python Family
RUN apt-get install -qy python python-dev python-distribute python-pip ipython
## Selenium
RUN apt-get install -qy firefox xvfb
RUN pip install selenium pyvirtualdisplay
## AWS Python SDK
RUN pip install boto3
## Scraping
RUN pip install beautifulsoup4 requests
RUN apt-get install -qy libffi-dev libxml2-dev libxslt-dev lib32z1-dev libssl-dev
## Scrapy
RUN pip install lxml scrapy scrapyjs
任何帮助,将不胜感激。 TIA
您的 Dockerfile 有一个不合格的引用FROM ubuntu
。这将解决ubuntu:latest
,目前与ubuntu:18.04
。 Ubuntu 18.04 的代号为 Bionic Beaver。精确企鹅为 12.04。您尝试从 Bionic Beaver ubuntu 安装中指向 Precise Penguin 存储库:RUN echo deb http://archive.ubuntu.com/ubuntu precise universe >> /etc/apt/sources.list
.
它可能会被破坏,因为 Ubuntu 18.04 没有密钥来验证 12.04 存储库的签名。您应该在整个图像中与您的版本保持一致。不幸的是,最旧的可用 Docker 镜像看起来是 14.04(可信)。您有什么理由想要precise
具体来说,存储库,或者您可以使用更现代的版本吗?我从你的 Dockerfile 中没有发现任何东西会在 18.04 中崩溃。选择您想要的版本并修复您的FROM
线为FROM ubuntu:14.04
(或更高)。然后删除它RUN echo deb ...
行(假设您实际上不需要precise
存储库)。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)