您的位置: 首页 > 文章 > scrapyd部署成功但项目无法运行的问题 scrapyd部署成功但项目无法运行的问题 分类: 文章 • 2022-11-29 12:16:55 问题描述 用scrapyd部署爬虫项目,在命令行部署成功 但是在浏览器中输入127.0.0.1:6800进入scrapyd可视化界面,然后进入jobs中,发现竟然没有刚才上传的项目 进入spiderkeeper进行打包部署,项目一直阻塞,不运行 这个问题一直查了两天百度,最后自己去scrapyd运行的命令行,往上翻日志,其中有一条error,说的是缺少pywin32模块,然后就安装了这个模块。 重新部署项目之后scrapyd的jobs里出现部署的项目 spiderkeeper中项目成功运行并完成 写此文章,给出现相同问题的小伙伴避免踩坑。