安装好了Scrapyd之后,我们可以直接请求它提供的API来获取当前主机的Scrapy任务运行状况。比如,某台主机的IP为192.168.1.1,则可以直接运行如下命令获取当前主机的所有Scrapy项目: curl http://localhost:6800/listprojects.json 运行结果如下: 1 {"status": "ok",
https://scrapyd.readthedocs.io/en/latest/api.html#cancel-json scrapyd部署爬虫项目: 功能:它就相当于是一个服务器,用于将自己本地的爬虫代码,打包上传到服务器上,让这个爬虫在服务器上运行,可以实现对爬虫的远程管理。(远程启动爬虫,远程关闭爬虫,远程查看爬虫的一些日志。) 1 首先