scapy爬虫-Url去重
dont_filter=True
可以看到,当parse的第一个断点设置在第54行时能运行成功。
接下来将断点设置在parse_news函数中。
照理来说应该会正常输出item_1的内容,但是为什么没有办法正确输出呢?而且也没有报错啊!
调试的时候,发现回调函数 parse_detail 没有被调用,这可能就是被过滤掉了,查看 scrapy 的输出日志 offsite/filtered 会显示过滤的数目。
因为被去重过滤了,所以才调试不了啊!
既然知道是因为被过滤那问题就好解决了。
scrapy会对request的URL去重(RFPDupeFilter),加上dont_filter则告诉它这个URL不参与去重。
两种方法能够使 requests 不被过滤:
1. 在 allowed_domains 中加入 url
2. 在 scrapy.Request() 函数中将参数 dont_filter=True 设置为 True
在scrapy的文档中就有提及这个问题
文档
If the spider doesn’t define an allowed_domains attribute, or the attribute is empty, the offsite middleware will allow all requests.
If the request has the dont_filter attribute set, the offsite middleware will allow the request even if its domain is not listed in allowed domains
所以接下来我们改一下
然后答案就出现了,哈哈哈,顿时觉得爬虫很好玩。
---------------------
作者:腾阳
来源:****
原文:https://blog.****.net/weixin_41931602/article/details/80397192
版权声明:本文为博主原创文章,转载请附上博文链接!