Python每日一记75>>>Scrapy爬虫实践

上一篇文章我们已经建立好了Scrapy项目,并且对Scrapy有所了解,接下来我们就以爬取链家的房价信息为例,具体实践Scrapy爬虫。
这里说明一下,之前建立的Scrapy项目是小猪短租的,后来发现小猪短租网站出现问题,因此按照此项目爬取链家的数据,只是项目名称是xiaozhu而已,方法是一样的。
Python每日一记75>>>Scrapy爬虫实践

接下来,看看爬虫框架中有所改变的地方,也就是在各文件中的填空。
1、items
Python每日一记75>>>Scrapy爬虫实践
2、xiaozhuspider
Python每日一记75>>>Scrapy爬虫实践
3、pipelines
Python每日一记75>>>Scrapy爬虫实践
4、settings
Python每日一记75>>>Scrapy爬虫实践
修改好了之后,我们在cmd中,先切换到xiaozhu的文件路径中,然后输入scrapy crawl xiaozhu即可
Python每日一记75>>>Scrapy爬虫实践
最后再保存的文件中查看爬取的信息即可
Python每日一记75>>>Scrapy爬虫实践
以上就是简单的scrapy实践,但是里面关于scrapy还有很多需要学习的地方,而且初次使用会觉得麻烦,不如之前的代码直接进行爬取,但是最终的爬虫,我们还是要习惯于使用scrapy框架,另外模拟浏览器进行爬虫也至关重要。
很多爬虫的招聘,scrapy和模拟浏览器爬虫都是要求的必备技能。