Python3爬虫从零开始:抓取天猫电影排行
抓取分析
首先打开要抓取的目标站点:http://maoyan.com/board/4
我们需要爬取得实惠电影名称、主演、评分等信息。可以看到在这个页面只有10部影片,而我们需要爬取前100,也就是需要爬取10页。
滚动到最下方分页列表,打开下一页,可以看到页面的URL发生了变化,多了参数offset=10。根据这个规律,我们可以通过改变URL的offset参数请求10次即可。
补充:确定一个网站是否可被爬取,可以先在网站根目录下查看Robots协议确定是否可爬:
抓取一页
这里,我们将提取一页的代码用一个函数表示:
def get_one_page(url):
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.17 Safari/537.36',
}
response = requests.get(url,headers = headers)
if response.status_code == 200:
return response.text
return None
def main():
url = 'http://maoyan.com/board/4'
html = get_one_page(url)
print(html)
main()
这样就可以得到我们的页面源代码。
正则提取
这里,我们要按需进行提取,网页源码信息那么多,但是我们只需要提取我们需求的影片信息。因此,需要对源码进行正则提取,首先就要找到我们需要的信息的源码部分。F12在网页中打开【开发者模式】,在【Network】中左边打开4?offset=0的文件,可以看到源代码。
!注意,不要在【Elements】中直接查看源码,因为【Elements】中的源码可能经过JavaScript操作(如果有的话)与原始请求页面不一样。
根据我们需要提取的信息构造我们的正则表达式:
#排名信息:<dd>.*?board-index.*?>(.*?)</i>
#图片信息:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)"
#名字信息:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>
#主演等等:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>
def parse_one_page(html):
pattern = re.compile('<dd>.*?board-index.*?>(.*?)</i>'
'.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>'
'.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
'.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
items = re.findall(pattern,html)
print(items)
结果:
完整代码
import re
import requests
import json
def get_one_page(url):
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.17 Safari/537.36',
}
response = requests.get(url,headers = headers)
if response.status_code == 200:
return response.text
return None
def main(offset):
url = 'http://maoyan.com/board/4?offset='+ str(offset)
html = get_one_page(url)
for item in parse_one_page(html):
write_to_file(item)
#排名信息:<dd>.*?board-index.*?>(.*?)</i>
#图片信息:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)"
#名字信息:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>
#主演等等综合:<dd>.*?board-index.*?>(.*?)</i>.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>
def parse_one_page(html):
pattern = re.compile('<dd>.*?board-index.*?>(.*?)</i>'
'.*?data-src="(.*?)".*?name.*?a.*?>(.*?)</a>'
'.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
'.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
items = re.findall(pattern,html)
#整理数据#
for item in items:
yield{
'index': item[0],
'image': item[1],
'title': item[2].strip(),
'actor': item[3].strip()[3:],
'time' : item[4].strip()[5:],
'score': item[5].strip() + item[6].strip()
}
print(items)
def write_to_file(content): #写入文件
with open('result.txt','a',encoding='utf-8') as f:
# print(content)
f.write(json.dumps(content,ensure_ascii=False)+'\n') #json.dumps()是将dict转化成str格式
if __name__ == '__main__': #这里没有这一行也可以
for i in range(10):
main(offset=i*10)
结果:
补充: if __name__ == '__main__'的意思是:当.py文件被直接运行时,if __name__ == '__main__'之下的代码块将被运行;当.py文件以模块形式被导入时,if __name__ == '__main__'之下的代码块不被运行。
参考见博客:https://blog.****.net/yjk13703623757/article/details/77918633