python爬虫之猫眼电影Top100榜
一. 爬取目标
二. 爬取分析
1. 电影信息
在页面右键“检查”,查看网页代码
可以发现每一部电影信息都在一个<dd>标签里,那么获取到<dd>标签的内容就可以获取到电影的信息了。
详细看一下<dd>标签中的内容:
由此可以获取到电影的各个信息。
2. 自动翻页
一页显示10部电影,要想爬取到Top100榜所有电影,需要让爬虫程序进行自动翻页。
点击不同页码,观察每一个页码对应的url地址:
第一页:https://maoyan.com/board/4?offset=0
第二页:https://maoyan.com/board/4?offset=10
第三页:https://maoyan.com/board/4?offset=20
可以得到规律:offset从0开始,每一页加10,最后一页的offset应该是90。
通过改变offset的值,完成自动翻页。
三.代码
1. 基于正则匹配获取信息
#爬取猫眼电影
import json
import requests
from requests.exceptions import RequestException
import re
import time
def get_one_page(url):
headers={'user-agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3602.2 Safari/537.36'}
#伪装头部信息
response=requests.get(url,headers=headers)
if response.status_code==200:
return response.text #获取网页信息
return None
def parse_one_page(html):
pattern=re.compile('<dd.*?board-index.*?">(\d+)</i.*?data-src="(.*?)".*?<p class="name"><a.*?>(.*?)</a>.*?<p class="star">(.*?)</p.*?class="releasetime">(.*?)</p.*?</dd>',re.S) #利用正则表达式进行匹配,获取相应信息
items=re.findall(pattern,html)
result=[]
for item in items:
result.append({
'index':item[0],
'img':item[1],
'名称':item[2],
'主演':item[3].strip()[3:],
'上映时间':item[4].strip()[5:]
})
return result
def write_to_file(content): #import io io.open()不会报错
with io.open('results.txt','a',encoding='utf-8') as f: #只写方式打开文件夹。如果文件夹不存在则创建文件夹
f.write(json.dumps(content,ensure_ascii=False)+'\n')
def main(offset):
url='http://maoyan.com/board/6?offset='+str(offset) #修改offset值
html=get_one_page(url)
for item in parse_one_page(html):
print(item)
write_to_file(item)
for i in range(10):
main(offset=i*10)
time.sleep(1)
2. 基于selector选择器获取信息