爬虫第1周——Requests库的规则(库的安装,Response,url,7种方法)

Requests库的安装:cmd命令-pip install requests
Response:返回一个包含服务器资源的Response对象
属性:爬虫第1周——Requests库的规则(库的安装,Response,url,7种方法)HTTP协议:超文本传输协议,一个基于请求与响应模式的,无状态的应用层协议
url格式:http://host[:port][path]
host:合法的Internet主机域名或IP地址
port:端口号,缺省端口为89
path:请求资源的路径
爬虫第1周——Requests库的规则(库的安装,Response,url,7种方法)PATCH与PUT的区别
PATCH:仅向URL提交局部更新请求
优点:节省网络带宽
PUT:必须将所有字段一并提交,否则未提交字段被删除
Requests*库的7种方法:
爬虫第1周——Requests库的规则(库的安装,Response,url,7种方法)

requests.request(method,url,**kwargs)

method:请求方式,对应get/put/post等7种
url:拟获取页面的url连接
kwargs:控制访问参数(共13个,均为可选项,如下)
*params:字典或字节序列,作为参数增加到url中
data:字典,字节序列或文件对象,作为Request的内容
json:json格式的数据,作为Request的内容
headers:字典,HTTP定制头
cookier:字典或CookieJar,Request中的cookie
auth:元组,支持Http认证功能
files:字典类型,传输文件
timout:设定超时时间,秒为单位
proxies:字典类型,设定代理服务器,可以增加登录认证(可实现爬虫匿名)
allow_redirects:True/False,默认为True,重定向开关
stream:True/False,默认为True,获取内容立即下载开关
verify:True/False,默认为True,认证SSL证数开关
cert:本地SSL证书路径

requests.get(url,params=None,**kwargs)

url:拟获取的的url连接
params:url中的额外参数,字典或字节流格式,可选
**kwargs:12个控制访问参数

requests.head(url,**kwargs)

url:拟获取页面的的url连接
**kwargs:12个控制访问参数

requests.post(url,data=None,json=None,**kwargs)

url:拟获取页面的url连接
data:字典,字节序列或文件、request的内容
json:json格式的数据,Request的内容
**kwargs:12个控制访问参数

requests.put(url,data=None,**kwargs)

url:拟更新页面的url连接
data:字典,字节序列或文件、request的内容
**kwargs:12个控制访问参数

requests.patch(url,data=None,**kwargs)

url:拟更新页面的url连接
data:字典,字节序列或文件、request的内容
**kwargs:12个控制访问参数

requests.delete(url,**kwargs)

url:拟删除页面的url连接
**kwargs:12个控制访问参数