python request库是一个用于网页爬取的外接模块(个人理解),度娘说的是基于urllib,采⽤Apache2 Licensed开源协议的 HTTP 库,至于安装的话网上有很多教程了,(ps:如果在输入指令pip install request没有响应或者下载报错那么很可能是下载地址有问题这时候需要换源)下面是一些基础的调用方法:

首先是request.get,通过 name=requests.get(url) 方法可构造一个向服务器请求资源的Request对象,并且返回一个包含服务器资源的Response对象(包含从服务器返回的所有的资源,爬虫返回的全部内容)以该网站的域名为例输入:

1
2
3
import requests
web=requests.get('https://www.wenjun.ltd/')
print(web.text)

import requests

在Python脚本的顶部,导入requests库.
发送GET请求:
使用requests库发送GET请求,只需提供要请求的URL即可:

response = requests.get(url)

这将向给定的URL发送GET请求,并将响应保存在 response 对象中。

发送POST请求:
如果需要发送POST请求,可以使用以下代码:

1
response = requests.post(url, data=data)

在上述代码中,url 是请求的URL,data 是要发送的数据。
处理响应:

请求完成后,您可以通过response 对象来处理响应。以下是一些常用的方法:

response.text:返回响应的内容(字符串形式)。

response.json():将响应的内容解析为JSON格式。

response.status_code:返回响应的状态码。

response.headers:返回响应头的字典。

下面是一些基本的request.blabla的使用说明:

GET: 请求指定的页面信息,并返回实体主体。

HEAD: 只请求页面的首部。

POST: 请求服务器接受所指定的文档作为对所标识的URI的新的从属实体。

PUT: 从客户端向服务器传送的数据取代指定的文档的内容。

DELETE: 请求服务器删除指定的页面。