我就废话不多说了,直接上代码吧!
import urllib.requestimport requestsimport timeimport sslimport randomdef openUrl(ip, agent): headers = {'User-Agent': agent} proxies = {'http' : ip} requests.get("https://\r\n"request_data = request_line + request_header + "\r\n"# 发送请求tcp_socket.send(request_data.encode("utf-8"))# 接收响应报文,指定长度response_data = tcp_socket.recv(4096)# 对响应报文进行解析 --切割response_str_data = response_data.decode("utf-8")print(response_data)# "\r\n\r\n" 之后的数据就是响应体数据index = response_str_data.find("\r\n\r\n")# 切割出的数据就是文件数据html_data = response_str_data[index+4:]# 在当前路径下新建文件存储响应数据with open("index.html", "wb") as file: file.write(html_data.encode())# 关闭套接字tcp_socket.close()以上这篇Python实现自动访问网页的例子就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。