您当前的位置:首页 > IT编程 > python
| C语言 | Java | VB | VC | python | Android | TensorFlow | C++ | oracle | 学术与代码 | cnn卷积神经网络 | gnn | 图像修复 | Keras | 数据集 | Neo4j | 自然语言处理 | 深度学习 | 医学CAD | 医学影像 | 超参数 | pointnet | pytorch | 异常检测 | Transformers | 情感分类 | 知识图谱 |

自学教程:python爬虫设置每个代理ip的简单方法

51自学网 2021-10-30 22:19:33
  python
这篇教程python爬虫设置每个代理ip的简单方法写得很实用,希望能帮到您。

python爬虫设置每个代理ip的方法:

1.添加一段代码,设置代理,每隔一段时间换一个代理。

urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。假如一个网站它会检测某一段时间某个 IP 的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,网站君都不知道是谁在捣鬼了,这酸爽! 下面一段代码说明了代理的设置用法。

import urllib2enable_proxy = Trueproxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})null_proxy_handler = urllib2.ProxyHandler({})if enable_proxy:    opener = urllib2.build_opener(proxy_handler)else:    opener = urllib2.build_opener(null_proxy_handler)urllib2.install_opener(opener)

2.Timeout 设置,可以解决一些网站出现响应过慢而造成的影响问题。

之前已经说过urlopen 方法了,第三个参数就是 timeout 的设置,可以设置等待多久超时,为了解决一些网站实在响应过慢而造成的影响。 例如下面的代码,如果第二个参数 data 为空那么要特别指定是 timeout 是多少,写明形参,如果 data 已经传入,则不必声明。

import urllib2response = urllib2.urlopen('http://www.baidu.com', timeout=10)
import urllib2response = urllib2.urlopen('http://www.baidu.com',data, 10)

以上就是Python爬虫中设置代理的方法。结尾的时候我们补充了timeout的用法,本意是希望可以让大家需要网络过慢问题能有好的解决出路。

不过,地址代理方面用的较为多,所以要着重学习。如果需要用的ip可以试试太阳http,爬虫采集、营销推广、工作室等行业首选的IP产品,全国城市线路数量200+,API调用频率不限制,不限并发,24小时不断更新IP池。

知识点扩展:

代码扩展:

from bs4 import BeautifulSoupimport requestsimport randomdef get_ip_list(url, headers): web_data = requests.get(url, headers=headers) soup = BeautifulSoup(web_data.text, 'lxml') ips = soup.find_all('tr') ip_list = [] for i in range(1, len(ips)):  ip_info = ips[i]  tds = ip_info.find_all('td')  ip_list.append(tds[1].text + ':' + tds[2].text) return ip_listdef get_random_ip(ip_list): proxy_list = [] for ip in ip_list:  proxy_list.append('http://' + ip) proxy_ip = random.choice(proxy_list) proxies = {'http': proxy_ip} return proxiesif __name__ == '__main__': url = 'http://www.xicidaili.com/nn/' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.17 (KHTML, like Gecko) Chrome/24.0.1312.60 Safari/537.17' } ip_list = get_ip_list(url, headers=headers) proxies = get_random_ip(ip_list) print(proxies)

到此这篇关于python爬虫设置每个代理ip的简单方法的文章就介绍到这了,更多相关python爬虫如何设置每个代理ip内容请搜索51zixue.net以前的文章或继续浏览下面的相关文章希望大家以后多多支持51zixue.net!


python之多种方式传递函数方法案例讲解
numpy创建神经网络框架
万事OK自学网:51自学网_软件自学网_CAD自学网自学excel、自学PS、自学CAD、自学C语言、自学css3实例,是一个通过网络自主学习工作技能的自学平台,网友喜欢的软件自学网站。