Pyhton爬虫代理池的建立与使用,黑洞代理在这篇文章就要带领大家进入到安装与使用操作了,各位爬虫新手请搬好小板凳,前方知识高能,做好接收准备吧!
下面进入到安装部分:
下载代码:
1git clone git@github.com:jhao104/proxy_pool.git
或者直接到https://github.com/jhao104/proxy_pool 下载zip文件
安装依赖:
pip install-r requirements.txtpip install-r requirements.txt
启动:
需要分别启动定时任务和api
到Config.ini中配置你的SSDB
到Schedule目录下:
1>>>python ProxyRefreshSchedule.py
到Api目录下:
1>>>python ProxyApi.py
需要分别启动定时任务和api
到Config.ini中配置你的SSDB
到Schedule目录下:
1>>>python ProxyRefreshSchedul e.py
到Api目录下:
1>>>python ProxyApi.py
如何使用?
定时任务启动后,会通过代理获取方法fetch所有代理放入数据库并验证。此后默认每20分钟会重复执行一次。定时任务启动大概一两分钟后,便可在SSDB中看到刷新出来的可用的代理:
启动ProxyApi.py后即可在浏览器中使用接口获取代理,一下是浏览器中的截图:
get页面:
get_all页面:
爬虫中使用,如果要在爬虫代码中使用的话, 可以将此api封装成函数直接使用,例如:
importrequestsdefget_proxy():returnrequests.get("http://127.0.0.1:5000/get/").contentdefdelete_proxy(proxy):requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))# your spider codedefspider():# ....requests.get('https://www.pythontab.com', proxies={"http": "http://{}".format(get_proxy)})# ....
学习好之后,我们会发现代理IP池的设置其实也没有那么困难,可以很快就上手。
相关文章内容简介
1 爬虫代理池的安装与使用
Pyhton爬虫代理池的建立与使用,黑洞代理在这篇文章就要带领大家进入到安装与使用操作了,各位爬虫新手请搬好小板凳,前方知识高能,做好接收准备吧! 下面进入到安装部分: 下载代码: 1git∵clone∵git@github.com:jhao104/proxy_pool.git 或者直接到https://github.com/jhao104/proxy_pool∵下载zip文件 安装依赖: pip∵install-r∵requirements.txtpip∵install... [阅读全文]
最新标签
推荐阅读
22
2019-11
如何处理代理IP的难题:抓取频次过多立即封IP
如何处理代理IP的难题:抓取频次过多立即封IP
01
2020-01
代理ip如何做网络营销?
为什么说代理IP与网络营销是相辅相成的呢?因为通过ip代理的应用,我们可以在网络营销推广中获得更多的便利。
12
2019-11
跟着黑洞代理走进爬虫技术
大数据+时代,企业需要动用到网络爬虫的时候要比以前要多,通过爬虫去抓取我们需要的数据信息,才能够为企业未来发展提供帮助。尤其是在代理IP的风靡之下,爬虫的技术门槛没以前那么复
06
2018-08
代理IP有哪些用途?
网络发展得非常迅速,互联网时代,电脑端跟手机端都会有一个IP地址,这个IP就是我们在使用设备进行网络操作的时候的一个身份认证。这是网络通过IP来识别不同的客户端的途径。
热门文章
公众号
关注公众号,免费领试用