前言
Python爬虫要经历爬虫、爬虫被限制、爬虫反限制的过程。当然后续还要网页爬虫限制优化,爬虫再反限制的一系列道高一尺魔高一丈的过程。爬虫的初级阶段,添加headers和ip代理可以解决很多问题。
思路:
爬取一些IP,过滤掉不可用.
在requests的请求的proxies参数加入对应的IP.
继续爬取.
收工
好吧,都是废话,理论大家都懂,下面直接上代码...
运行环境
Python 3.7, Pycharm
这些需要大家直接去搭建好环境...
准备工作
爬取IP地址的网站(国内高匿代理)
校验IP地址的网站
你之前被封IP的py爬虫脚本...
上面的网址看个人的情况来选取
爬取IP的完整代码
PS:简单的使用bs4获取IP和端口号,没有啥难度,里面增加了一个过滤不可用IP的逻辑
关键地方都有注释了
使用方法完整代码
PS: 主要是通过使用随机的IP来爬取,根据request_status来判断这个IP是否可以用.
为什么要这样判断?
主要是虽然上面经过了过滤,但是不代表在你爬取的时候是可以用的,所以还是得多做一个判断.
为什么选择国内高匿代理!
总结
使用这样简单的代理IP,基本上就可以应付在爬爬爬着被封IP的情况了.而且没有使用自己的IP,间接的保护?!?!好了,以上就是这篇文章的全部内容了,大家有其他的更加快捷的方法,欢迎大家可以拿出来交流和讨论,谢谢。
我是一名python开发工程师,整理了一套python的学习资料,如果你想提升自己,对编程感兴趣,关注我并在后台私信小编:“08”即可免费领取资料!希望对你能有所帮助!
相关文章内容简介
1 Python网络爬虫反限定的初始阶段,你需要知道改ip代理地址
前言Python爬虫要经历爬虫、爬虫被限制、爬虫反限制的过程。当然后续还要网页爬虫限制优化,爬虫再反限制的一系列道高一尺魔高一丈的过程。爬虫的初级阶段,添加headers和ip代理可以解决很多问题。思路:爬取一些IP,过滤掉不可用.在requests的请求的proxies参数加入对应的IP.继续爬取.收工好吧,都是废话,理论大家都懂,下面直接上代码...运行环境Python∵3.7,∵Py... [阅读全文]
最新标签
推荐阅读
22
2019-11
教你完全免费高匿代理IP池,完工自身的代理池
06
2018-08
爬虫使用代理IP 可以选择什么代理方式?
爬虫工作需要多次反复对网站数据进行抓取,这一操作很容易触犯到网站的反爬虫机制,因为IP访问的次数超出限制,所以我们如果想要解决这一问题,那么就要用到代理IP。
06
2018-08
代理IP如何隐藏IP地址?
为什么我们上网的时候需要隐藏自己的真实IP?现在网络盗用信息以及网络诈骗频频发生,使用网站的时候,我们需要保护好个人信息以及隐私,这样我们才能够有安全的网络环境。
22
2019-11
分享ip代理软件⁇手机软件改变ip应用的方式,。
黑洞ip代理换ip软件
热门文章
在线咨询
客户经理
公众号
关注公众号,免费领试用
大客户