Python爬虫换动态ip代理代码
Python爬虫换动态ip代理代码简单爬虫经常IP就被网站封了,爬不到想爬的内容,还得去找ip代理来使用才可以继续爬虫。这是由于网站对于自己服务器以及信息的一种保护。 
 Python爬虫要经历爬虫、爬虫被限制、爬虫反限制的过程。当然后续还要网页爬虫限制优化,爬虫再反限制的一系列道高一尺魔高一丈的过程。爬虫的初级阶段,添加headers和ip代理可以解决很多问题。  下面我们来看看Python抓取ip代理的具体代码操作:  运行环境:  Python 3.7, Pycharm   这些需要大家直接去搭建好环境…   准备工作:  爬取IP地址的网站(国内高匿代理)   Python爬虫取IP的完整代码:PS:简单的使用bs4获取IP和端口号,没有啥难度,里面增加了一个过滤不可用IP的逻辑,以下关键地方都有注释了。  #!/usr/bin/env python3   # – coding: utf-8 –   # @Time : 2018/11/22   # @Author : liangk   # @Site :   # @File : auto_archive_ios.py   # @Software: PyCharm   import requests   from bs4 import BeautifulSoup   import json   class GetIp(object):   “”“抓取ip代理”“”   def init(self):   “”“初始化变量”“”   self.url = ‘http://www.xicidaili.com/nn/'   self.check_url = ’https://www.ip.cn/'   self.ip_list = []   @staticmethod   def get_html(url):   “”“请求html页面信息”“”   header = {   ‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36’ }   try:   request = requests.get(url=url, headers=header)   request.encoding = ‘utf-8’   html = request.text   return html   except Exception as e:   return ‘’   def get_available_ip(self, ip_address, ip_port):   “”“检测IP地址是否可用”“”   header = {   ‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36’ }   ip_url_next = ‘://’ + ip_address + ‘:’ + ip_port   proxies = {‘http’: ‘http’ + ip_url_next, ‘https’: ‘https’ + ip_url_next}   try:  r = requests.get(self.check_url, headers=header, proxies=proxies, timeout=3)   html = r.text   except: print(‘fail-%s’ % ip_address)   else:   print(‘success-%s’ % ipaddress)   soup = BeautifulSoup(html, ‘lxml’)   div = soup.find(class=‘well’)   if div:   print(div.text)   ip_info = {‘address’: ip_address, ‘port’: ip_port}   self.ip_list.append(ip_info)   def main(self):   “”“主方法”“”   web_html = self.get_html(self.url)   soup = BeautifulSoup(web_html, ‘lxml’)   ip_list = soup.find(id=‘ip_list’).find_all(‘tr’)   for ip_info in ip_list:   td_list = ip_info.find_all(‘td’)   if len(td_list) > 0:   ip_address = td_list[1].text   ip_port = td_list[2].text   # 检测IP地址是否有效  self.get_available_ip(ip_address, ip_port)   # 写入有效文件  with open(‘ip.txt’, ‘w’) as file:   json.dump(self.ip_list, file)   print(self.ip_list)   # 程序主入口  if name == ‘main’:   get_ip = GetIp()   get_ip.main()   当然了,以上这些只是用ip代理爬虫的常规操作,爬虫大神可能已经对于这些已经见怪不怪了。

阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。