×

用户登录


忘记密码 | 立即注册

×

找回登录密码


×

找回密码

×

用户注册


服务条款

已有账号?

服务条款

犀牛代理用户注册协议

  1. 1.您确认:您在使用本服务之前,已经充分阅读、理解并接受本服务条款的全部内容,您应当是具备完全民事权利能力和完全民事行为能力的自然人、法人或其他组织;
  2. 2.用户应保证在注册时提供的资料均真实、完整、无误;
  3. 3.不得利用本软件发表、传送、传播、储存违反国家法律、危害国家安全、祖国统一、社会稳定的内容,或任何不当的、侮辱诽谤的、淫秽的、暴力的及任何违反国家法律法规政策的内容;
  4. 4.不得利用本软件进行任何危害计算机网络安全的行为,包括但不限于:使用未经许可的数据或进入未经许可的服务器/帐户; 未经允许进入公众计算机网络或者他人计算机系统并删除、修改、增加存储信息;未经许可,企图探查、扫描、测试本软件系统或网络的弱点或其它实施破坏网络安全的行为; 企图干涉、破坏本软件系统或网站的正常运行,故意传播恶意程序或病毒以及其他破坏干扰正常网络信息服务的行为;伪造TCP/IP数据包名称或部分名称;
  5. 5.在完成注册或激活流程时,您应当按照法律法规要求,按相应页面的提示准确提供并及时更新您的资料,以使之真实、及时,完整和准确。 如有合理理由怀疑您提供的资料错误、不实、过时或不完整的,犀牛代理有权向您发出询问及/或要求改正的通知,并有权直接做出删除相应资料的处理,直至中止、终止对您提供部分或全部服务。 犀牛代理对此不承担任何责任,您将承担因此产生的任何直接或间接损失及不利后果。
  6. 6.为保障服务器的稳定和给用户一个良好的网络环境,请勿迅雷下载,在线视频等大流量操作,否则我们有权在不通知情况下禁用帐号;
  7. 7.系统可能因下列状况无法正常运作,使您无法使用各项互联网服务时,犀牛代理不承担损害赔偿责任,该状况包括但不限于: 犀牛代理在系统停机维护期间;电信设备出现故障不能进行数据传输的;因台风、地震、海啸、洪水、停电、战争、恐怖袭击等不可抗力之因素,造成犀牛代理系统障碍不能执行业务的; 由于黑客攻击、电信部门技术调整或故障、网站升级、银行方面的问题等原因而造成的服务中断或者延迟。
  8. 8.除第三方产品或服务外,本网站上所有内容,包括但不限于著作、图片、档案、资讯、资料、架构、页面设计,均由犀牛代理关联企业依法拥有其知识产权,包括但不限于商标权、专利权、著作权、商业秘密等。 非经犀牛代理或犀牛代理关联企业书面同意,任何人不得擅自使用、修改、复制、公开传播、改变、散布、发行或公开发表本网站上程序或内容; 尊重知识产权是您应尽的义务,如有违反,您应承担损害赔偿责任。
  9. 9.使用本软件必须遵守国家有关法律和政策等,维护国家利益,保护国家安全,并遵守本协议,对于用户违法或违反本协议的使用而引起的一切责任,由用户负全部责任,一概与犀牛代理动态无关,导致犀牛代理IP 加速损失的,犀牛代理有权要求用户赔偿,并有权立即停止向其提供服务,保留相关记录,保留配合司法机关追究法律责任的权利;
  10. 10.您理解并同意,犀牛代理可依据自行判断,通过网页公告、电子邮件、手机短信或常规的信件传送等方式向您发出通知,且犀牛代理可以信赖您所提供的联系信息是完整、准确且当前有效的;上述通知于发送之日视为已送达收件人。

除非本服务条款另有约定或犀牛代理与您另行签订的协议明确规定了通知方式,您发送给犀牛代理的通知,应当通过犀牛代理对外正式公布的通信地址、传真号码、电子邮件地址等联系信息进行送达。 若犀牛代理发现使用本网服务存在进行如上任意一项行为时,本网站将立即停止其使用权,并保留相关信息以追求各项法律相关责任的权利。

为您提供相关的解决办法

以下基本常见问题,如有使用问题请反馈联系我们!

当前位置:新闻资讯

如何建立爬虫代理ip池

2018-12-14

   一、为什么需要建立爬虫代理ip池
在众多的网站防爬措施中,有一种是根据ip的访问频率进行限制的,在某段时间内,当某个ip的访问量达到一定的阀值时, 该ip会被拉黑、在一段时间内被禁止访问这种时候,可以通过降低爬虫的频率,或者更改ip来应对。后者就需要有一个可 用的代理ip池,以供爬虫工作时切换。这个就是更换ip软件
   二、如何建立一个爬虫代理ip池
思路:
1、找到一个免费的ip代理网站(如:西刺代理)
2、爬取ip(常规爬取requests+BeautifulSoup)
3、验证ip有效性(携带爬取到的ip,去访问指定的url,看返回的状态码是不是200)
4、记录ip (写到文档)
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import requests,threading,datetime
from bs4 import BeautifulSoup
import random
1、抓取西刺代理网站的代理ip
2、并根据指定的目标url,对抓取到ip的有效性进行验证
3、最后存到指定的path
文档处理

            def write(path,text):
             with open(path,'a', encoding='utf-8') as f:
                     f.writelines(text)
                     f.write('\n')
清空文档

            def truncatefile(path):
             with open(path, 'w', encoding='utf-8') as f:
                     f.truncate()
读取文档

            def read(path):
                with open(path, 'r', encoding='utf-8') as f:
                    txt = []
                    for s in f.readlines():
                        txt.append(s.strip())
                return txt
计算时间差,格式: 时分秒

            def gettimediff(start,end):
                seconds = (end - start).seconds
                m, s = divmod(seconds, 60)
                h, m = divmod(m, 60)
                diff = ("%02d:%02d:%02d" % (h, m, s))
                return diff
返回一个随机的请求头 headers

    def getheaders():user_agent_list = [ \
     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1" \
     "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11", \
     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6", \
     "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6", \
     "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1", \
     "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5", \
     "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5", \
     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
     "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3", \
     "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3", \
     "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24", \
     "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
                ]
            UserAgent=random.choice(user_agent_list)
            headers = {'User-Agent': UserAgent}
            return headers
检查ip是否可用

            def checkip(targeturl,ip):
                headers =getheaders()  # 定制请求头
                proxies = {"http": "http://"+ip, "https": "http://"+ip}  # 代理ip
                try:
                    response=requests.get(url=targeturl,proxies=proxies,headers=headers,timeout=5).status_code
                    if response == 200 :
                        return True
                    else:
                        return False
                except:
                    return False
获取代理方法 免费代理 XiciDaili

            def findip(type,pagenum,targeturl,path): # ip类型,页码,目标url,存放ip的路径
                list={'1': 'http://www.xicidaili.com/nt/', # xicidaili国内普通代理
                      '2': 'http://www.xicidaili.com/nn/', # xicidaili国内高匿代理
                      '3': 'http://www.xicidaili.com/wn/', # xicidaili国内https代理
                      '4': 'http://www.xicidaili.com/wt/'} # xicidaili国外http代理
                url=list[str(type)]+str(pagenum) # 配置url
                headers = getheaders() # 定制请求头
                html=requests.get(url=url,headers=headers,timeout = 5).text
                soup=BeautifulSoup(html,'lxml')
                all=soup.find_all('tr',class_='odd')
                for i in all:
                    t=i.find_all('td')
                    ip=t[1].text+':'+t[2].text
                    is_avail = checkip(targeturl,ip)
                    if is_avail == True:
                        write(path=path,text=ip)
                        print(ip)
多线程抓取ip入口

           def getip(targeturl,path):
             truncatefile(path) # 爬取前清空文档
             start = datetime.datetime.now() # 开始时间
             threads=[]
             for type in range(4):   # 四种类型ip,每种类型取前三页,共12条线程
                 for pagenum in range(3):
                     t=threading.Thread(target=findip,args=(type+1,pagenum+1,targeturl,path))
                     threads.append(t)
             print('开始爬取代理ip')
             for s in threads: # 开启多线程爬取
                 s.start()
             for e in threads: # 等待所有线程结束
                 e.join()
             print('爬取完成')
             end = datetime.datetime.now() # 结束时间
             diff = gettimediff(start, end)  # 计算耗时
             ips = read(path)  # 读取爬到的ip数量
             print('一共爬取代理ip: %s 个,共耗时: %s \n' % (len(ips), diff))
启动

               if __name__ == '__main__':
                path = 'ip.txt' # 存放爬取ip的文档path
                targeturl = 'http://www.cnblogs.com/TurboWay/' # 验证ip有效性的指定url
            getip(targeturl,path)  http网页在线代理

支付方式

  • 微信支付
  • 支付宝支付

售后服务

  • 技术支持QQ:337292404
  • 投诉建议QQ:337292407

商务合作

关注微信公众号

优惠多多

声明:本站资源仅限用来计算机技术学习及大数据抓取、爬虫研究等合法行为。 利用本站资源从事任何违反中国法律法规的行为,由此引起的一切后果与本站无关。

枣庄联宇商贸有限公司版权所有