×

用户登录


忘记密码 | 立即注册

×

找回登录密码


×

找回密码

×

用户注册


服务条款

已有账号?

服务条款

犀牛代理用户注册协议

  1. 1.您确认:您在使用本服务之前,已经充分阅读、理解并接受本服务条款的全部内容,您应当是具备完全民事权利能力和完全民事行为能力的自然人、法人或其他组织;
  2. 2.用户应保证在注册时提供的资料均真实、完整、无误;
  3. 3.不得利用本软件发表、传送、传播、储存违反国家法律、危害国家安全、祖国统一、社会稳定的内容,或任何不当的、侮辱诽谤的、淫秽的、暴力的及任何违反国家法律法规政策的内容;
  4. 4.不得利用本软件进行任何危害计算机网络安全的行为,包括但不限于:使用未经许可的数据或进入未经许可的服务器/帐户; 未经允许进入公众计算机网络或者他人计算机系统并删除、修改、增加存储信息;未经许可,企图探查、扫描、测试本软件系统或网络的弱点或其它实施破坏网络安全的行为; 企图干涉、破坏本软件系统或网站的正常运行,故意传播恶意程序或病毒以及其他破坏干扰正常网络信息服务的行为;伪造TCP/IP数据包名称或部分名称;
  5. 5.在完成注册或激活流程时,您应当按照法律法规要求,按相应页面的提示准确提供并及时更新您的资料,以使之真实、及时,完整和准确。 如有合理理由怀疑您提供的资料错误、不实、过时或不完整的,犀牛代理有权向您发出询问及/或要求改正的通知,并有权直接做出删除相应资料的处理,直至中止、终止对您提供部分或全部服务。 犀牛代理对此不承担任何责任,您将承担因此产生的任何直接或间接损失及不利后果。
  6. 6.为保障服务器的稳定和给用户一个良好的网络环境,请勿迅雷下载,在线视频等大流量操作,否则我们有权在不通知情况下禁用帐号;
  7. 7.系统可能因下列状况无法正常运作,使您无法使用各项互联网服务时,犀牛代理不承担损害赔偿责任,该状况包括但不限于: 犀牛代理在系统停机维护期间;电信设备出现故障不能进行数据传输的;因台风、地震、海啸、洪水、停电、战争、恐怖袭击等不可抗力之因素,造成犀牛代理系统障碍不能执行业务的; 由于黑客攻击、电信部门技术调整或故障、网站升级、银行方面的问题等原因而造成的服务中断或者延迟。
  8. 8.除第三方产品或服务外,本网站上所有内容,包括但不限于著作、图片、档案、资讯、资料、架构、页面设计,均由犀牛代理关联企业依法拥有其知识产权,包括但不限于商标权、专利权、著作权、商业秘密等。 非经犀牛代理或犀牛代理关联企业书面同意,任何人不得擅自使用、修改、复制、公开传播、改变、散布、发行或公开发表本网站上程序或内容; 尊重知识产权是您应尽的义务,如有违反,您应承担损害赔偿责任。
  9. 9.使用本软件必须遵守国家有关法律和政策等,维护国家利益,保护国家安全,并遵守本协议,对于用户违法或违反本协议的使用而引起的一切责任,由用户负全部责任,一概与犀牛代理动态无关,导致犀牛代理IP 加速损失的,犀牛代理有权要求用户赔偿,并有权立即停止向其提供服务,保留相关记录,保留配合司法机关追究法律责任的权利;
  10. 10.您理解并同意,犀牛代理可依据自行判断,通过网页公告、电子邮件、手机短信或常规的信件传送等方式向您发出通知,且犀牛代理可以信赖您所提供的联系信息是完整、准确且当前有效的;上述通知于发送之日视为已送达收件人。

除非本服务条款另有约定或犀牛代理与您另行签订的协议明确规定了通知方式,您发送给犀牛代理的通知,应当通过犀牛代理对外正式公布的通信地址、传真号码、电子邮件地址等联系信息进行送达。 若犀牛代理发现使用本网服务存在进行如上任意一项行为时,本网站将立即停止其使用权,并保留相关信息以追求各项法律相关责任的权利。

为您提供相关的解决办法

以下基本常见问题,如有使用问题请反馈联系我们!

当前位置:新闻资讯

批量下载小说网站上的小说(python爬虫)

2019-04-23

本文关键词:python爬虫,代理IP

批量下载小说网站上的小说(python爬虫) 
朋友要我帮忙下载小说,刚好有空就顺便着答应了,用了一个中午时间写了一个粗糙的爬虫脚本,启动发现可以运行,让脚本在这儿跑着,过一段时间之后,发现停掉了,于是debug,干掉bug之后跑起来陆续又发现几个错误,于是干脆在一些容易出错的地方,例如urlopen()请求服务器的地方,本地write()写入的地方(是的,这也会有超时错误!)加入了try-except捕获错误进行处理,另外加入了socket.timeout网络超时限制,修修补补之后总算可以顺畅的运行。

如此,运行了两天,爬虫脚本把这个小说网上的几乎所有小说都下载到了本地,一共27000+本小说,一共40G。


自此,大功告成,打包发了过去。另外说一句,百度云真坑,每次上传数量有限制,分享给朋友文件数量有限制,分享的文件夹大小也有限制,害的我还得整成压缩版才能分享。



下载界面


下面附上代码


1 #coding=utf-8
 2 import urllib
 3 import urllib2
 4 import re
 5 import os
 6 
 7 webroot = 'http://www.xuanshu.com'
 8 
 9 for page in range(20,220):
10     print '正在下载第'+str(page)+'页小说'
11     
12     url = 'http://www.xuanshu.com/soft/sort02/index_'+str(page)+'.html'
13     headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'  }
14     try:
15         request = urllib2.Request(url,headers=headers)
16         response = urllib2.urlopen(request,timeout=180)
17         #print response.read()
18     except urllib2.URLError, e:
19         if hasattr(e,"code"):
20             print e.code
21         if hasattr(e,"reason"):
22             print e.reason
23 
24     html = response.read().decode('utf-8')
25     #print html
26     pattern = re.compile(u'<li>.*?<div class="s">.*?target="_blank">(.*?)</a><br />大小:(.*?)<br>.*?</em><br>更新:(.*?)</div>.*?<a href="(.*?)"><img.*?>(.*?)</a>.*?<div class="u">(.*?)</div>',re.S)
27     items = re.findall(pattern,html)
28     #print items
29 
30     for item in items:
31         try:
32             book_auther = item[0].encode('gbk')
33             book_size = item[1].encode('gbk')
34             book_updatetime = item[2].encode('gbk')
35             book_link = item[3].encode('gbk')
36             book_name = item[4].encode('gbk')
37             book_note = item[5].encode('gbk')
38             
39             book_full_link = webroot + book_link    # 构建书的绝对地址
40 
41             #请求地址
42             try:
43                 request = urllib2.Request(book_full_link,headers=headers)
44                 response = urllib2.urlopen(request,timeout=180)
45             except urllib2.URLError, e:
46                 if hasattr(e,"code"):
47                     print e.code
48                 if hasattr(e,"reason"):
49                     print e.reason
50             html = response.read().decode('utf-8')
51             #print html
52             pattern = re.compile('<a class="downButton.*?<a class="downButton" href=\'(.*?)\'.*?Txt.*?</a>',re.S)
53             down_link = re.findall(pattern,html)
54             print book_name
55             print down_link
56             
57             # down txt
58             try:
59                 request = urllib2.Request(down_link[0].encode('utf-8'),headers=headers)
60                 response = urllib2.urlopen(request,timeout=180)
61             except urllib2.URLError, e:
62                 if hasattr(e,"code"):
63                     print e.code
64                 if hasattr(e,"reason"):
65                     print e.reason
66             try:
67                 fp = open(book_name+'.txt','w')
68             except IOError,e:
69                 pattern = re.compile('<strong>.*?>(.*?)<.*?</strong>',re.S)
70                 book_name = re.findall(pattern,book_name)
71                 fp = open(book_name[0]+'.txt','w')
72             print 'start download'
73             fp.write(response.read())
74             print 'down finish\n'
75             fp.close()
76         except Exception,e:
77             print '该条目解析出现错误,忽略'
78             print e
79             print ''
80             fp = open('error.log','a')
81             fp.write('page:'+str(page)+'\n')
82             fp.write(item[4].encode('gbk'))
83             #fp.write(e)
84             fp.write('\nThere is an error in parsing process.\n\n')
85             fp.close()
86         
87  
python爬虫再爬取小说的过程中可能会出现IP的限制,可以尝试使用代理IP更换IP地址   

注意

该脚本只定向抓取“选书网”小说站,“玄幻奇幻”分类下的小说。供网友们参考,可自行修改。

支付方式

  • 微信支付
  • 支付宝支付

售后服务

  • 技术支持QQ:337292404
  • 投诉建议QQ:337292407

商务合作

关注微信公众号

优惠多多

声明:本站资源仅限用来计算机技术学习及大数据抓取、爬虫研究等合法行为。 利用本站资源从事任何违反中国法律法规的行为,由此引起的一切后果与本站无关。

枣庄联宇商贸有限公司版权所有