×

用户登录


忘记密码 | 立即注册

×

找回登录密码


×

找回密码

×

用户注册


服务条款

已有账号?

服务条款

犀牛代理用户注册协议

  1. 1.您确认:您在使用本服务之前,已经充分阅读、理解并接受本服务条款的全部内容,您应当是具备完全民事权利能力和完全民事行为能力的自然人、法人或其他组织;
  2. 2.用户应保证在注册时提供的资料均真实、完整、无误;
  3. 3.不得利用本软件发表、传送、传播、储存违反国家法律、危害国家安全、祖国统一、社会稳定的内容,或任何不当的、侮辱诽谤的、淫秽的、暴力的及任何违反国家法律法规政策的内容;
  4. 4.不得利用本软件进行任何危害计算机网络安全的行为,包括但不限于:使用未经许可的数据或进入未经许可的服务器/帐户; 未经允许进入公众计算机网络或者他人计算机系统并删除、修改、增加存储信息;未经许可,企图探查、扫描、测试本软件系统或网络的弱点或其它实施破坏网络安全的行为; 企图干涉、破坏本软件系统或网站的正常运行,故意传播恶意程序或病毒以及其他破坏干扰正常网络信息服务的行为;伪造TCP/IP数据包名称或部分名称;
  5. 5.在完成注册或激活流程时,您应当按照法律法规要求,按相应页面的提示准确提供并及时更新您的资料,以使之真实、及时,完整和准确。 如有合理理由怀疑您提供的资料错误、不实、过时或不完整的,犀牛代理有权向您发出询问及/或要求改正的通知,并有权直接做出删除相应资料的处理,直至中止、终止对您提供部分或全部服务。 犀牛代理对此不承担任何责任,您将承担因此产生的任何直接或间接损失及不利后果。
  6. 6.为保障服务器的稳定和给用户一个良好的网络环境,请勿迅雷下载,在线视频等大流量操作,否则我们有权在不通知情况下禁用帐号;
  7. 7.系统可能因下列状况无法正常运作,使您无法使用各项互联网服务时,犀牛代理不承担损害赔偿责任,该状况包括但不限于: 犀牛代理在系统停机维护期间;电信设备出现故障不能进行数据传输的;因台风、地震、海啸、洪水、停电、战争、恐怖袭击等不可抗力之因素,造成犀牛代理系统障碍不能执行业务的; 由于黑客攻击、电信部门技术调整或故障、网站升级、银行方面的问题等原因而造成的服务中断或者延迟。
  8. 8.除第三方产品或服务外,本网站上所有内容,包括但不限于著作、图片、档案、资讯、资料、架构、页面设计,均由犀牛代理关联企业依法拥有其知识产权,包括但不限于商标权、专利权、著作权、商业秘密等。 非经犀牛代理或犀牛代理关联企业书面同意,任何人不得擅自使用、修改、复制、公开传播、改变、散布、发行或公开发表本网站上程序或内容; 尊重知识产权是您应尽的义务,如有违反,您应承担损害赔偿责任。
  9. 9.使用本软件必须遵守国家有关法律和政策等,维护国家利益,保护国家安全,并遵守本协议,对于用户违法或违反本协议的使用而引起的一切责任,由用户负全部责任,一概与犀牛代理动态无关,导致犀牛代理IP 加速损失的,犀牛代理有权要求用户赔偿,并有权立即停止向其提供服务,保留相关记录,保留配合司法机关追究法律责任的权利;
  10. 10.您理解并同意,犀牛代理可依据自行判断,通过网页公告、电子邮件、手机短信或常规的信件传送等方式向您发出通知,且犀牛代理可以信赖您所提供的联系信息是完整、准确且当前有效的;上述通知于发送之日视为已送达收件人。

除非本服务条款另有约定或犀牛代理与您另行签订的协议明确规定了通知方式,您发送给犀牛代理的通知,应当通过犀牛代理对外正式公布的通信地址、传真号码、电子邮件地址等联系信息进行送达。 若犀牛代理发现使用本网服务存在进行如上任意一项行为时,本网站将立即停止其使用权,并保留相关信息以追求各项法律相关责任的权利。

为您提供相关的解决办法

以下基本常见问题,如有使用问题请反馈联系我们!

当前位置:新闻资讯

Python 线程、线程通信、多线程

2018-12-14

   一.GIL 全局解释器锁(cpython)
1.为什么会有这个锁:为了线程安全,减少python使用者的上手难度 GIL 使得同一个时刻只有一个线程在一个cpu上执行字节码,无法隐射到多个cpu,多核上执行。
2.特殊情况下会释放GIL:达到特定字节码行数、到底特定数目时间片、IO操作(主动)
   二:并发和并行的区别
并发:描述程序的组织结构,指程序要被设计成多个可独立执行的子任务
并行:描述程序的执行状态,指多任务需要同时执行
   三:守护线程&线程阻塞
守护线程:thread.setDaemon(true),当主程序退出的时候让子程序也一并退出
子线程阻塞:thread.join(),当子程序都结束后主程序再退出
   四:多线程的写法
实例化Threading,调用Threading的方法去进行多线程编程 写子类继承Theading,重写相应的方法
说明:当程序简单时可使用实例化方法,当程序较复杂的时候,实现逻辑较多,第二种方法。
   五:线程间通信
1.共享变量:
方法简单,也可以写入到单独的py文件中。问题:线程不安全,易出问题。
2.queue 队列:
使用queue 的 Queue,这个是线程安全的,多线程取数据不会出错。
内部使用的是deque Python 的双端队列,在字节码的层面上就已经到达了线程安全。
q = Queue()
# 方法:
q.put() # 放入数据
q.get() # 取出数据
q.put_nowait() # 放入数据,不用等待它完成再返回,异步的方法
q.get_nowait() # 取出数据,不用等待它完成再返回,异步的方法
get() put(),可以设置是否阻塞的,默认是阻塞的
q.join()方法:
只有q.task_done()调用了join()才会让主线程退出,成对使用。
   六:线程同步
Lock 锁
lock= Theading.Lock()
# 获取锁:
lock.acquire()
lock.release()
# 另一种方法:
with lock:
# do something
加锁的代码段同时只有这一个代码段在执行,方式数据出问题。
缺点:1.用锁会影响性能 2. 可能引起死锁
死锁情况:1.有acquire 没有release 2. 相互等待
RLock 可重入锁
当在一个线程中多个地方需要加锁的时候用Lock 是不行的,需要用到RLock ,但是要注意的是获取和释放锁的数量要一致,成对出现。
Condition 条件变量
用于复杂的线程间同步,是一个同步锁。例如:先后顺序的多线程通信。
重点函数:wait() notify()
con = theading.Condition()
with con:
# do something
cond.notify() #通知其他线程
cond.wait() # 等待其他线程通知
# do something
注意:
1.先con.acquire()或者with con,获取condition锁,不然wait() notify() 不能用
2.Condition 有两把锁:一把底层锁会在线程调用了wait() 的时候释放,上面的锁会在每次调用wait的时候分配一把并放入condition的等待队列中,等到notify()的唤醒
Semaphore 信号量
用于控制某段代码进入线程的数量,比如控制爬虫的并发量。

                import threading
                import time

            class HtmlSppier(threading.Thread):
                def __init__(self, url, sem):
                    super().__init__()
                    self.sem = sem
                    self.url = url

                def run(self):
                    time.sleep(2)
                    print('download html success')
                    self.sem.release()

            class UrlProducer(threading.Thread):
                def __init__(self,sem):
                    super().__init__()
                    self.sem = sem


                def run(self):
                    for i in range(20):
                        self.sem.acquire()
                        html_thread = HtmlSppier(f'http://www.qq.com/pn={i}',self.sem)
                        html_thread.start()


            if __name__ == '__main__':
                sem = threading.Semaphore(3)
                url_produce = UrlProducer(sem)
                url_produce.start()

七:线程池 为什么要使用线程池? 主线程中可以获取某一个线程的状态或者某一个的任务的状态以及返回值 当一个线程完成的时候主线程能立即知道

                import requests

                def download_html(i):
                    url = f'https://www.baidu.com/s?ie=UTF-8&wd={i}'
                    response = requests.get(url).text
                    print(response)

                ids = list(range(100))

# 线程池方式一:

                import threadpool

                def thread_main(item):
                    pool = threadpool.ThreadPool(30)
                    tasks = threadpool.makeRequests(download_html, ids)
                    [pool.putRequest(req) for req in tasks]
                    pool.wait()

# 线程池方式二:

                from multiprocessing.dummy import   Pool as thpool

                def thread_pool(item):
                    pool = thpool(20)
                    pool.map(download_html, ids)
                    pool.close()
                    pool.join()

# 线程池方式三(推荐):

                from concurrent.futures import ThreadPoolExecutor

                with ThreadPoolExecutor(max_workers=8) as exe:
                    exe.map(download_html,ids)

推荐使用 concurrent.futures 模块,线程池和进程池的接口很相似,方便使用。 ThreadPoolExecutor 其他方法使用: # 其他接口使用:

                from concurrent.futures import ThreadPoolExecutor, as_completed,wait

                executor = ThreadPoolExecutor(max_workers=8)

# 通过 submit 提交执行的函数到线程中 
task1 = executor.submit(download_html, (1)) 
task2 = executor.submit(download_html, (3)) 
# done() 判断 task 是否完成 
print(task1.done()) 
time.sleep(4) 
print(task1.done()) 
# result() 获取 task 的执行结果 阻塞 
print(task1.result()) 
# cancel() 取消任务,如果任务在执行中或者执行完了是不能取消的 
# 现在线程池是8 两个任务都会被提交任务去执行,如果 max_workers = 1,执行task2.cancel()就会成功取消 
print(task2.cancel()) 
# as_completed() 获取已经成功的task的返回数据,阻塞 
# as_completed实际上是一个生成器,里面有 yield 会把已经完成的 future (task) 返回结果 
ids = list(range(10)) 
all_task = [executor.submit(download_html,(i)) for i in ids] 
time.sleep(8) 
# 这是异步的,谁完成就处理谁

                for future in as_completed(all_task):
                    data = future.result()
                    print(f'html response {data}')

# 通过 executor 获取已经完成的task

                for data in executor.map(download_html,ids):
                    print(f'html response {data}')

# wait() 等待task完成 
ids = list(range(10)) 
all_task = [executor.submit(download_html,(i)) for i in ids] 
# wait 的 return_when 可选项 
FIRST_COMPLETED = 'FIRST_COMPLETED' 
FIRST_EXCEPTION = 'FIRST_EXCEPTION' 
ALL_COMPLETED = 'ALL_COMPLETED' 
_AS_COMPLETED = '_AS_COMPLETED' 
wait(all_task, return_when=ALL_COMPLETED) 
   八:总结 Python 多线程首选concurrent.futures 中的 ThreadPoolExecutor,使用简单方便,而且切换多进程也是很快速的,后面继续记录多进程方面的知识点。 
代码位置:github.com/rieuse/learnPython

支付方式

  • 微信支付
  • 支付宝支付

售后服务

  • 技术支持QQ:337292404
  • 投诉建议QQ:337292407

商务合作

关注微信公众号

优惠多多

声明:本站资源仅限用来计算机技术学习及大数据抓取、爬虫研究等合法行为。 利用本站资源从事任何违反中国法律法规的行为,由此引起的一切后果与本站无关。

枣庄联宇商贸有限公司版权所有