python协程和线程,python中协程和线程的区别
协程
在python GIL下,一次只能运行一个线程,所以对于CPU密集型的程序来说,线程间切换的开销就成了拖累,而以I/O为瓶颈的程序正是协成所擅长的:
Python中的协同学经历了漫长的发展时期。它经历了以下三个阶段:
1.原始发电机变形量/发送量;
2.介绍@asyncio.coroutine和Yieldfrom
3.在最新的Python3.5版本3.5中引入async/await关键字。
(1)从收益率入手。
我们来看一个计算斐波那契数列的普通代码。
deffibs(n):
res=[0]*n
指数=0
a=0
b=1
whileindexn:
res[index]=b
a,b=b,a b
指数=1
返回者
forfib_resinfibs(20):
Print(fib_res)如果我们只是需要得到斐波那契数列的第n位,或者只是想基于它生成斐波那契数列,那么上面的传统方法会消耗更多的内存。
这时候,收益率就派上用场了。
deffib(n):
指数=0
a=0
b=1
whileindexn:
yieldb
a,b=b,a b
指数=1
forfib _树脂纤维(20):
Print(fib_res)当一个函数包含yield语句时,python会自动将其识别为生成器。此时fib(20)并没有真正调用函数体,而是用函数体生成一个生成器对象实例。
Yield可以在这里保留fib函数的计算位置,暂停fib的计算并返回b .而fib放入fo。
r…in循环中时,每次循环都会调用next(fib(20)),唤醒生成器,执行到下一个yield语句处,直到抛出StopIteration异常。此异常会被for循环捕获,导致跳出循环。
(2) Send来了
从上面的程序中可以看到,目前只有数据从fib(20)中通过yield流向外面的for循环;如果可以向fib(20)发送数据,那不是就可以在Python中实现协程了嘛。
相关推荐:《Python视频教程》
于是,Python中的生成器有了send函数,yield表达式也拥有了返回值。
我们用这个特性,模拟一个慢速斐波那契数列的计算:
importtimepython 进行并发编程importrandom
defstupid_fib(n):
index=0
a=0
b=1
whileindex<n:
sleep_cnt=yieldb
print('letmethink{0}secs'.format(sleep_cnt))
time.sleep(sleep_cnt)
a,b=b,a+b
index+=1
print('-'*10+'testyieldsend'+'-'*10)
N=20
sfib=stupid_fib(N)
fib_res=next(sfib)
whileTrue:
print(fib_res)
try:
fib_res=sfib.send(random.uniform(0,0.5))
exceptStopIteration:
break
在Python 2的时代,高性能的网络编程主要是使用Twisted、Tornado和Gevent这三个库,但是它们的异步代码相互之间既不兼容也不能移植。
asyncio是Python 3.4版本引入的标准库,直接内置了对异步IO的支持。
asyncio的编程模型就是一个消息循环。我们从asyncio模块中直接获取一个EventLoop的引用,然后把需要执行的协程扔到EventLoop中执行,就实现了异步IO。
Python的在3.4中引入了协程的概念,可是这个还是以生成器对象为基础。
Python 3.5添加了async和await这两个关键字,分别用来替换asyncio.coroutine和yield from。
python3.5则确定了协程的语法。下面将简单介绍asyncio的使用。实现协程的不仅仅是asyncio,tornado和gevent都实现了类似的功能。
(1)协程定义
用asyncio实现Hello world代码如下:
importasyncio@asyncio.coroutine把一个generator标记为coroutine类型,然后,我们就把这个coroutine扔到EventLoop中执行。 hello()会首先打印出Hello world!,然后,yield from语法可以让我们方便地调用另一个generator。由于asyncio.sleep()也是一个coroutine,所以线程不会等待asyncio.sleep(),而是直接中断并执行下一个消息循环。当asyncio.sleep()返回时,线程就可以从yield from拿到返回值(此处是None),然后接着执行下一行语句。
@asyncio.coroutine
defhello():
print("Helloworld!")
#异步调用asyncio.sleep(1):
r=yieldfromasyncio.sleep(1)
print("Helloagain!")
#获取EventLoop:
loop=asyncio.get_event_loop()
#执行coroutine
loop.run_until_complete(hello())
loop.close()
把asyncio.sleep(1)看成是一个耗时1秒的IO操作,在此期间,主线程并未等待,而是去执行EventLoop中其他可以执行的coroutine了,因此可以实现并发执行。
我们用Task封装两个coroutine试试:
importthreading观察执行过程:importasyncio
@asyncio.coroutine
defhello():
print('Helloworld!(%s)'%threading.currentThread())
yieldfromasyncio.sleep(1)
print('Helloagain!(%s)'%threading.currentThread())
loop=asyncio.get_event_loop()
tasks=[hello(),hello()]
loop.run_until_complete(asyncio.wait(tasks))
loop.close()
Helloworld!(<_MainThread(MainThread,started140735195337472)>)由打印的当前线程名称可以看出,两个coroutine是由同一个线程并发执行的。Helloworld!(<_MainThread(MainThread,started140735195337472)>)
(暂停约1秒)
Helloagain!(<_MainThread(MainThread,started140735195337472)>)
Helloagain!(<_MainThread(MainThread,started140735195337472)>)
如果把asyncio.sleep()换成真正的IO操作,则多个coroutine就可以由一个线程并发执行。
asyncio案例实战
我们用asyncio的异步网络连接来获取sina、sohu和163的网站首页:
async_wget.py
importasyncio结果信息如下:
@asyncio.coroutine
defwget(host):
print('wget%s...'%host)
connect=asyncio.open_connection(host,80)
reader,writer=yieldfromconnect
header='GET/HTTP/1.0\r\nHost:%s\r\n\r\n'%host
writer.write(header.encode('utf-8'))
yieldfromwriter.drain()
whileTrue:
line=yieldfromreader.readline()
ifline==b'\r\n':
break
print('%sheader>%s'%(host,line.decode('utf-8').rstrip()))
#Ignorethebody,closethesocket
writer.close()
loop=asyncio.get_event_loop()
tasks=[wget(host)forhostin['www.sina.com.cn','www.sohu.com','www.163.com']]
loop.run_until_complete(asyncio.wait(tasks))
loop.close()
wgetwww.sohu.com...可见3个连接由一个线程通过coroutine并发完成。wgetwww.sina.com.cn...
wgetwww.163.com...
(等待一段时间)
(打印出sohu的header)
www.sohu.comheader>HTTP/1.1200OK
www.sohu.comheader>Content-Type:text/html
...
(打印出sina的header)
www.sina.com.cnheader>HTTP/1.1200OK
www.sina.com.cnheader>Date:Wed,20May201504:56:33GMT
...
(打印出163的header)
www.163.comheader>HTTP/1.0302MovedTemporarily
www.163.comheader>Server:CdnCacheServerV2.0
...
小结
asyncio提供了完善的异步IO支持;
异步操作需要在coroutine中通过yield from完成;
多个coroutine可以封装成一组Task然后并发执行。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。