python中的进程线程和协程

目录

  • 进程(Process)
  • 多进程代码实例
  • 线程(Thread)
  • 多线程存在原因及其缺点
  • 多线程代码实例
  • 协程(Coroutine)
  • 协程的优点
  • 协程代码实例
  • 进程、线程和协程适合的任务性质和环境
  • 多进程更适合的场景
  • 多线程更适合的场景
  • 协程更适合的场景
  • 在 Python 编程中,进程、线程和协程是实现并发和并行执行任务的三种主要机制。它们之间的关系如下图所示:


    下面是它们的简要概述,以及在 Python 中与它们相关的内容。

    进程(Process)

    操作系统对正在运行程序的抽象,这个就是进程(process)。

    比如运行一个 web 浏览器,一个 text 文本,都是运行的一个一个进程。

    有的人说:进程是程序运行资源的集合。进程是系统资源分配的最小单位等等。

    从静态的角度来说,进程确实是运行程序的各种资源集合。

    进程是操作系统分配资源并执行程序的基本单位。每个进程拥有自己的内存空间、数据栈以及其他跟踪执行的辅助数据。进程之间的内存空间是隔离的,因此它们之间的通信需要使用进程间通信机制(如管道、信号、共享内存、套接字等)。

    操作系统有多个程序运行,那么就有多个进程,如下所示简图

    在 Python 中,你可以使用 multiprocessing 模块来创建进程、管理进程间的通信和同步。

  • multiprocessing.Process:创建一个进程。
  • multiprocessing.Queuemultiprocessing.Pipe:进程间通信。
  • multiprocessing.Pool:用于并行执行任务的进程池。
  • multiprocessing.Valuemultiprocessing.Array:进程间共享数据。
  • 还有很多其他同步原语,如 LockEventSemaphore 等。
  • 多进程代码实例

    下面我们展示下使用进程的代码和优势,下面代码是通过使用进程和不使用进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

    import requests
    from multiprocessing import Pool
    import time
    
    urls = ['https://example.com', 'https://httpbin.org', 'https://github.com', 'https://google.com']
    
    def download_page(url):
        print(f"Downloading {url}...")
        response = requests.get(url)
        print(f"Downloaded {url} with status code {response.status_code}")
    
    # 串行下载网页并测量时间
    def serial_download(urls):
        start_time = time.time()
        for url in urls:
            download_page(url)
        end_time = time.time()
        return end_time - start_time
    
    # 并行下载网页并测量时间
    def parallel_download(urls):
        start_time = time.time()
        with Pool(4) as pool:
            pool.map(download_page, urls)
        end_time = time.time()
        return end_time - start_time
    
    if __name__ == '__main__':
        print("Starting serial download...")
        serial_time = serial_download(urls)
        print(f"Serial download completed in {serial_time} seconds.")
    
        print("\nStarting parallel download with multiprocessing...")
        parallel_time = parallel_download(urls)
        print(f"Parallel download completed in {parallel_time} seconds.")
    
        print("\nComparison:")
        print(f"Serial: {serial_time} seconds")
        print(f"Parallel: {parallel_time} seconds")
    

    运行结果展示如下:

    线程(Thread)

    线程是进程中的执行序列,一个进程可以包含多个线程,它们共享进程的内存空间和资源。线程之间的通信因此更加容易,可以直接读写同一进程内的数据。然而,因为这种共享,线程安全成为一个需要注意的问题,需要使用锁和其他同步机制来保证数据的一致性。

    《操作系统设计与实现》里说:在传统操作系统中,每个进程中只存在一个地址空间和一个控制流(thread)。然后,有些情况下,需要在相同地址空间中有多个控制流并行的运行,就像他们是单独的进程一样(只是他们共享相同的地址空间)。

    这些控制流通常被称为线程(thread),有时也称为轻量级进程(lightweight process)。

    尽管线程必须在进程中执行,但是线程和进程是可以分别对待处理的两个概念。进程用来集合资源,而线程是 CPU 调度的实体。线程给进程模型增加的是,允许在同一个进程环境中有多个执行流,这些执行流在很大程度上相对独立。也即是说,在进程中,程序执行的最小单位(执行流)是线程,可以把线程看作是进程里的一条执行流。

    一个进程里可以有一条或多条线程。

    在 Python 中,可以使用 threading 模块来创建和管理线程。

  • threading.Thread:创建一个线程。
  • threading.Lockthreading.RLock:线程锁。
  • threading.Eventthreading.Condition:线程同步。
  • threading.Semaphore:信号量机制。
  • threading.local:线程本地数据。
  • 多线程存在原因及其缺点

    在一个应用程序执行过程中,应用程序里可能会有多种事件执行。

    而有些事件执行一段时间后可能会被阻塞。如果把应用程序执行事件分解成多个并行运行的线程,即可以让程序设计变得简单,如果有阻塞的,可以把这部分让出行换其他线程执行。

    还有一个原因是:线程比进程更轻量级。所以线程比进程更加容易创建,销毁。

    第三个跟第一个有点关系,是关于性能的,若多线程都是 CPU 密集型的,那么不能获取性能上增强。如果有大量计算和大量 I/O 处理,那么多线程就可以获取性能上的优势,因为允许多线程重叠执行。

    多线程的缺点:

    1、对于多线程来说,进程中的资源是共享的,所以会产生资源竞争。

    2、当进程中的一个线程崩溃了,会导致这个进程里的其他线程也崩溃。所以有时多进程程序更好,一个进程崩溃不会导致其他进程也崩溃。

    多线程代码实例

    下面我们展示下使用线程的代码和优势,下面代码是通过使用线程和使用进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

    import requests
    import threading
    from multiprocessing import Pool
    import time
    
    # 网站列表
    urls = [
        'https://example.com',
        'https://httpbin.org',
        'https://github.com',
        'https://google.com'
    ]
    
    # 下载单个页面的函数
    def download_page(url):
        print(f"Downloading {url}...")
        response = requests.get(url)
        print(f"Downloaded {url} with status code {response.status_code}")
    
    # 使用多线程下载页面并测量时间
    def threaded_download(urls):
        start_time = time.time()
        threads = [threading.Thread(target=download_page, args=(url,)) for url in urls]
        for thread in threads:
            thread.start()
        for thread in threads:
            thread.join()
        end_time = time.time()
        return end_time - start_time
    
    # 使用多进程下载页面并测量时间
    def multiprocessing_download(urls):
        start_time = time.time()
        with Pool(4) as pool:
            pool.map(download_page, urls)
        end_time = time.time()
        return end_time - start_time
    
    if __name__ == '__main__':
        print("Starting threaded download...")
        threaded_time = threaded_download(urls)
        print(f"Threaded download completed in {threaded_time} seconds.")
    
        print("\nStarting multiprocessing download...")
        multiprocessing_time = multiprocessing_download(urls)
        print(f"Multiprocessing download completed in {multiprocessing_time} seconds.")
    
        print("\nComparison:")
        print(f"Threaded: {threaded_time} seconds")
        print(f"Multiprocessing: {multiprocessing_time} seconds")
    
    

    代码运行结果展示:

    通过这里的结果,我们可以看到线程比进程所用的时间更短,效率更高,

    协程(Coroutine)

    协程是建立在线程之上,一般是语言级别的 ”多线程“ 模型,比线程更加的轻量级。有的叫它微线程。它是完全运行在用户态里。协程是在线程之上在进行抽象,它需要线程来承载运行。一个线程可以有多个协程。

    协程是一种轻量级的、协作式的并发机制。它允许在单个线程内执行多个任务,通过协作而不是抢占来进行任务切换。协程为异步编程提供了更直观和易用的形式,可以有效地用于 I/O 密集型和高级别的结构化并发任务。

    在 Python中,可以使用 asyncio 标准库来创建和管理协程。

  • async def:定义一个协程函数。
  • await:在协程中等待另一个协程的结果。
  • asyncio.run():运行最高层级的协程入口点。
  • asyncio.create_task():调度协程的执行。
  • asyncio.Eventasyncio.Lock 等:用于协程的同步原语。
  • asyncio.Queue:用于协程间的消息传递。
  • 除了上述内容外,第三方库如 geventgreenlet 也提供了对协程的支持和优化,但它们的工作方式与 asyncio 不同。

    Python 中的协程特别适合编写异步I/O操作,如Web服务器、客户端库等,因为它们在等待网络响应或磁盘I/O等操作的过程中可以挂起函数执行,让出控制权,允许其他协程运行。

    协程线程关系图:

    协程的优点

    1、协程栈很小,只有几KB,而线程栈是 1 M,对比起来,创建大量协程需要的内存更少。

    2、协程的调度是语言提供的 runtime 来调度,是在用户空间直接调度,不需要在内核空间和用户空间来回切换,浪费效率。

    3、能更好的利用 cpu 的多核,提高程序执行性能。

    4、避免阻塞,如果协程所在的线程发生了阻塞,那么协程调度器可以把运行在阻塞线程上的协程,调度到其它没有发生阻塞的线程上,继续运行。

    协程代码实例

    下面我们展示下使用协程的代码和优势,下面代码是通过使用协程同线程、进程进行四个网页的读取下载,并在最后通过各自的运行时间来进行比较:

    import time
    import threading
    import asyncio
    import aiohttp
    from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
    
    urls = ['https://example.com', 'https://httpbin.org', 'https://github.com', 'https://google.com']
    
    # 同步下载页面的函数(用于线程和进程)
    def download_page(url):
        with aiohttp.ClientSession() as session:
            with session.get(url) as response:
                return f"Downloaded {url} with status code {response.status}"
    
    # 使用多线程下载页面
    def threaded_download(urls):
        with ThreadPoolExecutor(max_workers=4) as executor:
            executor.map(download_page, urls)
    
    # 使用多进程下载页面
    def multiprocessing_download(urls):
        with ProcessPoolExecutor(max_workers=4) as executor:
            executor.map(download_page, urls)
    
    # 异步下载页面
    async def async_download_page(session, url):
        async with session.get(url) as response:
            return f"Downloaded {url} with status code {response.status}"
    
    async def async_download_all_pages():
        async with aiohttp.ClientSession() as session:
            tasks = [async_download_page(session, url) for url in urls]
            return await asyncio.gather(*tasks)
    
    # 测量函数执行时间的装饰器
    def timeit(method):
        def timed(*args, **kw):
            ts = time.time()
            result = method(*args, **kw)
            te = time.time()
            print(f"{method.__name__} executed in {(te - ts):.2f} seconds")
            return result
        return timed
    
    @timeit
    def measure_threaded():
        threaded_download(urls)
    
    @timeit
    def measure_multiprocessing():
        multiprocessing_download(urls)
    
    @timeit
    async def measure_asyncio():
        await async_download_all_pages()
    
    # 顺序运行三种方法并比较时间
    if __name__ == '__main__':
        measure_threaded()
        measure_multiprocessing()
        asyncio.run(measure_asyncio())
    
    

    进程、线程和协程适合的任务性质和环境

    多进程更适合的场景

    1、CPU密集型任务:
    对于计算密集型操作,多进程通常比多线程更好,这是因为每个进程有自己的GIL,能够在多核处理器上并行运行,实现真正的并行计算。

    2、内存隔离和安全:
    进程之间的内存是隔离的,所以对于需要高安全性或内存隔离的任务,使用多进程会更安全,可以防止数据泄露或污染。

    3、大规模并发和稳定性:
    对于需要很多并发执行单元,但其中一些可能会因为异常或必须被杀死的任务,进程可能是更好的选择,因为一个进程崩溃不会影响到其他进程,而线程崩溃可能会影响整个应用程序的稳定性。

    多线程更适合的场景

    1、I/O密集型任务:
    如果任务主要是I/O密集型的,例如网络请求或文件读写操作,线程通常能够提供很好的性能,因为当一个线程等待I/O操作时,其他线程可以继续执行。在Python中,虽然全局解释器锁(GIL)限制了同一时刻只有一个线程执行Python字节码,但I/O密集型任务在等待数据时会释放GIL,允许其他线程运行。

    2、上下文切换开销小:
    线程比进程有更小的内存占用和更快的创建及上下文切换时间。进程需要更多的资源和时间来创建,因为每个进程有自己独立的地址空间,而线程则共享内存地址空间。

    3、GIL的影响有限:
    由于下载任务主要是在等待网络响应,这意味着大部分时间线程并不持有GIL。因此,即使是在CPython这样的环境中,线程也可能是高效的。

    协程更适合的场景

    1、更高的I/O效率——非阻塞I/O操作:
    协程可以在I/O操作等待数据时挂起,并让出CPU控制权给其他协程。这样可以处理大量的并发网络I/O,非常适合开发高效的网络服务器和客户端。

    2、轻量级任务管理:
    相对于进程和线程,协程拥有更小的内存占用,因为任务之间共享内存空间并且上下文切换开销很小。这允许程序员创建数以万计的协程而不会大量耗费系统资源。

    3、简化的异步编程:
    使用协程库(如Python中的asyncio),可以用顺序的方式编写非阻塞代码,降低了异步编程的复杂性。

    4、更好的调度控制:
    协程的调度是在用户空间完成的,这给了程序员更大的灵活性去控制任务执行的顺序。

    作者:Dream_Bri

    物联沃分享整理
    物联沃-IOTWORD物联网 » python中的进程线程和协程

    发表回复