Модуль `multiprocessing` в Python
В этой статье объясняется модуль multiprocessing в Python.
В этой статье представлены практические советы по написанию безопасного и эффективного параллельного кода с использованием модуля multiprocessing.
YouTube Video
Модуль multiprocessing в Python
Основы: почему стоит использовать multiprocessing?
multiprocessing позволяет выполнять параллелизацию на уровне процессов, поэтому вы можете параллельно обрабатывать задачи, требующие большого количества вычислений, не ограничиваясь GIL (Global Interpreter Lock) в Python. Для задач, связанных с вводом-выводом (I/O-bound), threading или asyncio могут быть проще и предпочтительнее.
Простейшее использование Process
Вот базовый пример запуска функции в отдельном процессе с помощью Process. Здесь показано, как запустить процесс, дождаться его завершения и передать аргументы.
1# Explanation:
2# This example starts a separate process to run `worker` which prints messages.
3# It demonstrates starting, joining, and passing arguments.
4
5from multiprocessing import Process
6import time
7
8def worker(name, delay):
9 # English comment in code per user's preference
10 for i in range(3):
11 print(f"Worker {name}: iteration {i}")
12 time.sleep(delay)
13
14if __name__ == "__main__":
15 p = Process(target=worker, args=("A", 0.5))
16 p.start()
17 print("Main: waiting for worker to finish")
18 p.join()
19 print("Main: worker finished")- Этот код демонстрирует, как основной процесс запускает дочерний процесс
workerи ждет его завершения с помощью методаjoin(). Вы можете передавать аргументы с помощью параметраargs.
Простая параллелизация с помощью Pool (высокоуровневый API)
Pool.map удобен, если нужно применить одну и ту же функцию к множеству независимых задач. Он управляет рабочими процессами внутренне за вас.
1# Explanation:
2# Use Pool.map to parallelize a CPU-bound function across available processes.
3# Good for "embarrassingly parallel" workloads.
4
5from multiprocessing import Pool, cpu_count
6import math
7import time
8
9def is_prime(n):
10 # Check primality (inefficient but CPU-heavy for demo)
11 if n < 2:
12 return False
13 for i in range(2, int(math.sqrt(n)) + 1):
14 if n % i == 0:
15 return False
16 return True
17
18if __name__ == "__main__":
19 nums = [10_000_000 + i for i in range(50)]
20 start = time.time()
21 with Pool(processes=cpu_count()) as pool:
22 results = pool.map(is_prime, nums)
23 end = time.time()
24 print(f"Found primes: {sum(results)} / {len(nums)} in {end-start:.2f}s")Poolавтоматически регулирует количество рабочих процессов, а методmapвозвращает результаты в исходном порядке.
Межпроцессное взаимодействие: паттерн производитель/потребитель с использованием Queue
Queue — это очередь First-In-First-Out (FIFO), которая безопасно передает объекты между процессами. Ниже приведены некоторые типичные шаблоны.
1# Explanation:
2# Demonstrates a producer putting items into a Queue
3# and consumer reading them.
4# This is useful for task pipelines between processes.
5
6from multiprocessing import Process, Queue
7import time
8import random
9
10def producer(q, n):
11 for i in range(n):
12 item = f"item-{i}"
13 print("Producer: putting", item)
14 q.put(item)
15 time.sleep(random.random() * 0.5)
16 q.put(None) # sentinel to signal consumer to stop
17
18def consumer(q):
19 while True:
20 item = q.get()
21 if item is None:
22 break
23 print("Consumer: got", item)
24 time.sleep(0.2)
25
26if __name__ == "__main__":
27 q = Queue()
28 p = Process(target=producer, args=(q, 5))
29 c = Process(target=consumer, args=(q,))
30 p.start()
31 c.start()
32 p.join()
33 c.join()
34 print("Main: done")Queueпозволяет безопасно передавать данные между процессами. Обычно для обозначения завершения используется специальное значение, например,None.
Разделяемая память: Value и Array
Value и Array используются для обмена небольшими числами или массивами между процессами. Для избежания конфликтов необходимо использовать блокировки (locks).
1# Explanation:
2# Use Value to share a single integer counter
3# and Array for a small numeric array.
4# Show how to use a Lock to avoid race conditions.
5
6from multiprocessing import Process, Value, Array, Lock
7import time
8
9def increment(counter, lock, times):
10 for _ in range(times):
11 with lock:
12 counter.value += 1
13
14def update_array(arr):
15 for i in range(len(arr)):
16 arr[i] = arr[i] + 1
17
18if __name__ == "__main__":
19 lock = Lock()
20 counter = Value('i', 0) # 'i' = signed int
21 shared_arr = Array('i', [0, 0, 0])
22
23 p1 = Process(target=increment, args=(counter, lock, 1000))
24 p2 = Process(target=increment, args=(counter, lock, 1000))
25 a = Process(target=update_array, args=(shared_arr,))
26
27 p1.start(); p2.start(); a.start()
28 p1.join(); p2.join(); a.join()
29
30 print("Counter:", counter.value)
31 print("Array:", list(shared_arr))ValueиArrayпередают данные между процессами через низкоуровневые механизмы (разделяемая память на уровне языка C), а не средствами Python. Следовательно, он подходит для быстрого чтения и записи небольших объёмов данных, но не подходит для обработки больших объёмов данных..
Более продвинутый обмен: разделяемые объекты (словари, списки) с помощью Manager
Если нужно делиться более сложными объектами, такими как списки или словари, используйте Manager().
1# Explanation:
2# Manager provides proxy objects like dict/list
3# that can be shared across processes.
4# Good for moderate-size shared state and easier programming model.
5
6from multiprocessing import Process, Manager
7import time
8
9def worker(shared_dict, key, value):
10 shared_dict[key] = value
11
12if __name__ == "__main__":
13 with Manager() as manager:
14 d = manager.dict()
15 processes = []
16 for i in range(5):
17 p = Process(target=worker, args=(d, f"k{i}", i*i))
18 p.start()
19 processes.append(p)
20 for p in processes:
21 p.join()
22 print("Shared dict:", dict(d))Managerудобен для совместного использования словарей и списков, но при каждом обращении данные передаются между процессами и требуется конвертация с помощьюpickle. Следовательно, частое обновление больших объемов данных замедлит обработку.
Механизмы синхронизации: использование Lock и Semaphore
Используйте Lock или Semaphore для управления одновременным доступом к разделяемым ресурсам. Их удобно применять через оператор with.
1# Explanation:
2# Demonstrates using Lock to prevent simultaneous access to a critical section.
3# Locks are necessary when shared resources are not atomic.
4
5from multiprocessing import Process, Lock, Value
6
7def safe_add(counter, lock):
8 for _ in range(10000):
9 with lock:
10 counter.value += 1
11
12if __name__ == "__main__":
13 lock = Lock()
14 counter = Value('i', 0)
15 p1 = Process(target=safe_add, args=(counter, lock))
16 p2 = Process(target=safe_add, args=(counter, lock))
17 p1.start(); p2.start()
18 p1.join(); p2.join()
19 print("Counter:", counter.value)- Блокировки предотвращают состояния гонки данных, но если заблокированная область слишком велика, производительность параллельной обработки снизится. Только необходимые части должны быть защищены как критические секции.
Различия между fork в UNIX и поведением в Windows
В UNIX-подобных системах процессы по умолчанию копируются с помощью fork, что обеспечивает эффективное использование памяти благодаря Copy-On-Write. На Windows процессы запускаются через spawn (что повторно импортирует модули), поэтому важно защищать точку входа и глобальную инициализацию.
1# Explanation: Check start method (fork/spawn) and set it if needed.
2# Useful for debugging platform-dependent behavior.
3
4from multiprocessing import get_start_method, set_start_method
5
6if __name__ == "__main__":
7 print("Start method:", get_start_method())
8
9 # uncomment to force spawn on Unix for testing
10 # set_start_method('spawn')set_start_methodможно вызывать только один раз при запуске вашей программы. Безопаснее не изменять этот метод произвольно внутри библиотек.
Практический пример: тест производительности для задач, нагружающих процессор (сравнение)
Ниже приведён скрипт, который просто сравнивает, насколько быстрее может быть обработка с параллелизацией с помощью multiprocessing. Здесь используется Pool.
1# Explanation:
2# Compare sequential vs parallel execution times for CPU-bound task.
3# Helps understand speedup and overhead.
4
5import time
6from multiprocessing import Pool, cpu_count
7import math
8
9def heavy_task(n):
10 s = 0
11 for i in range(1, n):
12 s += math.sqrt(i)
13 return s
14
15def run_sequential(nums):
16 return [heavy_task(n) for n in nums]
17
18def run_parallel(nums):
19 with Pool(processes=cpu_count()) as p:
20 return p.map(heavy_task, nums)
21
22if __name__ == "__main__":
23 nums = [2000000] * 8 # heavy tasks
24 t0 = time.time()
25 run_sequential(nums)
26 seq = time.time() - t0
27 t1 = time.time()
28 run_parallel(nums)
29 par = time.time() - t1
30 print(f"Sequential: {seq:.2f}s, Parallel: {par:.2f}s")- В этом примере видно, что в зависимости от нагрузки и числа процессов параллелизация иногда оказывается неэффективной из-за издержек. Чем больше (тяжелее) и независимее задачи, тем больше выигрыш от параллелизма.
Важные основные правила
Ниже приведены основные моменты для безопасного и эффективного использования multiprocessing.
- В Windows при запуске дочерних процессов модули импортируются заново, поэтому необходимо защищать точку входа скрипта через
if __name__ == "__main__":. - Межпроцессное взаимодействие сериализуется (с помощью конвертации
pickle), поэтому передача крупных объектов становится затратной. - Так как
multiprocessingсоздает процессы, обычно число процессов выбирают исходя из значенияmultiprocessing.cpu_count(). - Создание другого
Poolвнутри рабочего процесса становится сложным, поэтому по возможности избегайте вложенных экземпляровPool. - Поскольку исключения, возникающие в дочерних процессах, трудно обнаружить из главного процесса, необходимо явно реализовать логирование и обработку ошибок.
- Количество процессов определяйте по количеству ядер CPU; для задач, связанных с вводом-выводом, рассмотрите использование потоков.
Практические советы по проектированию
Ниже приведены некоторые полезные концепции и шаблоны для проектирования параллельной обработки.
- Эффективно разделять процессы на роли, такие как чтение входных данных (I/O), предварительная обработка (multicpu) и агрегация (последовательно), реализуя 'конвейер' (pipelining).
- Чтобы упростить отладку, сначала проверьте работу кода в одном процессе до параллелизации.
- Для логирования разделяйте логи по процессам (например, включайте PID в имена файлов), чтобы упростить обнаружение проблем.
- Реализуйте механизмы повторных попыток и тайм-аутов, чтобы можно было корректно восстановиться при зависании процесса.
Итоги (основные моменты, которые можно сразу применить)
Параллельная обработка — мощный инструмент, но важно правильно оценивать природу задач, объем данных и стоимость межпроцессного взаимодействия. multiprocessing эффективен для задач, нагружающих процессор, но плохой дизайн или ошибки синхронизации могут снизить производительность. Если следовать основным правилам и шаблонам, можно создавать безопасные и эффективные параллельные программы.
Вы можете следовать этой статье, используя Visual Studio Code на нашем YouTube-канале. Пожалуйста, также посмотрите наш YouTube-канал.