为进程指定特定的 CPU - python 多处理

Designate specific CPU for a process - python multiprocessing(为进程指定特定的 CPU - python 多处理)
本文介绍了为进程指定特定的 CPU - python 多处理的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着跟版网的小编来一起学习吧!

问题描述

我在多处理设置中使用 Redis 作为生产者/消费者关系的队列.

I am using Redis as my queue for a producer/consumer relationship in a multiprocessing setup.

我的问题是我的生产者超载了我的消费者,然后窃取了它的 CPU.

My problem is that my producers are overloading my consumer then stealing it's CPU.

我的问题是,我能否在此设置中将整个处理器分配给特定的功能/进程(即消费者).

My question, can I allocate an entire processor to specific function/process (IE: the consumer) in this setup.

推荐答案

这不是 Python 开箱即用的东西.也有点特定于操作系统.在 Linux 下查看此答案:https://stackoverflow.com/a/9079117/4822566

It's not something Python does out of the box. Is also somewhat OS-specific. See this answer on doing under Linux: https://stackoverflow.com/a/9079117/4822566

这篇关于为进程指定特定的 CPU - python 多处理的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持跟版网!

本站部分内容来源互联网,如果有图片或者内容侵犯了您的权益,请联系我们,我们会在确认后第一时间进行删除!

相关文档推荐

build conda package from local python package(从本地 python 包构建 conda 包)
How can I see all packages that depend on a certain package with PIP?(如何使用 PIP 查看依赖于某个包的所有包?)
How to organize multiple python files into a single module without it behaving like a package?(如何将多个 python 文件组织到一个模块中而不像一个包一样?)
Check if requirements are up to date(检查要求是否是最新的)
How to upload new versions of project to PyPI with twine?(如何使用 twine 将新版本的项目上传到 PyPI?)
Why #egg=foo when pip-installing from git repo(为什么从 git repo 进行 pip 安装时 #egg=foo)