codecamp

PyTorch CPU 线程和 TorchScript 推断

原文: https://pytorch.org/docs/stable/notes/cpu_threading_torchscript_inference.html

PyTorch 允许在 TorchScript 模型推断期间使用多个 CPU 线程。 下图显示了在典型应用程序中可以找到的不同级别的并行性:

../_images/cpu_threading_torchscript_inference.svg

一个或多个推理线程在给定的输入上执行模型的前向传递。 每个推理线程都调用一个 JIT 解释器,该解释器逐一执行内联模型的操作。 模型可以利用fork TorchScript 原语来启动异步任务。 一次分叉多个操作将导致并行执行任务。 fork运算符返回一个future对象,该对象可用于以后进行同步,例如:

@torch.jit.script
def compute_z(x):
    return torch.mm(x, self.w_z)


@torch.jit.script
def forward(x):
    # launch compute_z asynchronously:
    fut = torch.jit._fork(compute_z, x)
    # execute the next operation in parallel to compute_z:
    y = torch.mm(x, self.w_y)
    # wait for the result of compute_z:
    z = torch.jit._wait(fut)
    return y + z

PyTorch 使用单个线程池实现操作间的并行性,该线程池由应用程序过程中分叉的所有推理任务共享。

除了操作间并行性之外,PyTorch 还可以在操作内部利用多个线程(<cite>操作内并行性</cite>)。 在许多情况下,这可能很有用,包括大张量上的元素操作,卷积,GEMM,嵌入查找等。

构建选项

PyTorch 使用内部的 ATen 库来实现操作。 除此之外,PyTorch 还可以通过支持 MKL 和 MKL-DNN 等外部库来构建,以加快 CPU 的计算速度。

ATen,MKL 和 MKL-DNN 支持操作内并行,并依靠以下并行库来实现它:

  • OpenMP -广泛用于外部库中的标准(和库,通常随编译器一起提供);
  • TBB -针对基于任务的并行性和并发环境优化的更新并行化库。

过去,OpenMP 已被许多库使用。 以相对容易使用和支持基于循环的并行性和其他原语而闻名。 同时,OpenMP 与该应用程序使用的其他线程库之间的良好互操作性并不为人所知。 特别是,OpenMP 不保证在应用程序中将使用单个每个进程的内部操作线程池。 相反,两个不同的互操作线程将可能使用不同的 OpenMP 线程池进行互操作。 这可能会导致应用程序使用大量线程。

TBB 在外部库中使用的程度较小,但同时针对并发环境进行了优化。 PyTorch 的 TBB 后端保证了应用程序中运行的所有操作都使用一个单独的,按进程的单个进程内线程池。

根据使用情况,可能会发现一个或另一个并行化库在其应用程序中是更好的选择。

PyTorch 允许通过以下构建选项来选择构建时 ATen 和其他库使用的并行化后端:

|

图书馆

|

构建选项

|

价值观

|

笔记

| | --- | --- | --- | --- | | en | ATEN_THREADING | OMP(默认),TBB | | | MKL | MKL_THREADING | (相同) | 要启用 MKL,请使用BLAS=MKL | | MKL-DNN | MKLDNN_THREADING | (same) | 要启用 MKL-DNN,请使用USE_MKLDNN=1 |

强烈建议不要在一个内部版本中混用 OpenMP 和 TBB。

以上任何TBB值都需要USE_TBB=1构建设置(默认值:OFF)。 OpenMP 并行性需要单独的设置USE_OPENMP=1(默认值:ON)。

运行时 API

以下 API 用于控制线程设置:

|

并行类型

|

设定值

|

Notes

| | --- | --- | --- | | 互操作并行 | at::set_num_interop_threadsat::get_num_interop_threads(C ++)set_num_interop_threads和get_num_interop_threads(Python, torch 模块) | set*功能只能在启动期间,实际操作员运行之前被调用一次;默认线程数:CPU 内核数。 | | 帧内并行 | at::set_num_threadsat::get_num_threads(C ++)set_num_threadsget_num_threads(Python, torch 模块)环境变量:OMP_NUM_THREADSMKL_NUM_THREADS |

对于操作内并行设置,at::set_num_threadstorch.set_num_threads始终优先于环境变量,MKL_NUM_THREADS变量优先于OMP_NUM_THREADS

注意

parallel_info实用程序可打印有关线程设置的信息,并可用于调试。 在 Python 中,也可以通过torch.__config__.parallel_info()调用获得类似的输出。


PyTorch 广播语义
PyTorch CUDA 语义
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

Pytorch 音频

PyTorch 命名为 Tensor(实验性)

PyTorch 强化学习

PyTorch 用其他语言

PyTorch 语言绑定

PyTorch torchvision参考

PyTorch 音频参考

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }