OpenMP #pragma omp parallel for并行化小探究

简介:

今天用了一下openmp,本人表示非常喜欢openmp的傻瓜化模式,导入一个头文件

直接parallel for

#include <iostream>
#include <omp.h>

using namespace std;

int main()
{
    //cout<<"Thread num == "<<omp_get_thread_num()<<endl;

    #pragma omp parallel for num_threads(4)
    for (int i=0;i<4;i++)
    {
        for (int j=0;j<4;j++)
        {
            printf("(%d,%d)",i,j);
            cout<<" Thread num == "<<omp_get_thread_num()<<endl;
        }
    }
}

可以看出这个编译指导语句中的for是只对这句下一个for有用
可以看出这个编译指导语句中的for是只对这句下一个for有用

用大括号

#include <iostream>
#include <omp.h>

using namespace std;

int main()
{
    //cout<<"Thread num == "<<omp_get_thread_num()<<endl;

    #pragma omp parallel num_threads(4)
    {
        for (int i=0;i<4;i++)
        {
            for (int j=0;j<4;j++)
            {
                printf("(%d,%d)",i,j);
                cout<<" Thread num == "<<omp_get_thread_num()<<endl;
            }
        }
    }
}

可以看出是所有4*4的循环完全打乱的情况
这里写图片描述

over~~~~~~

相关文章
|
8月前
|
并行计算
OpenMP的配置
OpenMP的配置
47 0
|
10月前
|
缓存 PyTorch 算法框架/工具
PyTorch distributed barrier 引发的陷阱
PyTorch distributed barrier 引发的陷阱
327 0
|
10月前
|
并行计算 调度 Windows
R语言- parallel::mclapply 并行化计算任务
R语言中的 parallel::mclapply 是一个用于在多核CPU上实现并行计算的方法。它是lapply函数的并行版本,可以在多个处理器核心上同时运行lapply函数。mclapply函数的语法与lapply函数类似,但它可以指定要使用的处理器核心数量,从而提高计算速度。
606 0
|
机器学习/深度学习 存储 网络协议
PyTorch 并行训练 DistributedDataParallel完整代码示例
使用大型数据集训练大型深度神经网络 (DNN) 的问题是深度学习领域的主要挑战。 随着 DNN 和数据集规模的增加,训练这些模型的计算和内存需求也会增加。 这使得在计算资源有限的单台机器上训练这些模型变得困难甚至不可能。 使用大型数据集训练大型 DNN 的一些主要挑战包括:
236 0
|
SQL 分布式计算 Spark
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(8)
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(8)
172 0
|
并行计算
CUDA 动态并行 【读书笔记】
CUDA 动态并行 【读书笔记】
92 0
CUDA 动态并行 【读书笔记】

热门文章

最新文章