メインコンテンツ

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

gpucoder.atomicAdd

指定された値のグローバル メモリまたは共有メモリの変数へのアトミックな加算

R2021b 以降

    説明

    [A,oldA] = gpucoder.atomicAdd(A,B) は、B をグローバル メモリまたは共有メモリの A の値に加算し、結果を A に書き戻します。この演算は、読み取り、変更、書き込みの操作全体が他のスレッドからの干渉なしに実行されることが保証されているという意味でアトミックです。入力引数と出力引数の順序は、構文の規定と一致しなければなりません。

    すべて折りたたむ

    関数 gpucoder.atomicAdd を使用してシンプルなアトミック加算演算を実行し、対応する CUDA® atomicAdd() API を呼び出す CUDA コードを生成します。

    1 つのファイル内に、行列入力 a および b を受け入れるエントリポイント関数 myAtomicAdd を記述します。

    function [a,oldA] = myAtomicAdd(a,b)
    
    oldA = coder.nullcopy(a);
    
    for i = 1:size(a,1)
        for j = 1:size(a,2)
            for k = 1:size(a,3)
                [a(i,j,k),oldA(i,j,k)] = gpucoder.atomicAdd(a(i,j,k),b(i,j,k));
            end
        end
    end
    

    コード生成で使用する double の行列の型を作成するには、関数 coder.newtype を使用します。

    A = coder.newtype('single', [30 30 20], [1 0 1]);
    B = coder.newtype('single', [30 30 20], [1 0 1]);
    inputArgs = {A,B};
    

    CUDA ライブラリを生成するには、関数 codegen を使用します。

    cfg = coder.gpuConfig('lib');
    cfg.GenerateReport = true;
    
    codegen -config cfg -args inputArgs myAtomicAdd -d myAtomicAdd
    

    生成された CUDA コードには、atomicAdd() CUDA API の呼び出しを使用する myAtomicAdd_kernel1 カーネルが含まれます。

    //
    // File: myAtomicAdd.cu
    //
    ...
    static __global__ __launch_bounds__(1024, 1) void myAtomicAdd_kernel1(
        const float b_data[], const int b_size[3], int a_size[3],
        const int oldA_size[3], const int b_a_size, const int i, float oldA_data[],
        float a_data[])
    {
      unsigned long loopEnd;
      unsigned long threadId;
    ...
    
      for (unsigned long idx{threadId}; idx <= loopEnd; idx += threadStride) {
        unsigned long tmpIndex;
        int b_i;
        int j;
        int k;
        k = static_cast<int>(idx % (static_cast<unsigned long>(b_a_size) + 1UL));
        tmpIndex = (idx - static_cast<unsigned long>(k)) /
                   (static_cast<unsigned long>(b_a_size) + 1UL);
        j = static_cast<int>(tmpIndex % 30UL);
        tmpIndex = (tmpIndex - static_cast<unsigned long>(j)) / 30UL;
        b_i = static_cast<int>(tmpIndex);
        oldA_data[(b_i + oldA_size[0] * j) + oldA_size[0] * 30 * k] =
            atomicAdd(&a_data[(b_i + a_size[0] * j) + a_size[0] * 30 * k],
                      b_data[(b_i + b_size[0] * j) + b_size[0] * 30 * k]);
      }
    }
    ...
    
    void myAtomicAdd(float a_data[], int a_size[3], const float b_data[],
                     const int b_size[3], float oldA_data[], int oldA_size[3])
    {
      dim3 block;
      dim3 grid;
    ...
    
        cudaMemcpy(gpu_a_data, a_data, a_size[0] * (30 * a_size[2]) * sizeof(float),
                   cudaMemcpyHostToDevice);
        myAtomicAdd_kernel1<<<grid, block>>>(gpu_b_data, *gpu_b_size, *gpu_a_size,
                                             *gpu_oldA_size, b_a_size, i,
                                             gpu_oldA_data, gpu_a_data);
        oldA_data_dirtyOnGpu = true;
        cudaMemcpy(a_data, gpu_a_data, a_size[0] * (30 * a_size[2]) * sizeof(float),
                   cudaMemcpyDeviceToHost);
      }
    ...
    
    }
    

    入力引数

    すべて折りたたむ

    オペランド。スカラー、ベクトル、行列、または多次元配列として指定します。入力 A と入力 B は以下の要件を満たさなければなりません。

    • 同じデータ型。

    • 同じサイズまたは互換性のあるサイズ。たとえば、AMN 列の行列で、B がスカラーまたは 1N 列の行ベクトル。

    • データ型が double のときは、Compute Capability 6.0 以上の CUDA デバイスが必要。

    データ型: double | single | int32 | uint32 | uint64

    バージョン履歴

    R2021b で導入