2.4.3. MPI_Bcast

 1#include <mpi.h>
 2#include <iostream>
 3#include <cstdlib>
 4
 5/*
 6 * 1つのプロセスから、残りの全てのプロセスに同じデータを送る
 7 * データの分割などはしない
 8 *
 9 * 実行方法 : mpiexec -n 2 mpi_sample3
10 * プロセス数を変えて実行できる。
11 */
12
13int main(int argc, char *argv[])
14{
15    MPI_Init(&argc, &argv);
16
17    int num_procs;
18    int my_rank;
19
20    MPI_Comm_size(MPI_COMM_WORLD, &num_procs);
21    MPI_Comm_rank(MPI_COMM_WORLD, &my_rank);
22
23    double data[10];
24
25    /*
26     * 送信データは rank == 0 でだけ作成する
27     */
28    double *data_addr = &data[0];
29    int data_count = 10;
30    if (my_rank == 0)
31    {
32        for (int i = 0; i < 10; i++)
33        {
34            data[i] = i;
35        }
36    }
37
38    /*
39     * BCast を全プロセスで呼び出す
40     *
41     * 第4引数と合致する rank のプロセスに於いては bcast は送信処理をする。
42     * それ以外の rank のプロセスでは bcast は受信処理をする。
43     */
44    MPI_Bcast(
45        data_addr, /* rank == 0 においては送信バッファ、それ以外では受信バッファ */
46        data_count, /* 要素の個数 */
47        MPI_DOUBLE, /* 要素のデータ型 */
48        0, /* 送信元として働く rank の番号 */
49        MPI_COMM_WORLD
50    );
51
52    std::cout << "rank: " << my_rank << ", data: [";
53    for (int i = 0; i < 10; i++)
54    {
55        std::cout << " " << data[i];
56    }
57    std::cout << " ]" << std::endl;
58
59    MPI_Finalize();
60    return EXIT_SUCCESS;
61}

Download the source code

MPIでは、全てのrankで一斉に同じ関数を呼ぶことで通信を行うタイプの関数が多く存在します。 その中の基本的な関数 MPI_Bcast の例です。

MPI_Bcast にはデータを格納する配列を1つだけ渡します。全てのrankで渡しますが、 ルートとして指定したrankにおいては送信データとして使われ、配列から値が読み出されて 他のrankに送信されます。残りのrankでは配列が受信バッファとして使われ、ルートrankから 送られてきたデータがそこに格納されます。 その結果、関数が終わった時点で配列の内容は全てのrankで同一になります。

パソコンlinuxのopenmpiで実行すると次のようになります。:

$ mpic++ -o mpi_sample3 mpi_sample3.cpp
$ mpiexec -n 4 mpi_sample3
rank: 0, data: [ 0 1 2 3 4 5 6 7 8 9 ]
rank: 1, data: [ 0 1 2 3 4 5 6 7 8 9 ]
rank: 2, data: [ 0 1 2 3 4 5 6 7 8 9 ]
rank: 3, data: [ 0 1 2 3 4 5 6 7 8 9 ]

ソースと照らし合わせて見ると、rank 0 で用意したデータが全rankに伝達されたことがわかります。