wiki:mpich

Introduction

MPI ( Message Passing Interface) ,一個用於平行計算的平臺。
MPICH Documents
MPI Documents
LLNL參考資料
mpich/2008-07-20_YM_MPI_Course openMP 及 MPICH2

Classifying of parallel computers

  • SISD(Single-Instruction Single-Data)

如普通的單核心 PC ,只有單一指令與資料,ex: a = 1 + 1。

  • SIMD(Single-Instruction Multiple-Data)

同一組指令,多組資料,ex: a = b + 1, b 是一組陣列,則同一時間就可以計算完成。而不需要算完 b[1] + 1,再算 b[1] + 1…再算 b[n] + 1。

  • MISD(ultiple-Instruction Single-Data)

多組指令,單一組資料,ex: a = (2 + 3) + (2 - 3) + (2 * 3) + (2 / 3),則四臺機器各執行 2 跟 3 的操作指令 「=」、「-」、「*」及「/」中的一種,用的資料是 2 跟 3。

  • MIMD(Multiple-Instruction Multiple-Data)

多組指令,多組資料,ex: a = (b + c) + (d - e) + (f * g),如果有三臺機器可分別執行(b + c) 、 (d - e) 及 (f * g),則三個運算可同時進行。

Design

指令及資料量切割的越小越有助於平行運算,但切割過小將會使傳輸次數及傳輸量增大,而且每次傳輸所需要的時間遠大於每次的計算,因此在設計程式為了得最高效能,須考慮到計算量、計算進度、傳輸量及傳輸速度。

Communication

  • Point to point communication 主要用在 one to one ,特定指定機器與機器間的傳送,傳送與接收的次數要相同,同一筆資料可以分多次傳送,但是每次傳送皆需花費時間,要考慮網路速度及機器處理能力。
    • Command
    • Demo
      • demo1:每個 node 將訊息傳送給 node 0,由,node 0 統一印出。
      • demo2:每個 node 將自己的 id 資訊送給下一個 node。
      • demo3:每個 node 將訊息傳送給 node 0,由,node 0 統一印出
      • demo4:讓 node 0 可以接受來自任何 node 的訊息,每個 node 將訊息標上不同 tag 後傳給 node 0
    • Note
      • tag 的用意在於區別同一個發送端發送多筆同一種類型的資料給同一個接收者。
        以下圖為例, node 0 發送了兩個資料類型相同的 x 及 y ,而 node 0 則無法判別它收到的是來自 node 0 的 x 還是 y 。

        這時我們就需要使用到 tag1 及 tag2 來區別。

  • Collective communication
    • Command
    • Demo
      • demo1:每個 node 將自己運算後的結果傳回給 root node,而 root node 將結果印出。
      • demo2:由使用者輸入一整數,再由 root node 將些整數發送給底下 nodes,每個 nodes 將收到的整數印出。
      • cpi:mpich_example 內建範例,計算 pi 。

How to execute

-n how many mpds to start
-f hostsfile

  • list all nodes
    mpdtrace [-l]
    

-l show full hostnames and listreing ports and ifhn

node101
node103
node102
hd05
  • compiler
    mpicc -o test test.c
    
  • executing
    mpiexec -n 12 ./mpi/a.out
    
    -n number of processes to start 執行時,每個 node 上必須有一份執行檔才不會出現以下錯誤
    problem with execution of a.out  on  hd05:  [Errno 2] No such file or directory 
    
  • causing all mpds to exit
    mpdallexit
    

attention

  • node 與 node 間的變數要使用 MPI_Bcast 來傳遞,避免 node 間互相參考到彼此的變數。

API

Constants

MPI_Wtime

取得系統時間:

MPI_Init();
MPI_Comm_size (MPI_COMM_WORLD, &nproc);
MPI_Comm_rank (MPI_COMM_WORLD, &myid);

double time1 = 0.0, time2 = 0.0;
MPI_Barrier  (MPI_COMM_WORLD);
time1=MPI_Wtime()
. . .
time2 = MPI_Wtime() - time1;
printf ("myid, clock time= %f\t%f\n", myid,time2);
MPI_Finalize();
Return 0;

DEMO_1

#include <stdio.h>
#include <mpi.h>     
int nproc, myid;       
main (argc, argv)
int argc;
char **argv;
{
   MPI_Init(&argc, &argv);
   MPI_Comm_size (MPI_COMM_WORLD,  &nproc);
   MPI_Comm_rank (MPI_COMM_WORLD,  &myid);
   ………
   
   MPI_Finalize();
   return 0;

#include <mpi.h> mpich 的 head file。
nproc 此次運算中,參與的 cpu 的總數。
myid 此次運算中,目前本身是第幾顆 cpu。
MPI_Init(&argc, &argv) 初始化使用 mpi 的環境。
MPI_Comm_size(MPI_COMM_WORLD, &nproc) 回傳此次運算中,參與的 cpu 總數。
MPI_Comm_rank (MPI_COMM_WORLD, &myid) 回傳目前自己是第幾個 cpu。
MPI_Finalize() 結束平行運算

Bench mark

mpich2 錯誤訊息/解決方案

(handle_mpd_output 401): failed to connect to mpd

Install

Last modified 12 years ago Last modified on Nov 3, 2012, 1:43:38 AM

Attachments (3)

Download all attachments as: .zip