Paralleles Programmieren mit MPI
(Grundlagen und Anwendungen)
Vorlesung : Di. 16-17 ct,
Seminarraum, Philosophenweg 16
Voraussetzungen, Angaben zum Inhalt, Literatur
Wozu und was ist MPI ,
Der Kern von MPI
Kommandos für LAM Umgebung
Send/Recv Beispiel
Kollektive Kommunikation/Berechnung: Bcast,Gather,Scatter,.. ,Reduce,..
Master/Slave Modell-Algorithmus
Beispiel: Matrixmultiplikation
Kommunikatoren und Kartesische Topologie
Beispiel: Jacobi Iteration
Blocking/Non-Blocking Send/Recv
Beispiel: Datenaustausch
Konstruierte Datentypen, I
Beispiel: Broadcast einer Untermatrix
Konstruierte Datentypen, II
Beispiele: Teile eines Feldes als neuer Datentyp
Eine praktische Anwendung des bisherigen:
N-Teilchen Problem
Back to the Theoretical Physics Homepage