Funktionsübersicht . . Begriffserklärungen

Hilfesystem für den Message Passing Interface Standard MPI


Basiskonzepte von MPI

Der Message Passing Interface Standard spezifiziert eine Bibliothek von Funktionen für die Kommunikation in parallelen Systemen auf der Grundlage von Message Passing. Ziel der Entwickler, des MPI-Forums (MPIF), war es, einen Standard für portierbare Programme auf der Basis des MIMD-Modells (multiple instruction multiple data) zu schaffen.
Im Ansatz wird davon ausgegangen, daß eine feste Anzahl von Prozessen vorhanden ist, und im allgemeinen jeder Prozeß auf einem eigenen Prozessor läuft. MIMD bedeutet, jeder Prozeß arbeitet mit eigenen Daten und einem eigenen Programm. Die Prozesse kommunizieren miteinander via Message Passing, dh. der benötigte Datenaustausch geschieht, indem Nachrichten von einem Prozeß zum nächsten geschickt werden. Im Quellcode der Programme (normaler Code in einer sequentiellen Programmiersprache - hier C) werden dafür Routinen aus der MPI-Bibliothek gerufen, die den gewüschten Kommunikationsvorgang realisieren.
MPI ist eine recht umfangreiche Bibliothek, die außer synchroner und asynchroner Punkt-zu-Punkt-Kommunikation noch weitere Konzepte zur Verfügung stellt.

Diese Hilfe konzentriert sich auf die C-Bindings der Funktionen und verwendet nur Beispiele in dieser Programmiersprache. Für die FORTRAN-Versionen sei hier lediglich auf das Manual verwiesen. Sie unterscheiden sich im allgemeinen in ihrer Funktionalität kaum von den hier beschriebenen C-Routinen.

MPI stetzt voraus, daß die Anzahl der Prozesse von Anfang an feststeht. Algorithmen, die dynamisch Tasks erzeugen, müssen entweder umgeschrieben werden, so daß sie diese Voraussetztung erfüllen, oder man muß doch auf eine Alternative zu MPI ausweichen.