Open MPI ist ein Bibliotheksprojekt für das Message Passing Interface (MPI), das Technologien und Ressourcen aus mehreren anderen Projekten (FT-MPI, LA-MPI, LAM / MPI und PACX-MPI). Es wird von vielen TOP500-Supercomputern verwendet, einschließlich Roadrunner, dem von Juni 2008 bis November 2009 der schnellste Supercomputer der Welt, [2] und K-Computer, dem schnellsten Supercomputer von Juni 2011 bis Juni 2012. [3][4]
] edit ]
Open MPI repräsentiert die Fusion von drei bekannten MPI-Implementierungen:
mit Beiträgen des PACX-MPI-Teams an der Universität Stuttgart. Diese vier Institutionen bilden die Gründungsmitglieder des Open MPI-Entwicklungsteams.
Die Open MPI-Entwickler wählten diese MPI-Implementierungen in einem oder mehreren Bereichen als herausragend aus. Open MPI zielt darauf ab, die besten Ideen und Technologien aus den einzelnen Projekten einzusetzen und eine erstklassige Open-Source-MPI-Implementierung zu schaffen, die sich in allen Bereichen auszeichnet. Das Open MPI-Projekt legt mehrere Ziele auf oberster Ebene fest:
- zur Erstellung einer kostenlosen, Open-Source-Software, einer Peer-Review-vollständigen MPI-3.0-Implementierung in Produktionsqualität
- zur Bereitstellung einer extrem hohen, wettbewerbsfähigen Leistung (niedrige Latenz oder hohe Bandbreite)
- um die hohe Leistung zu ermöglichen Computing-Community direkt mit externer Entwicklung und Feedback (Anbieter, Drittforscher, Benutzer usw.)
- um eine stabile Plattform für die Forschung und kommerzielle Entwicklung von Drittanbietern
- bereitzustellen, die dazu beiträgt, das "gemeinsame Problem" für andere zu vermeiden MPI-Projekte [5]
- zur Unterstützung einer Vielzahl von Hochleistungscomputerplattformen und -umgebungen
Code-Module [ edit
The Open MPI Code hat 3 Hauptcodemodule:
- OMPI - MPI-Code
- ORTE - die offene Laufzeitumgebung
- OPAL - die offene tragbare Zugriffsschicht
Kommerzielle Implementierungen [ edit
- Sun HPC Cluster Tools - ab Version 7 wechselte Sun zu Open MPI
- Bullx MPI - 2010 gab Bull die Veröffentlichung von Bullx MPI bekannt, basierend auf Open MPI [6]
Không có nhận xét nào:
Đăng nhận xét