Technische Artikel

MATLAB und Simulink in der Welt: Parallel Computing


Forscher und Ingenieure stehen oft vor der Herausforderung, in kurzer Zeit rechenintensive Probleme lösen zu müssen, die auf großen Datensätzen basieren oder eine Vielzahl an Simulationen erfordern. Solche Aufgaben lassen sich auf Mehrkern-Rechnern oder Rechnerclustern mit MathWorks-Tools für das Parallel Computing erheblich beschleunigen.

Max Planck-Institut

world_pc_fig1_w.jpg

Rekonstruktion von Proteinkomplexen mithilfe kryo-elektronenmikroskopischer Daten

Strukturbiologen und Bioinformatiker des Max-Planck-Instituts für Biochemie haben die 3D-Struktur wichtiger Proteine aus kryo-elektronenmikroskopischen 2D-Bildern rekonstruiert. Sie setzten hierfür MATLAB® durchgehend als Plattform ein: Zur Steuerung des Mikroskops, zur Auswahl von Projektionen aus Bildern, zur bildverbessernden Mittelung und Verarbeitung von Projektionen sowie zur Rekonstruktion der 3D-Dichtekarte des Proteins. Über ein mit MATLAB entwickeltes GUI konnten die Forscher automatisch Millionen von Projektionen sammeln. Die Verarbeitung dieser riesigen Datensätze verteilten sie auf einen Cluster mit 64 Knoten und verkürzten so die Rechenzeit von einer Woche um den Faktor 20 bis 30 auf eine Nacht.

 

Argonne National Laboratory

world_pc_fig2_w.jpg

Um verschiedene Bauweisen und Technologien für zukünftige Fahrzeuge mit Brennstoffzellen-, hybrid-elektrischem und Plug-In-Hybrid-Antrieb vergleichen zu können, entwickelte das Argonne National Laboratory (ANL) eine eigene Modellierungsumgebung mit Simulink®. Die in Simulink und Stateflow® modellierten Fahrzeugsysteme und skalierbaren Antriebsstrang-Komponenten werden von MATLAB-Skripten automatisch zusammengefügt. ANL nutzte diese Umgebung, um Modelle für vielfältige Konfigurationen zu erzeugen, bei denen Batteriegrößen, Motorleistungen und andere Parameter automatisch skaliert wurden. Jede Designstudie erforderte mindestens 30 Iterationen und 400 Simulationen pro Konfiguration. Durch Ausführung auf einem Rechnercluster konnte ANL die für eine Simulationsreihe erforderliche Zeit von zwei Wochen auf einen Tag senken.

 

C-COR Incorporated

Optimierung von Entwürfen für High-Density QAM-Systeme

C-COR stellt Quadratur-Amplitudenmodulations- (QAM-) Systeme her, die Video- und Internetdaten in Signale für Set-Top-Boxen und Kabelmodems konvertieren. Zum Debugging und zur Optimierung von Systementwürfen verglichen die Ingenieure Simulink-Modelle mit verschiedensten Filtertopologien und dutzenden Filtertypen und -werten auf einem Cluster mit acht Knoten, der aus zuvor ausgemusterten Rechnern bestand. Mit diesem Ansatz erreichten sie nicht nur die Leistungsvorgaben sowie die Einhaltung von ITU-Standards, sondern verkürzten auch die Entwicklungszeit um 30%.

 

Massachusetts Institute of Technology

world_pc_fig3_w.jpg

Zur Identifikation von Proteinen, die eine Krebserkrankung anzeigen könnten, haben Forscher des MIT massenspektrometrische Daten hunderter Patienten mit Millionen von Datenpunkten analysiert. Sie modellierten dazu ein aus 20.000 Knoten und 100.000 Kanten bestehendes Netzwerk miteinander wechselwirkender biologischer Moleküle. Nach statistischen Auswertungen und weiteren Analysen der Netzwerkeigenschaften kombinierten sie diese mit den massenspektrometrischen Ergebnissen. Zur Beschleunigung der Berechnung der Netzwerkeigenschaften und Statistiken teilten sie das Netzwerk in Pakete auf und führten die MATLAB-Algorithmen parallel auf einem großen Rechnercluster aus.

 

Queen Mary, University of London

world_pc_fig4_w.jpg

Am Bau des International Linear Collider (ILC) beteiligte Forscher vom Queen Mary-College haben ein System zur Echtzeit-Ausrichtung der Strahlen des ILC entwickelt. Der ILC beschleunigt in zwei je 20 km langen Linearbeschleunigern Elektronen- und Positronenstrahlen, die dann mit Energien von bis zu 1.000 Giga-Elektronenvolt aufeinander prallen. Zur Abstimmung des Ansteuerungssystems führt das Team Simulationen durch, die über 600 Teilchenbündel aus insgesamt 80.000 Einzelteilchen verfolgen. Sie beschleunigten diesen Prozess durch parallele Ausführung von über 100 Simulationen auf einem Rechnercluster.

 

Universität Genf

Ausführung von Algorithmen zur Portfolio-Optimierung

Forscher der Universität Genf haben ein automatisiertes System zur Auswahl optimaler Portfolios entwickelt. Es basiert auf heuristischen Ansätzen, die komplexe Risiko-Funktionen und ‑Bedingungen berücksichtigen. Vor Ausführung des Optimierungsalgorithmus ermittelt die MATLAB-basierte Anwendung anhand der Daten und der festgelegten Randbedingungen automatisch eine effektive Schwellenfolge. Zur Ermittlung einer optimalen Lösung wird dies mehrere Dutzend Mal mit 100 oder mehr Startpunkten wiederholt. Bei drei bis sieben Minuten je Durchlauf dauerte die Berechnung einer Lösung anfänglich bis zu elf Stunden. Mit einem System aus 32 Rechner-Knoten können die Forscher nun 32 Läufe parallel in der gleichen Zeit ausführen, die zuvor für einen Lauf auf einem Prozessor erforderlich war.

Veröffentlicht 2009 - 91787v00