Wissenschaft hinter Gittern
In ihrem Heißhunger nach Rechenleistung gehen Wissenschaftler gemeinsame
Wege. Wo Supercomputer nicht mehr ausreichen, schließen Teilchenphysiker
ihre Hochleistungs-Rechner in so genannten Grids zusammen. Diese gelten
schon jetzt als heiße Anwärter auf die Nachfolge des World Wide
Webs.
Steckdosen
sind schon verdammt praktisch. Sie sind unser Weg ins weltweite Stromnetz, ersparen
uns den eigenen Reaktor im Garten und sorgen mit dafür, dass wir Strom
haben, wenn wir welchen brauchen: Einstöpseln genügt. Entsprechend
versorgt uns das World Wide Web mit Information, gewährt uns weltweiten
Zugriff auf Bibliotheksbestände und lässt uns die Mitgliederzeitschrift
unseres Hundevereins auch in der Ferne lesen - alles aus einer unscheinbaren
Telefondose. Nun basteln Wissenschaftler am nächsten Schritt: an der Rechenleistungs-Dose.
Ihnen fällt kein Grund ein, wofür man diese brauchen könnte?
Dann kennen Sie wohl keine echten Probleme - Probleme, für die Ihr PC die
nächsten hundert Jahre bräuchte, weil er mit Datenmengen hantieren
müsste, die Milliarden Telefonbüchern entsprechen. Falls Sie dennoch
Interesse an Rechenleistung haben, die jene von Supercomputern um ein Vielfaches
übersteigt, dann sollten Sie beim europäischen DataGRID Projekt vorstellig
werden. Da kann Ihnen geholfen werden. Denn in diesem 20-Millionen-DM-Forschungsprojekt
der europäischen Union wird am Rechnerverbund der Zukunft gewerkelt.
Grids für
die Datenschleuder Wissenschaft
Zwar werden Computer immer besser, dasselbe gilt aber auch für die Fertigkeiten
von Wissenschaftlern, sich immer komplexere Probleme auszudenken, die sie mit
ihren Rechenknechten lösen wollen.
 |
Die Suche nach dem Higgs-Teilchen
wird immense Datenmengen produzieren. |
So entsteht am Teilchenphysikzentrum CERN in Genf zurzeit LHC, der Large Hadron
Collider - der leistungsstärkste Teilchenbeschleuniger, den die Menschheit
je gebaut hat. Hier soll ab 2005 das Higgs-Teilchen gefunden werden. Ein nicht
ganz einfaches Unterfangen. Das Aufspüren einer Nadel im Heuhaufen wirkt
daneben wie ein Kinderspiel. So haben Forscher errechnet, dass die Suche bei
LHC eher der einer Nadel in 20 Millionen Heuhaufen entspricht. Jedes Jahr entstehen
Datenmengen, für die man einen CD-Turm von fast einem Kilometer Länge
bräuchte. Um diesen Daten einen Sinn zu geben, ist eine Rechenleistung
von mindestens 20 Teraflops (20.000.000.000.000 Fließkomma-Berechnungen
pro Sekunde) vonnöten. Der zurzeit schnellste Supercomputer, IBM's White,
schafft gerade einmal 5 Teraflops.
Und die Teilchenphysiker sind nicht allein. Ob Higgs-Fund, Protein-Simulation
oder Klimaberechnung - aktuelle Anforderungen an die Rechenleistung sind enorm.
Der Heißhunger nach Daten zieht sich durch alle Disziplinen - Grids
sind hier Speisekammer und Großküche in einem. Speisekammer, weil
in den weltweiten Rechnerverbünden enorme Datenmengen gespeichert werden
können. Großküche, weil Grids die enorme Rechenleistung
zur Verfügung stellen, mit denen die Daten auch verarbeitet werden können.
Grids im Detail
Grids nutzen handelsübliche Computer und schließen diese geschickt
zusammen. Ein Grid ist also eine Art Betriebssystem für ein weltweit
umspannendes Mehr-Computer-Netz, eine Art Mega-Windows. Diese Software sorgt
dafür, dass die anstehenden Aufgaben auf den verfügbaren Rechnern
gleichmäßig verteilt werden. Zudem verhindert es mit seinen Sicherheitsmechanismen,
dass jemand heimlich seine Steuerrückzahlung berechnet, wo eigentlich der
Urknall simuliert werden sollte.
Der Name Grid stammt von elektrischen Gittern. Das sind elektrische
Bauelemente, in denen ähnlich wie in einem Transistor mit kleinen Strömen
große Ströme gesteuert werden können. Grids steuern gigantische
Datenströme und verteilen Probleme auf die enorme Rechenleistung der weltweit
angesiedelten Computer.
Vollständig
neu ist diese Idee nicht. Schon das ARPANET, der militärische Vorläufer
des Internets, sah in seinem Konzept vor, auch Rechenleistung weltweit zu verteilen.
Im Jahr 1999 machte dann das Projekt seti@home auf sich aufmerksam, das eine
Software zum Herunterladen ins Netz stellte, mit der auf dem heimischen PC nach
außerirdischem Leben gesucht werden sollte. Über 3 Millionen registrierte
Nutzer stellen ihren Computer in Rechenpausen zur Verfügung. In Zeiten,
wo sonst der Bildschirmschoner arbeitet, werden extraterrestrische Signale analysiert.
Dies führt zu einer gebündelten Rechenleistung von über 23 Teraflops,
dem mehr als Vierfachen des derzeit schnellsten Supercomputers.
Grids nutzen ein ganz ähnliches Prinzip, schließen jedoch
nicht PCs zusammen, sondern die Hochleistungsrechner weltweit verstreuter wissenschaftlicher
Institute - ganz so, wie Anfang der 1990er Jahre auch das World Wide Web
begann.
Kurz und knapp
- Computer werden zu Grids vernetzt, um Rechenleistung zu erhalten,
die die von Supercomputern um ein Vielfaches übersteigt.
Weblinks
Schlagworte
- Computer
- Datenauswertung
- LHC
- CERN
- WWW
|