Navigation überspringen Wissensdurst &a;ndern  
DESYs KworkQuark
Teilchenphysik für alle!

Forschungsauftrag | Fragen und Antworten | Hyperraum | KQ-Forum | Lexikon | Nachrichten | Thementouren | Weltkarte | Zeitleiste | Hilfe | Kontakt

Startseite > Nachrichten > Nachricht vom 6. Juni 2001

Wissenschaft hinter Gittern

In ihrem Heißhunger nach Rechenleistung gehen Wissenschaftler gemeinsame Wege. Wo Supercomputer nicht mehr ausreichen, schließen Teilchenphysiker ihre Hochleistungs-Rechner in so genannten Grids zusammen. Diese gelten schon jetzt als heiße Anwärter auf die Nachfolge des World Wide Webs.

Foto: Steckdose mit Beschriftung '220 GFlops'Steckdosen sind schon verdammt praktisch. Sie sind unser Weg ins weltweite Stromnetz, ersparen uns den eigenen Reaktor im Garten und sorgen mit dafür, dass wir Strom haben, wenn wir welchen brauchen: Einstöpseln genügt. Entsprechend versorgt uns das World Wide Web mit Information, gewährt uns weltweiten Zugriff auf Bibliotheksbestände und lässt uns die Mitgliederzeitschrift unseres Hundevereins auch in der Ferne lesen - alles aus einer unscheinbaren Telefondose. Nun basteln Wissenschaftler am nächsten Schritt: an der Rechenleistungs-Dose.

Ihnen fällt kein Grund ein, wofür man diese brauchen könnte? Dann kennen Sie wohl keine echten Probleme - Probleme, für die Ihr PC die nächsten hundert Jahre bräuchte, weil er mit Datenmengen hantieren müsste, die Milliarden Telefonbüchern entsprechen. Falls Sie dennoch Interesse an Rechenleistung haben, die jene von Supercomputern um ein Vielfaches übersteigt, dann sollten Sie beim europäischen DataGRID Projekt vorstellig werden. Da kann Ihnen geholfen werden. Denn in diesem 20-Millionen-DM-Forschungsprojekt der europäischen Union wird am Rechnerverbund der Zukunft gewerkelt.

Grids für die Datenschleuder Wissenschaft
Zwar werden Computer immer besser, dasselbe gilt aber auch für die Fertigkeiten von Wissenschaftlern, sich immer komplexere Probleme auszudenken, die sie mit ihren Rechenknechten lösen wollen.

Grafik: Teilchenspuren und Zahlen
Die Suche nach dem Higgs-Teilchen wird immense Datenmengen produzieren.

So entsteht am Teilchenphysikzentrum CERN in Genf zurzeit LHC, der Large Hadron Collider - der leistungsstärkste Teilchenbeschleuniger, den die Menschheit je gebaut hat. Hier soll ab 2005 das Higgs-Teilchen gefunden werden. Ein nicht ganz einfaches Unterfangen. Das Aufspüren einer Nadel im Heuhaufen wirkt daneben wie ein Kinderspiel. So haben Forscher errechnet, dass die Suche bei LHC eher der einer Nadel in 20 Millionen Heuhaufen entspricht. Jedes Jahr entstehen Datenmengen, für die man einen CD-Turm von fast einem Kilometer Länge bräuchte. Um diesen Daten einen Sinn zu geben, ist eine Rechenleistung von mindestens 20 Teraflops (20.000.000.000.000 Fließkomma-Berechnungen pro Sekunde) vonnöten. Der zurzeit schnellste Supercomputer, IBM's White, schafft gerade einmal 5 Teraflops.

Und die Teilchenphysiker sind nicht allein. Ob Higgs-Fund, Protein-Simulation oder Klimaberechnung - aktuelle Anforderungen an die Rechenleistung sind enorm. Der Heißhunger nach Daten zieht sich durch alle Disziplinen - Grids sind hier Speisekammer und Großküche in einem. Speisekammer, weil in den weltweiten Rechnerverbünden enorme Datenmengen gespeichert werden können. Großküche, weil Grids die enorme Rechenleistung zur Verfügung stellen, mit denen die Daten auch verarbeitet werden können.

Grids im Detail
Grids nutzen handelsübliche Computer und schließen diese geschickt zusammen. Ein Grid ist also eine Art Betriebssystem für ein weltweit umspannendes Mehr-Computer-Netz, eine Art Mega-Windows. Diese Software sorgt dafür, dass die anstehenden Aufgaben auf den verfügbaren Rechnern gleichmäßig verteilt werden. Zudem verhindert es mit seinen Sicherheitsmechanismen, dass jemand heimlich seine Steuerrückzahlung berechnet, wo eigentlich der Urknall simuliert werden sollte.

Der Name Grid stammt von elektrischen Gittern. Das sind elektrische Bauelemente, in denen ähnlich wie in einem Transistor mit kleinen Strömen große Ströme gesteuert werden können. Grids steuern gigantische Datenströme und verteilen Probleme auf die enorme Rechenleistung der weltweit angesiedelten Computer.
Grafik: Ein unendliches Gitter mit Computern an den KnotenpunktenVollständig neu ist diese Idee nicht. Schon das ARPANET, der militärische Vorläufer des Internets, sah in seinem Konzept vor, auch Rechenleistung weltweit zu verteilen. Im Jahr 1999 machte dann das Projekt seti@home auf sich aufmerksam, das eine Software zum Herunterladen ins Netz stellte, mit der auf dem heimischen PC nach außerirdischem Leben gesucht werden sollte. Über 3 Millionen registrierte Nutzer stellen ihren Computer in Rechenpausen zur Verfügung. In Zeiten, wo sonst der Bildschirmschoner arbeitet, werden extraterrestrische Signale analysiert. Dies führt zu einer gebündelten Rechenleistung von über 23 Teraflops, dem mehr als Vierfachen des derzeit schnellsten Supercomputers.

Grids nutzen ein ganz ähnliches Prinzip, schließen jedoch nicht PCs zusammen, sondern die Hochleistungsrechner weltweit verstreuter wissenschaftlicher Institute - ganz so, wie Anfang der 1990er Jahre auch das World Wide Web begann.

 

Kurz und knapp

  • Computer werden zu Grids vernetzt, um Rechenleistung zu erhalten, die die von Supercomputern um ein Vielfaches übersteigt.

Weblinks

Schlagworte

  • Computer
  • Datenauswertung
  • LHC
  • CERN
  • WWW


Wissensdurst
Symbol: kleiner Wissensdurst (aktiv)
klein
 Symbol: Mittlerer Wissensdurst (auswählen)
mittel 
Symbol: Großer Wissensdurst (auswählen)
groß
Was ist das?
Seite kommentieren (KQ-Kontakt)
Impressum | Urheberrecht | Nutzungsbedinungen | grafische Version | Druckversion (neues Fenster)

nach oben | zum Inhalt