Data Grid statt WWW
Vor zehn Jahren wurde am Kernforschungs-Zentrum CERN aus Not das World Wide Web erfunden. Nun wird am CERN wieder Computergeschichte geschrieben.
Die Wissenschafter des CERN arbeiteten oft über die ganze Welt verteilt an einem Forschungsprojekt. Dabei war es sehr schwierig, alle auf demselben Informationsstand zu halten. Deshalb hat Tim Berners-Lee vor 10 Jahren das World Wide Web kreiert – als weltweit verteiltes Hypertextsystem.
Zehn Jahre später sind es vor allem die ständig steigenden Datenmengen, die den CERN-Forschern Kopfzerbrechen bereiten. Wenn die Forscher nicht Wege finden, die riesigen Datenmengen weltweit zu verteilen und zu verarbeiten, ertrinken sie in ihren eigenen Daten.
Von eigenen Daten überschwemmt
Im Jahr 2005 nimmt das CERN den neuen Teilchen-Beschleuniger LHC (Large Hadron Collider) in Betrieb: Protonenbündel werden 40 Millionen Mal in der Sekunde auf die Detektoren treffen. Dabei entstehen pro Sekunde 100 Gigabytes Daten, welche von Computern ausgewertet werden müssen.
Der Ausweg aus der Datenfalle heisst «DataGrid». «Grid», zu deutsch «Netz», ist ein Hommage an die ersten Elektrizitätsnetze, die «Electricity Grids», welche im 19. Jahrhundert den Fortschritt einläuteten.
Wenn es nach dem CERN-Physiker Fabrizio Gagliardi geht, der das Projekt «DataGrid» leitet, soll Rechenkraft und Speicherkapazität im Grid so selbstverständlich und einfach zur Verfügung stehen, wie Elektrizität im Stromnetz.
Rechenkraft wie Strom aus dem Netz
Das World Wide Grid soll Computerkraft und Speicherplatz auf der ganzen Welt bündeln und Forschern, aber auch normalen Anwendern zur Verfügung stellen. Auf diese Weise soll das Netz quasi zum persönlichen Supercomputer mutieren.
Weil das Grid auf Datenbanktechniken basiert, soll es auch gezielte Abfragen verarbeiten können und auf diese Weise dafür sorgen, dass der unüberschaubare Datenberg des World Wide Web effizient nutzbar wird.
Finanziert wird die Entwicklung von Grid von der Europäischen Union. Die EU hat dem CERN Ende letzten Jahres für die nächsten drei Jahre 9,8 Mio. Euro (14,5 Mio. Franken) zugesichert.
Neben dem CERN sind fünf weitere Wissenschafts-Institutionen und drei private Unternehmen an der Entwicklung beteiligt, darunter IBM. Gemeinsam wollen die Partner ein verteiltes Datenbank-System entwickeln, das Daten in Petabyte-Grösse verwalten kann. Ein Petabyte entspricht 100 Millionen Gigabytes.
Napster für Wissenschafter
Nicht nur in Europa, auch in Amerika arbeiten Forscher intensiv an Grid-Projekten. Zwölf amerikanische Universitäten arbeiten gemeinsam am Grid Physics Network (GriPhyN). Wie in Europa sollen auch in Amerika die Forscher Daten und Rechenaufgaben online verteilen können.
Grid funktioniert ganz ähnlich wie die Peer-to-Peer-Musikbörsen im Internet – nur dass es sich bei den angeschlossenen Rechnern um Supercomputer und bei den Daten um Hunderte von Gigabytes handelt. Der Leiter des GriPhyN-Projektes, der Physiker Paul Avery, bezeichnet das Grid denn auch als ein «Napster für Wissenschafter».
Zugriff für jedermann
Wie das World Wide Web soll auch das Grid bald nicht nur Wissenschaftern, sondern auch normalen Anwendern zur Verfügung stehen. Damit hätte praktisch jedermann Zugriff auf einen Supercomputer.
Mit dem Grid sollen Anwender dem Netz konkrete Fragen stellen können. Das Netz sucht dann nicht nur nach Antworten, sondern berechnet die Antwort unter Umständen neu. Auf diese Weise sollen Bauern zum Beispiel ortsgenaue Wetterberichte für ihre Äcker errechnen lassen können.
swissinfo und Matthias Zehnder (sda)
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch