Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen

ï»ż
Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen
Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen
Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen
Eingangsansicht der GWDG in Turm 6 des Max-Planck-Institut fĂŒr biophysikalische Chemie
Kategorie: Forschungseinrichtung
TrÀger: sind die beiden Gesellschafter
Sitz des TrÀgers: Gesellschaftersitz in
  • Göttingen (UniversitĂ€t Göttingen)
  • MĂŒnchen (Max-Planck-Gesellschaft)
Mitgliedschaft: DFN-Verein
Standort der Einrichtung: Göttingen
Außenstellen: ServerrĂ€ume in folgenden Göttinger Einrichtungen
Art der Forschung: praktische und angewandte Informatik
Fachgebiete: aktive Projekte

abgeschlossene Projekte

  • Auflistung unter Abgeschlossene Projekte[6]
Grundfinanzierung: durch beide Gesellschafter
  • Max-Planck-Gesellschaft
  • UniversitĂ€t Göttingen

zu je 50%

Leitung: Ramin Yahyapour
Mitarbeiter: ~90, davon
Homepage: www.gwdg.de
Logo der Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen

Die Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) ist eine Gemeinschaftseinrichtung der UniversitĂ€t Göttingen und der Max-Planck-Gesellschaft. GegrĂŒndet 1970, ist die GWDG das Hochschulrechenzentrum der UniversitĂ€t Göttingen sowie das Rechen- und IT-Kompetenzzentrum der Max-Planck-Gesellschaft, Mitglied des Deutschen Forschungsnetzes. Die GWDG betreibt eigene Forschung im Bereich der praktischen und angewandten Informatik und ist an zahlreichen Forschungsprojekten[7] beteiligt.

Inhaltsverzeichnis


Aufgaben und Struktur der GWDG

Die GWDG als Rechen- und IT-Kompetenzzentrum fĂŒr

Max-Planck-Gesellschaft und als Hochschulrechenzentrum der Georg-August-UniversitÀt Göttingen

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-UniversitĂ€t Göttingen - Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V. (MPG). Sie erfĂŒllt die Funktion eines Rechen- und IT-Kompetenzzentrums fĂŒr die Max-Planck-Gesellschaft und des Hochschulrechenzentrums fĂŒr die UniversitĂ€t Göttingen. Ihre Forschungsaufgaben liegen im Bereich der Praktischen und Angewandten Informatik. Ferner fördert sie die Ausbildung von FachkrĂ€ften fĂŒr Informationstechnologie.

Lt. Gesellschaftsvertrag fördert die GWDG die Wissenschaft und Forschung, indem sie

  • ein DV-Versorgungssystem fĂŒr Forschungseinrichtungen und UniversitĂ€ten betreibt,
  • bei der wissenschaftlichen Gestaltung der IT/TK-Technologie fĂŒr Forschungsprojekte und universitĂ€re Lehre mitwirkt,
  • fĂŒr Forschungseinrichtungen und UniversitĂ€ten als Forschungsförderungseinrichtung Leistungen erbringt,
  • wissenschaftliche Anwenderinnen und Anwender bei der Lösung von Problemen im Bereich der Informations- und Kommunikationstechnologie berĂ€t und bei der Umsetzung der Problemlösungen mitwirkt,
  • wissenschaftliche Anwenderinnen und Anwender von Informations- und Kommunikationstechnologie aus- und weiterbildet,
  • eigene Forschung auf dem Gebiet der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes, fĂŒr die Lösung wissenschaftlicher Fragen betreibt. Das gesamte von ihr betreute DV-Versorgungssystem ist dabei Objekt der Untersuchung.

Zu den Aufgaben gehören insbesondere der Betrieb von Hochleistungsrechnern (Parallelrechner), die Bereitstellung von Spezialsystemen und die Betreuung des Übertragungsnetzes GÖNET, das die Göttinger Institute verbindet. Über die GWDG ist das GÖNET mit dem nationalen Wissenschaftsnetz X-WiN und dem Internet verbunden.

Als Kompetenzzentrum berĂ€t und unterstĂŒtzt die GWDG die von ihr betreuten Institute bei allen Fragen der wissenschaftlichen Datenverarbeitung.

Die Ressourcen der GWDG können von allen wissenschaftlichen Einrichtungen im Göttinger Raum, insbesondere von den Instituten der UniversitĂ€t Göttingen sowie allen Instituten der Max-Planck-Gesellschaft genutzt werden. Außerdem bestehen fĂŒr die Studierenden der UniversitĂ€t ZugĂ€nge zu Rechnern und damit zum Internet.

Neben dem unmittelbaren Nutzen, den die Gesellschafter der GWDG fĂŒr ihre wissenschaftliche Forschung aus dem Rechenzentrum ziehen, hat sich gezeigt, dass die Gesellschaft seit ihrem Bestehen ein wichtiges Bindeglied zwischen UniversitĂ€t Göttingen und Max-Planck-Gesellschaft geworden ist.

Das Arbeitsgebiet der GWDG ist gekennzeichnet durch außerordentlich große Vielfalt der DV-Anwendungen und durch sehr hohe KomplexitĂ€t im Sinne sehr vieler und enger Wechselwirkungen zwischen zahlreichen beteiligten Rechnern, Netzen, Softwarekomponenten und Personen.

In ihrer Funktion als Rechen- und IT-Kompetenzzentrum bietet die GWDG ihren Nutzerinnen und Nutzern sowohl standardisierte als auch strategische Dienste an. Zu den standardisierten Diensten zĂ€hlen Betrieb und Weiterentwicklung der DV-technischen Infrastruktur, VerfĂŒgbarmachung von Hard- und Software fĂŒr den wissenschaftlichen Einsatz sowie Beratung zur DV-UnterstĂŒtzung wissenschaftlicher Projekte.

Gleichzeitig hat es sich die GWDG zur Aufgabe gemacht, aktuellen Fragestellungen nachzugehen und neue Technologien zu erproben, um ein Angebot fĂŒr die BedĂŒrfnisse der Wissenschaftler von morgen zu schaffen. Die GWDG arbeitet an der Umsetzung von zukunftsweisenden DV-Konzepten, um Lösungen dann bereithalten zu können, wenn die Nutzerinnen und Nutzer sie brauchen. Die Entwicklung solcher komplexer Lösungen geschieht im Wechselspiel von praktischen Anforderungen und theoretischen AnsĂ€tzen, unter Einbeziehung des aktuellen Wissensstandes der Informatik.

Als Rechen- und IT-Kompetenzzentrum fĂŒr die MPG bietet die GWDG grundsĂ€tzlich alle Dienste fĂŒr die MPG an. Laut Votum einer Unterkommission des Beratenden Ausschusses fĂŒr Rechenanlagen (kurz BAR) der MPG hat die GWDG den Auftrag erhalten, fĂŒr die Max-Planck-Institute außerhalb Göttingens folgende zentralen Dienste anzubieten: IT-Sicherheit, Betrieb von Mail- und Webservern, Backup und Langzeitarchivierung, Bibliothekssysteme und Informationsdatenbanken, Netzplanung sowie Schulungsprogramm. Das Server-Hosting und die Betreuung zentraler Server fĂŒr die MPG (z. B. CMS-, eDoc- oder Aleph-Server) hat sich in den vergangenen Jahren zu einem weiteren bedeutenden Aufgabengebiet entwickelt.

In ihren Empfehlungen zur „Informationsverarbeitung an Hochschulen“ fĂŒr die Jahre 2001–2005 hat die Kommission fĂŒr Rechenanlagen der Deutschen Forschungsgemeinschaft ein verteiltes kooperatives Versorgungskonzept fĂŒr Hochschulen entworfen. Es wird darauf hingewiesen, dass das Rechenzentrum „ein unverzichtbarer Bestandteil dieses kooperativen Versorgungskonzeptes jeder Hochschule“ ist. Zu den Hauptaufgaben der Rechenzentren gehören danach der Betrieb der Netze und Netzdienste, der Betrieb zentraler Server und Dienste sowie die Beratung und UnterstĂŒtzung der Anwender. Weiterhin werden die Einrichtung einer Hotline und eines Helpdesk fĂŒr erforderlich gehalten.

Forschung im Bereich der Praktischen und Angewandten Informatik

Forschung vollzieht sich meist in der DurchfĂŒhrung von wohl definierten Projekten, die hĂ€ufig untereinander in Zusammenhang stehen. Das einzelne Projekt durchlĂ€uft dabei mehrere Phasen, die zusammen eine Verfahrenskette bilden. Die zunehmende Durchdringung der Forschung durch die Informationstechnologie hat dazu gefĂŒhrt, dass Rechenzentren wie die GWDG in praktisch allen Schritten der Verfahrenskette Forschung involviert sind und einen wesentlichen Beitrag liefern. Hierbei wird sich hĂ€ufig auch eine gemeinschaftliche Forschung von Wissenschaftlern aus Benutzerinstituten und der GWDG ergeben. Das Gesamtsystem der wissenschaftlichen Datenverarbeitung in einem Versorgungsbereich ist auf diese Weise vollstĂ€ndig mit dem System der Forschung in diesem Bereich verzahnt. Es ist zur wesentlichen Infrastruktur der Wissenschaft geworden, die unmittelbar in dem wissenschaftlichen Erkenntnisprozess mitwirkt, indem sie nĂ€mlich Information bereitstellt, umformt und die Kooperation aller Beteiligten in neuartiger Weise ermöglicht. Das letztere ist besonders wichtig, weil Forschung heute hauptsĂ€chlich von Teams betrieben wird und der Einzelforscher eher selten ist.

Neben dieser umfangreichen UnterstĂŒtzung der Forschung in ihren Benutzerinstituten ist die GWDG auch selbst eine wissenschaftliche Einrichtung, die Fragestellungen aus der Praktischen und Angewandten Informatik, insbesondere zur Methodik des Rechnereinsatzes zur Lösung wissenschaftlicher Probleme erforscht. Dieser Themenkreis umfasst solche Teilgebiete wie Rechnerbetriebssysteme, Rechnernetze, DatenĂŒbertragungstechnik, Algorithmik, Netz-, System- und Anwendungsmanagement und Organisationslehre der Datenverarbeitung.

Empirische Daten werden dieser Forschung bei der GWDG durch den eigenen Rechenzentrumsbetrieb geliefert.

Dieser ist ein wesentliches Objekt der wissenschaftlichen Untersuchung. Er muss, um dem Zweck dienen zu können, genau auf die BedĂŒrfnisse des Anwenders aus der Wissenschaft ausgerichtet sein. Er stellt aus der Sicht der Forschung der GWDG eine Art Versuchslabor dar, in dem neue Erkenntnisse gewonnen und auch getestet werden. Diese engste Verzahnung zwischen der Forschung und dem Betrieb einer IT-Infrastruktur ist eine notwendige Voraussetzung fĂŒr hochwertige Forschungsergebnisse in den genannten Gebieten.

Aus den BedĂŒrfnissen der wissenschaftlichen Nutzerinnen und Nutzer ergeben sich laufend neue Entwicklungs- und Anwendungsfelder fĂŒr die GWDG. Dabei gilt es, sowohl vorhandene AnsĂ€tze der wissenschaftlichen Datenverarbeitung zu koordinieren als auch neue Lösungen zu entwickeln.

VielfÀltige Projekte gewÀhrleisten, dass die Kompetenz der GWDG nicht nur mit der rasanten Entwicklung Schritt hÀlt, sondern dieser Entwicklung immer einen kleinen Schritt voraus ist. Dies ist eine notwendige Vorbedingung, um die Forschungsaufgaben von heute den Nutzern morgen in Form von Standarddiensten anbieten zu können.

Aus der Sicht der Anwenderin und des Anwenders ist das Rechenzentrum der GWDG ein Dienstleistungsbetrieb, der auf die BedĂŒrfnisse von Wissenschaftlerinnen und Wissenschaftler hin spezialisiert wurde. Ohne diesen Dienstleistungsbetrieb wĂŒrde der Forschung der GWDG die empirische Grundlage und die genannte enge Verzahnung fehlen. Forschung und Dienstleistung sind auf diese Weise untrennbar miteinander verbunden.

Damit ist der wissenschaftliche Kernbereich der Arbeit in der GWDG beschrieben. Als wissenschaftliche Einrichtung kann die GWDG jedoch nur arbeiten, wenn eine Umgebung bereitgehalten wird, die die wissenschaftliche Arbeitsmöglichkeit ĂŒberhaupt sichert. Hierzu gehören bei der GWDG weitere AktivitĂ€ten wie wissenschaftliche Tagungen bzw. Workshops, in denen dem wissenschaftlichen Austausch mit den UniversitĂ€ts- und Max-Planck-Instituten Raum gegeben wird, das Publikationswesen, die wissenschaftliche Bibliothek, das Rechnermuseum. Zahlreiche Publikationen und auch Promotionen halten die Ergebnisse der Forschungs- und Entwicklungsarbeit der GWDG fest.

Alle TĂ€tigkeiten der GWDG, insbesondere ihre Forschung, aber auch die des Rechenzentrums, sind im Übrigen Voraussetzung fĂŒr den umfangreichen Schulungsbetrieb der GWDG, in dem Mitarbeiterinnen und Mitarbeiter der wissenschaftlichen Institute zu Fragen der Datenverarbeitung weitergebildet werden.

Im Berichtszeitraum 2009 bis 2010 hat die GWDG an den folgenden Forschungsprojekten gearbeitet, die mit Drittmitteln oder Mitteln aus dem GeschÀftsbetrieb der GWDG gefördert werden:

  • Die GWDG ist am MediGRID-Projekt im Rahmen der E-Science-Initiative des BMBF beteiligt. Ein in diesem Zusammenhang von Harald Richter, TU Clausthal, und Oswald Haan, GWDG, betreutes Promotionsprojekt beschĂ€ftigt sich mit dem Thema „Leistungsoptimierung im Daten-Grid“. Nach der VerlĂ€ngerung der Förderung des Projektes um ein halbes Jahr bis Februar 2009 ist das MediGRID-Projekt beendet worden.
  • An dem Folgeprojekt zu MediGRID, Services@MediGRID, ist die GWDG als Ressourcenprovider ebenfalls beteiligt. Services@MediGRID entwickelt auf Basis der MediGRID-Middleware wichtige Elemente fĂŒr die Nachhaltigkeit der Grid-Infrastruktur. Dazu wird das MediGRID um eine vertikale Komponente erweitert, die durch alle Schichten hindurch Dienste gestaltet, die Voraussetzung fĂŒr eine kommerziell orientierte Verwertung sind. Das Projekt begann am 1. Januar 2008 und lief bis Ende 2010.
  • Das Projekt „DP4lib“ ist die konsequente Weiterentwicklung von Kopal zu einem integrierten Dienst zur Langzeitarchivierung digitaler Daten. Dabei soll das System zu einer mandantenfĂ€higen Lösung ausgebaut werden. Das Projekt wurde von der Deutschen Nationalbibliothek in Frankfurt und der SUB Göttingen bei der DFG beantragt und Anfang 2009 genehmigt. Wie beim Projekt Kopal wird die Software durch IBM geliefert, die GWDG ĂŒbernimmt Planung und Betrieb der Speicher- und Server-Systeme. Projektbeginn mit einem Kickoff-Meeting war Anfang 2010.
  • EURExpress (EU): ein Projekt zur automatisierten Genexpressionsanalyse, initiiert durch Gregor Eichele vom frĂŒheren MPI fĂŒr experimentelle Endokrinologie in Hannover. Das Projekt wird durch die EU im Rahmen des 6. Forschungsrahmenprogramms gefördert. Die im Rahmen des Projektes fĂŒr die GWDG zur VerfĂŒgung stehenden Mittel wurden aufgestockt und das Projekt planmĂ€ĂŸig fortgefĂŒhrt. Es verlief bisher sehr erfolgreich. Im Jahr 2010 wurden die fĂŒr das Projekt eingesetzten Server (Datenbank-, Web- und Zoomserver) als virtuelle Maschinen in die VMware-Umgebung migriert.
  • Das Forschungsprojekt und Verbundvorhaben „OptiNum-Grid - Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen“ wurde von der GWDG als KonsortialfĂŒhrer und Koordinator mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie fĂŒr die 3. D-Grid-Förderrunde des BMBF initiiert. Ziel des Projektes, das mit 1,5 Mio € ĂŒber drei Jahre gefördert wird und am 1. Juni 2009 planmĂ€ĂŸig begonnen hat, ist es, Dienste und GeschĂ€ftsmodelle zu entwickeln, mit denen numerische Simulations- und Optimierungsverfahren ĂŒber das Grid bereitgestellt und genutzt werden können.
  • An einem weiteren Verbundprojekt der 3. D-Grid-Förderrunde, „DGSI - D-Grid Scheduler Interoperability“, ist die GWDG als Partner mit sechs weiteren Forschungseinrichtungen und einer Firma aus der Industrie beteiligt. In diesem Projekt sollen Verfahren entwickelt werden, die die gemeinsame Nutzung der zur VerfĂŒgung stehenden Rechen- und Speicherressourcen ĂŒber die Grenzen der heterogenen Umgebung der vielen D-Grid-Communities hinweg ermöglichen.
  • Im Rahmen der GÖ*-Arbeitsgruppe „Langzeitarchivierung“ wurde ein Projektantrag zur Erstellung einer Studie „Kooperative Langzeitarchivierung fĂŒr Wissenschaftsstandorte“ (KoLaWiss) erstellt, der bei der DFG eingereicht und genehmigt wurde. Die Projektleitung lag bei der GWDG. Das Projekt wurde am 1. Februar 2008 begonnen und nach VerlĂ€ngerung um drei Monate Ende April 2009 mit entsprechenden Abschlussberichten erfolgreich beendet.
  • Der von der GWDG im Jahr 2009 eingefĂŒhrte Dienst zur Bereitstellung von Persistent Identifiers zur eindeutigen und bleibenden Referenzierung von Datenobjekten ist auch wegen dessen möglichen Einsatzes fĂŒr die sichere und langfristige VerfĂŒgbarkeit von Forschungsdaten von großer Bedeutung. Im Berichtszeitraum wurden eine Reihe von Maßnahmen zur Weiterentwicklung und Verbesserung dieses Dienstes durchgefĂŒhrt.
  • Seit Juli 2007 beschĂ€ftigt sich ein GWDG-Mitarbeiter, der zuvor im Instant-Grid-Projekt als Projektmitarbeiter erfolgreich tĂ€tig war, im Rahmen seiner Promotion mit dem Thema „Reliable grid information services, resource discovery and service quality monitoring across virtual organizations“.

Ausbildung von FachkrĂ€ften fĂŒr Informationstechnologie

Die GWDG fördert die Ausbildung von FachkrĂ€ften fĂŒr Informationstechnologie in zweierlei Weise: Zum einen durch die BeschĂ€ftigung von Auszubildenden sowie in unregelmĂ€ĂŸigen AbstĂ€nden auch von Praktikanten und zum anderen durch ein umfangreiches Kursangebot fĂŒr die Benutzer.

Die GWDG bildet seit 1979 aus. Anfangs gab es zwei AusbildungsplĂ€tze, spĂ€ter kamen zwei weitere dazu. Im Berichtszeitraum 2009 bis 2010 waren vier Auszubildende zum „Elektroniker fĂŒr GerĂ€te und Systeme" bei der GWDG tĂ€tig. Neben den Berufsgrundlagen eines Elektronikers erhalten die Auszubildenden wĂ€hrend ihrer 3,5-jĂ€hrigen Ausbildungszeit stĂ€ndig Einblick in die neueste Netzwerktechnologie und PC-Technik.

Die Gesellschafter und der Aufsichtsrat

Die GWDG ist eine gemeinsame Einrichtung der Georg-August-UniversitĂ€t Göttingen - Stiftung Öffentlichen Rechts und der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., die somit die beiden Gesellschafter darstellen und jeweils zur HĂ€lfte beteiligt sind. Im Jahr 2005 hatte das Land Niedersachsen seinen Anteil an der GWDG auf die StiftungsuniversitĂ€t Göttingen ĂŒbertragen. Der Aufsichtsrat hat die vom Gesetzgeber vorgeschriebenen Aufgaben und Pflichten zu erfĂŒllen, insbesondere die Überwachung und Beratung der GeschĂ€ftsfĂŒhrung. Die Gesellschafter entsenden jeweils bis zu drei Mitglieder in den Aufsichtsrat. Den Vorsitz im Aufsichtsrat und den stellvertretenden Vorsitz fĂŒhren im zweijĂ€hrigen Wechsel ein Vertreter der UniversitĂ€t Göttingen und der Max-Planck-Gesellschaft.

Der wissenschaftliche Beirat

Wie viele andere Unternehmen, so besitzt auch die GWDG einen wissenschaftlichen Beirat. Der Beirat ĂŒbt laut Gesellschaftsvertrag eine Vielzahl von Aufgaben aus. Die bedeutendste davon ist, dass er die Gesellschaft in wichtigen Fragen beraten und die Verbindung mit den an der Arbeit der Gesellschaft interessierten Kreisen fördern soll. Er besteht aus 16 Personen und ist jeweils zur HĂ€lfte mit Vertreterinnen und Vertretern aus den Max-Planck-Instituten und den Instituten der UniversitĂ€t Göttingen besetzt. Der Beirat wĂ€hlt aus seiner Mitte einen Vorsitzenden sowie einen Stellvertreter.

Die Organisationsstruktur

Die derzeitige Organisationsstruktur der GWDG, die seit dem 1. Dezember 2004 besteht, ist konsequent auf die unterschiedlichen Dienstleistungsbereiche ausgerichtet und trĂ€gt den heutigen Anforderungen an UniversitĂ€ts- und Forschungsrechenzentren als moderne IT-Kompetenzzentren mit einem umfangreichen Leistungsspektrum Rechnung. Aus Kundensicht verliert die Frage, auf welchen Systemen die Leistungen realisiert werden, bezogen auf die interne Organisation, immer mehr an Bedeutung (plattformĂŒbergreifende Orientierung an Dienstleistungen). Das spiegelt sich in der Organisationsstruktur wider. Es gibt fĂŒnf Arbeitsgruppen, auf die die Aufgaben und Verantwortungsbereiche aufgeteilt sind:

1.) Arbeitsgruppe Anwendungs- und Informationssysteme (AG A)

Wissenschaftliches Rechnen, Grid-Computing, Datenbanken, Informationssysteme, Desktop-Systeme, Anwendungssysteme, IT-Sicherheit

2.) Arbeitsgruppe Nutzerservice und Betriebsdienste (AG H)

Helpdesk, Benutzerbetreuung, Überwachung der Betriebsbereitschaft, Management-Systeme, Bearbeitung spezieller BenutzerauftrĂ€ge, Print-Services einschl. Großformat-/BroschĂŒrendruck und Betrieb Peripherie-GerĂ€te, Hosting von Systemen, AD-Services, Verzeichnis- und Informationsdienste, Multimedia

3.) Arbeitsgruppe IT-Infrastruktur (AG I)

Wissenschaftsnetz, WLAN GoeMobile, IT-Sicherheit, Mail-, File- und Backup-Services, Archivierung von Daten/Langzeitarchiv, Betrieb von virtuellen Servern

4.) Arbeitsgruppe Basisdienste und Organisation (AG O)

Management-Systeme, Reporting/Accounting, Benutzerverwaltung, betriebliche Organisation, Basis-Infrastruktur, Ausbildung, Beschaffung und Verwaltung von Softwarelizenzen, Spezialsysteme (z. B. elektronisches Bewerbungsverfahren), Planung und DurchfĂŒhrung von Kursen zu IT-Themen, Presse- und Öffentlichkeitsarbeit, Datenschutz, Groupware, Planung von DatenĂŒbertragungsnetzen, GÖNET, Web-Services

5.) Arbeitsgruppe Verwaltung und Querschnittsaufgaben (AG V)

IT-Rechtsfragen, Ausschreibungen

Geschichte

Am 29. April 1970 fand die GrĂŒndungsversammlung der Gesellschaft fĂŒr wissenschaftliche Datenverarbeitung mbH Göttingen – kurz GWDG – statt. Die beiden Gesellschafter Land Niedersachsen fĂŒr die UniversitĂ€t Göttingen und Max-Planck-Gesellschaft beteiligten sich zu je 50 % am Kapital der GWDG, und auch die jĂ€hrlichen Kosten sollten nach dem ebenfalls am 29. April 2010 geschlossenen Konsortialvertrag je zur HĂ€lfte getragen werden. Das wichtigste und fĂŒr die damalige Zeit innovative Ziel war die Realisierung von Synergien in der Informationsverarbeitung durch den gemeinsamen Betrieb eines Rechenzentrums.

Im Jahr ihrer GrĂŒndung, nahm die GWDG einen Universalrechner UNIVAC 1108 in Betrieb. Er war durch seine Architektur besonders fĂŒr numerische Anwendungen geeignet. Die CPU leistete ungefĂ€hr 1 Million Instruktionen pro Sekunde, also 1 MIPS. Über acht Ein-/Ausgabe-KanĂ€le wurden unter anderm zwei Magnettrommelsysteme mit insgesamt ca. 25 MegaByte Speicherplatz betrieben.

Am 23. Februar 1976 wurde Dieter Wall zum wissenschaftlichen GeschĂ€ftsfĂŒhrer bestellt und damit Nachfolger von Bruno Brosowski. Herr Wall hat die GrĂŒndung der GWDG vorbereitet, bei ihrem Aufbau an entscheidender Stelle mitgewirkt und sie bis zu seiner Pensionierung Mitte 1997 maßgeblich gestaltet und geprĂ€gt. Unter seiner Leitung ist die GWDG schon sehr frĂŒh als „Vorreiter“ den Weg vom reinen Rechenzentrum zum modernen IT-Kompetenzzentrum fĂŒr Forschung und Lehre gegangen. Von 1979 an war er Mitglied und von 1988 bis 1994 Vorsitzender der Kommission fĂŒr Rechenanlagen der DFG.

Im Januar 1978 erschien die erste Ausgabe der GWDG-Nachrichten[8]. Im damaligen Editorial wurden sie als kleine Hauszeitschrift bezeichnet, die u. a. VerstĂ€ndnis fĂŒr die technischen und organisatorischen Probleme des Rechenzentrumsbetriebes wecken und die Kommunikation zwischen dem Rechenzentrum und seinen Benutzern unterstĂŒtzen sollte. Die Ausgaben der ersten Jahre waren durch den Abdruck technischer Informationen ĂŒber die einzige Großrechenanlage UNIVAC 1108 und spĂ€ter UNIVAC 1100/82 geprĂ€gt. Beschreibungen des Betriebssystems, einzelner Programme und der Compiler kamen hinzu. Wenige spezielle Kurse wurden angekĂŒndigt.

Am 14. September 1979 wurde die UNIVAC 1108, deren Leistung bei weitem nicht mehr zur Deckung des Bedarfs ausreichte, durch das Nachfolgemodell UNIVAC 1100/82 mit der Aufnahme des Normalbetriebs abgelöst. Sie war mit zwei Rechenprozessoren, die je 2,5 MIPS leisteten, ausgestattet. Hinzu kam ein Ein-/Ausgabeprozessor mit direktem Zugriff auf den gemeinsamen Hauptspeicher. (Abb. zeigt einen Ausschnitt aus der Multiplexer-Platine mit PLAs). Am 1. November 1979 wurde der erste PC vom Typ Commodore PET 2001 fĂŒr die interne Nutzung in der GWDG in Betrieb genommen. Der frei programmierbare Tischrechner mit BASIC-Interpreter hatte eine Taktrate von 1 MegaHertz, eine HautspeicherkapazitĂ€t von 8 KiloByte und ein Magnetbandkassettenlaufwerk.

Am 10. Juli 1981 ging die Rechenanlage VAX 11/780 mit angeschlossenem Farbgrafiksystem in Betrieb. Ihre Hauptanwendung war das Farbgrafiksystem AYDIN 5216 (fĂŒr interaktive grafische Anwendungen), bestehend aus zwei hochauflösenden Farbmonitoren mit Tastatur und Joystick. SpĂ€ter kam noch das Grafik-Tablett „Digi-Pad 5“ zur interaktiven Digitalisierung von grafischen Darstellungen hinzu, das mit einem Abtaststift arbeitete.

Am 15. Oktober 1984 wurde mit der Inbetriebnahme eines COM-GerĂ€tes (Computer Output on Microfilm) Benson 343 eine bedeutende Erweiterung des grafischen Ausgabeangebotes erreicht. Es konnten Texte und farbige Grafiken auf Mikrofiches (105 mm), 35-mm-Diafilm und 16-mm-Schmalfilm (nur schwarz/weiß) ausgegeben werden. Als zusĂ€tzliche Ausstattung fĂŒr die Arbeit mit Mikrofiches wurden LesegerĂ€te, ein EntwicklungsgerĂ€t, ein VervielfĂ€ltigungsgerĂ€t und ein RĂŒckvergrĂ¶ĂŸerungsgerĂ€t beschafft.

Mitte des Jahres 1987 wurde erstmalig eine Verbindung der GWDG zum Deutschen Forschungsnetz WiN und damit auch zum damals noch wenig bekannten Internet eingerichtet. Die Übertragungsrate betrug 64 Kilobit/s. Somit war es erstmalig möglich, weltweit mit Partnern in vielen Forschungseinrichtungen moderne Formen der Telekooperation zu nutzen.

Am 15. November 1988 wurde die Rechenanlage IBM 3090 mit Vektoreinrichtung feierlich in Betrieb genommen. Schon ein Jahr vorher, am 19. November 1987 hatte der uneingeschrĂ€nkte Benutzerbetrieb auf dem Zentralrechner begonnen. Anfangs war er mit zwei Prozessoren, die jeweils 16 MIPS leisteten, und einer Vektoreinrichtung. Im April 1988 wurde die Rechenanlage um einen dritten Prozessor mit Vektoreinrichtung erweitert. Die Leistung betrug damit 48 MIPS ohne BerĂŒcksichtigung der Vektoreinrichtungen. Außerdem wurde die MassenspeicherkapazitĂ€t durch Anschluss von zwei Magnetplattenuntersystemen auf eine GesamtmassenspeicherkapazitĂ€t von 45 GigaByte erhöht.

Im Januar 1992 begann der Betrieb auf den ersten, Benutzern zugĂ€nglichen Workstations der GWDG, einer DECstation 5000 und einer IBM RS/6000, unter den UNIX-Betriebssystemen ULTRIX bzw. AIX. Im Juli 1992 schließlich begann der Ausbau der Workstations zu einem Cluster aus zwei DECstations 5000 und fĂŒnf Systemen IBM RS/6000, die ĂŒber einen FDDI-Ring gekoppelt waren. Über Glasfaserkabel wurden Übertragungsraten von 100 Megabit/sec unterstĂŒtzt. Ein Cisco-Router stellte die Verbindung zum Ethernet und zum Internet her. Der Aufbau eines starken Clusters von Workstations als ÜberlaufkapazitĂ€t fĂŒr die Arbeitsplatzrechner in den Instituten war Teil des verteilten kooperativen Versorgungskonzepts und lĂ€utete eine neue Ära in der wissenschaftlichen Datenverarbeitung ein.

In Jahr 1993 konnte ein mit Mitteln der DFG und der Gesellschafter der GWDG finanzierter Parallelrechner KSR1 mit 32 Prozessoren in Betrieb genommen werden. Seine Gesamtrechenleistung betrug 1,28 GigaFlop/sec bei einer GesamtspeichergrĂ¶ĂŸe von 1 GigaByte. Das fĂŒr die damalige Zeit einzigartige und herausragende Merkmal war die Speicherorganisation nach dem Prinzip des virtuell gemeinsamen Speichers. Im MĂ€rz 1993 kam es zur Inbetriebnahme des GÖNET-Backbones, eines BĂŒndels von Glasfaserkabeln, das in einem Ring von der GWDG ĂŒber den Uni-Nordbereich, das UniversitĂ€tsklinikum, den Bereich des alten Klinikums, das Geisteswissenschaftliche Zentrum und durch die Innenstadt zur Metallphysik, in den SĂŒdbereich und zur UniversitĂ€tssternwarte reichte. In diesem Backbone wurde FDDI-Technologie mit einer Übertragungsleistung von 100 Megabit/sec eingesetzt. Neben den UniversitĂ€tsinstituten wurden auch das Max-Planck-Institut fĂŒr Strömungsforschung und das Max-Planck-Institut fĂŒr Experimentelle Medizin an den Glasfaser-Backbone angebunden. Im November 1993 wurde erstmalig das Leistungsangebot der GWDG Rechner, Netze, Spezialisten, in dem sich die GWDG als IT-Kompetenzzentrum darstellt, veröffentlicht. Die GWDG hatte damit als erstes wissenschaftliches Rechenzentrum in Deutschland eine Empfehlung der Kommission fĂŒr Rechenanlagen der DFG zum neuen verteilten, kooperativen Versorgungssystem umgesetzt. Ab Januar 1994 wurden alle AuftrĂ€ge der Benutzer nach den im Katalog aufgefĂŒhrten Verfahren bearbeitet. Das Abrechnungsverfahren, die Kontingentierung sowie das Kosten- und Leistungsrechnungssystem beruhen seit 1994 auf diesem inzwischen nur noch online und tagesaktuell im WWW verfĂŒgbaren Dienstleistungskatalog.

Die GWDG hatte sich im Mai 1994 entschlossen, als weiteres Informationssystem einen WWW-Server zu betreiben. In wenigen Wochen wurden die Inhalte aus dem Boden gestampft. Sie deckten schon in der ersten Ausgabe sowohl die UniversitÀt Göttingen als auch die Max-Planck-Gesellschaft ab. Einfach war das jedoch nicht: Tabellen unter HTML waren noch nicht erfunden, an Frontpage oder an andere HTML-Composer war noch nicht zu denken. Inhalte wurden mit simplen Texteditoren erstellt, jeder HTML-Tag musste mit den Fingern auf der Tastatur eingetippt werden.

Am 1. August 1997 wurde Gerhard Schneider Nachfolger des langjĂ€hrigen GeschĂ€ftsfĂŒhrers Dieter Wall, der dieses Amt mehr als 21 Jahre innehatte. Herr Schneider hat vor allem im Netzbereich fĂŒr die frĂŒhzeitige Bereitstellung innovativer Dienste und Möglichkeiten (u. a. ADSL und Funk-LAN) gesorgt und damit dem Wissenschaftsstandort Göttingen und seinen Anwendern gegenĂŒber der Konkurrenz mehrmals einen Vorteil verschafft.

Am 12. Mai 1998 wurde der neue ATM-Backbone durch den damaligen NiedersĂ€chsischen Wissenschaftsminister Oppermann eingeweiht. Mit 622 Megabit/sec verband das zu der Zeit schnellste TeilstĂŒck der wissenschaftlichen Datenautobahn in Niedersachsen die fĂŒnf Max-Planck-Institute im Göttinger Raum, die GWDG und die UniversitĂ€t Göttingen – untereinander und mit dem Breitband-Wissenschaftsnetz B-WiN. Die ATM-Technik erlaubte neben dem reinen Internet-Verkehr auch Datenverbindungen mit besonderen QualitĂ€tsanforderungen wie Video und Sprache und war damit wichtige Grundlage fĂŒr Multimedia-Anwendungen.

Anfang des Jahres 2000 ging ein Hochleistungs-Digitaldrucksystem fĂŒr farbige Ausdrucke in Betrieb – die sog. Druckstraße. Mit ihr konnten unter anderm Flyer, Zeitschriften, Prospekte und wissenschaftliche Publikationen in kleiner bis mittlerer Auflage schnell und kostengĂŒnstig produziert werden. Die Anwendungen reichten vom einfachen Ausdruck einzelner Farbseiten bis zur Herstellung umfangreicher gehefteter BroschĂŒren. Am 10. Februar 2000 wurde das Parallelrechnersystem IBM RS/6000 SP feierlich in Betrieb genommen. Damit stieg die vorhandene RechenkapazitĂ€t fĂŒr wissenschaftliche Simulationsrechnungen um den Faktor 10. Die Gesamtrechenleistung der 144 Prozessoren lag bei ca. 200 Milliarden Rechenoperationen pro Sekunde (200 GigaFlop/s). Es rangierte damit in der Top-500-Liste der weltweiten Rechenssysteme unter den ersten 100.

Am 16. Februar 2001 wurde der erste Abschnitt des Göttinger Funk-LANs GoeMobile offiziell in Betrieb genommen. Das Funk-LAN dient als ErgĂ€nzung des schon seit 1993 bestehenden stationĂ€ren Hochgeschwindigkeitsnetzes GÖNET. Bereits die anfĂ€ngliche Übertragungsrate von 11 Megabit/sec erlaubte Video- und TonĂŒbertragungen in Echtzeit und ermöglichte damit auch die Teilnahme an Televorlesungen.

Am 1. Januar 2002 ĂŒbernahm Hartmut Koke, vorheriger stellvertretender Leiter des Rechenzentrums, bis zur endgĂŒltigen Findung eines Nachfolgers fĂŒr den ausgeschiedenen Gerhard Schneider die GeschĂ€ftsfĂŒhrung. Herr Koke hat das GÖ*-Projekt zum integrierten Informationsmanagement am Wissenschaftsstandort Göttingen entscheidend mitentwickelt und damit die Kooperation der verschiedenen wissenschaftlichen IT-Dienstleister weiter erfolgreich vorangetrieben.

Am 1. Juli 2003 wurde Bernhard Neumair neuer GeschĂ€ftsfĂŒhrer und damit Nachfolger von Hartmut Koke. In seiner siebenjĂ€hrigen Amtszeit hat Herr Neumair die GWDG erfolgreich weiter zum einem modernen IT-Dienstleister fĂŒr Forschung und Lehre entwickelt und das breite Leistungsspektrum weiter ausgebaut, verbessert und an die NutzerbedĂŒrfnisse angepasst. Dabei setzte er auf verstĂ€rkte Kooperation und konsequente Nutzung von Synergieeffekten zwischen den wissenschaftlichen IT-Dienstleistern am Forschungsstandort Göttingen.

Die GWDG war im Jahr 2005 erstmals auf der CeBIT vertreten. Dort wurden mit dem Instant Cluster und dem GÖ*-Portal zwei Projekte vorgestellt, die sich mit dem einfachen Zugriff auf IT-Ressourcen, mit Fokus auf die wissenschaftliche Nutzung, befasst haben.

Am 30. MĂ€rz 2007 wurden die beiden Hochleistungs-Parallelrechnersysteme SGI Altix 4700 und Megware Woodcrest-Cluster mit einer feierlichen Einweihung offiziell in Betrieb genommen. Mit einer Spitzenleistung der 1.112 Rechenkerne von insgesamt fast 10,5 TeraFlop/s, das heißt ca. 10,5 Billionen Rechenoperationen pro Sekunde, gehörten sie zu leistungsfĂ€higsten Rechnern in Niedersachsen und verfĂŒnffachten die bei der GWDG fĂŒr die Wissenschaft und Forschung bereitgestellte Rechenleistung. Diese hohe Leistung sowie 2,6 TeraByte Hauptspeicher und 63,6 TeraByte lokaler Plattenspeicher erlaubten numerische Simulationen von in der naturwissenschaftlichen Grundlagenforschung untersuchten komplexen Systemen in bis dahin nicht erreichter Auflösung und Genauigkeit.

Am 13. Mai 2008 wurde das Göttinger Grid-Ressourcen-Zentrum GoeGrid offiziell in Betrieb genommen. GoeGrid realisiert als Baustein einer zukĂŒnftigen eScience-Infrastruktur den zentralen Betrieb und die gemeinsame Nutzung der Rechen- und Speicherressourcen aller Grid-Communities in Göttingen. Es umfasste anfĂ€nglich einen Hochleistungs-Rechencluster mit ĂŒber 800 Rechenkernen, einen Massenspeicherbereich von 180 TeraByte und ArchivspeicherkapazitĂ€t von 30 TeraByte.

Am 1. Juli 2010 ĂŒbernahmen Oswald Haan, vorheriger stellvertretender Leiter des Rechenzentrums, und Paul Suren, vorheriger Prokurist und Verwaltungsleiter, bis zur endgĂŒltigen Findung eines Nachfolgers fĂŒr den ausgeschiedenen Bernhard Neumair gemeinsam die GeschĂ€ftsfĂŒhrung – Oswald Haan als wissenschaftlicher und Paul Suren als administrativer GeschĂ€ftsfĂŒhrer. Am 18. Oktober 2010 feierte die GWDG ihr 40 jĂ€hriges Bestehen.[9][10]

Anfang des Jahres 2011 ging der neue Magny-Cours-Hochleistungs-Rechencluster von Megware in Betrieb. Er enthĂ€lt insgesamt 66 Rechenknoten mit jeweils vier AMD-Zwölf-KernProzessoren. Mit einer Gesamtrechenleistung der insgesamt 3168 Rechenkerne von 27,9 TeraFlop/s – das heißt 27,9 Billionen Rechenoperationen pro Sekunde – einem verteilten Hauptspeicher von 8,2 TeraByte und einem verteilten lokalen Plattenspeicher von 64 TeraByte ist der Magny-Cours-Cluster das zur Zeit leistungsstĂ€rkste Rechnersystem bei der GWDG.

Seit dem 1. Oktober 2011 ist Ramin Yahyapour neuer GeschĂ€ftsfĂŒhrer. Ramin Yahyapour löst damit den bisherigen wissenschaftlichen GeschĂ€ftsfĂŒhrer, Oswald Haan, und Paul Suren, den bisherigen administrativen GeschĂ€ftsfĂŒhrer, ab. Beide hatten nach dem Weggang von Bernhard Neumair am 1. Juli 2010 gemeinsam die GeschĂ€ftsfĂŒhrung ĂŒbernommen. Oswald Haan geht nach 18-jĂ€hriger TĂ€tigkeit bei der GWDG in den Ruhestand, Paul Suren wird weiterhin, wie vorher auch, als Prokurist und Verwaltungsleiter bei der GWDG tĂ€tig sein.[11]

GeschĂ€ftsfĂŒhrer

In dieser Auflistung sind alle GeschĂ€ftsfĂŒhrer der GWDG seit ihrer GrĂŒndung aufgelistet.

  • Herr Brosowski (1970 bis 1976)
  • Dieter Wall (1976 bis 1997)
  • Gerhard Schneider (1997 bis 2002)
  • Hartmut Koke (2002 bis 2003)
  • Bernhard Neumair (2003 bis 2010)
  • doppelte GeschĂ€ftsfĂŒhrung (2010 bis 2011)
Oswald Haan (wissenschaftlich)
Paul Suren (administrativ)
  • Ramin Yahyapour (seit Oktober 2011)

Dienste

GÖNET und Funk-LAN

GÖNET-Ausbau

Im Berichtszeitraum 2009 und 2010 sind die Erneuerung veralteter Komponenten, der Backbone-Ausbau sowie Maßnahmen zur UnterstĂŒtzung der Sicherheit planmĂ€ĂŸig fortgefĂŒhrt worden. Am 14. September 2009 wurde die zusĂ€tzliche Redundanz-Backbone-Verbindung zwischen der GWDG und dem Theologicum fertiggestellt und am 16. September 2009 in Betrieb genommen. Die LeitungsfĂŒhrung ist dabei komplett vom bisherigen Backbone unabhĂ€ngig. Dadurch konnte die Ausfallsicherheit des GÖNET-Backbones deutlich verbessert werden. Die Kernrouter an den Standorten GWDG, Fernmeldezenztrale (FMZ) und Theologicum sind nun jeweils untereinander ĂŒber zwei Glasfaserleitungen verbunden, die jeweils ĂŒber vollstĂ€ndig unabhĂ€ngige Kabeltrassen gefĂŒhrt werden. Die neue LWL-Verbindung lĂ€uft von der GWDG ĂŒber den Neuen Botanischen Garten, das Sportinstitut und das Jakob-Grimm-Haus zum Theologicum. Seit dem 21. September 2009 sind die Router-Verbindungen im Kernnetz sowie der SAN-Backbone redundant auf die alten und neuen Glasfaserleitungen verteilt worden, sodass eine Unterbrechung eines der LWL-Kabel fĂŒr diese Anwendungen keine Dienstunterbrechungen mehr bewirken kann.

Wegen des Neubaus des Schwan-Schleiden-Zentrums im Uni-Nordbereich und der damit zusammenhĂ€ngenden Neuverlegung der Backbone-Fasern war zwar der alte GÖNET-Backbone zwischen den Standorten Forst und Chemie fĂŒr einige Wochen komplett unterbrochen. Die Redundanz war wĂ€hrend dieses Zeitraums zumindest ĂŒber eine Glasfaserleitung nicht gegeben. Durch eine leistungsfĂ€hige Richtfunkstrecke zwischen der GWDG und dem Blauen Turm im GWZ-Bereich stand dennoch eine Ausfalllösung fĂŒr den Störungsfall zur VerfĂŒgung, der einen Notbetrieb ermöglicht hĂ€tte.

Der 4. GÖNET-Bauabschnitt (2010 - 2014) wurde im Dezember 2009 genehmigt. Erste Baumaßnahmen - insbesondere die Erneuerung des Datennetzes der SUB - sind dann bereits Anfang des Jahres 2010 begonnen worden. Die Maßnahme in der SUB schreitet zĂŒgig voran, und auch die weiteren Maßnahmen des 4. Bauabschnitts werden planmĂ€ĂŸig abgearbeitet. Das Management des Netzes der SUB geht im Zuge des Neuaufbaus von der Verbundzentrale auf die GWDG ĂŒber.

Ansonsten wurden ĂŒberwiegend kleinere Erweiterungs- oder Erneuerungsmaßnahmen in den GebĂ€udenetzen vorgenommen. Strukturelle Änderungen im Backbonebereich (Router- und Firewall-Ersatz, evtl. mit Änderungen im Strukturkonzept) sind erst fĂŒr 2013 und 2014 geplant. Bis dahin sind zukĂŒnftige Backbonestrukturen zu analysieren und zu bewerten.

X-WiN-Anschluss

Das GÖNET verfĂŒgt seit Mai 2009 ĂŒber eine redundante (zweite) Internet-Anbindung. Diese neue Leitung verbindet den GÖNET-Router in der Fernmeldezentrale der UniversitĂ€t Göttingen mit dem Router des DFN-Vereins in Kassel. Im Fehlerfall wird der Verkehr automatisch von der bestehenden Hauptleitung auf die neue Nebenleitung umgeschaltet. Hiermit wird die bisher schon sehr hohe VerfĂŒgbarkeit bzw. Ausfallsicherheit noch ein weiteres StĂŒck verbessert. Auf der Hauptleitung steht eine ÜbertragungskapazitĂ€t von 5 Gbit/s permanent zur VerfĂŒgung. Technisch ist der Anschluss auf eine Übertragungsrate von 10 Gbit/s ausgelegt, so dass auch fĂŒr die nĂ€here Zukunft genĂŒgend Bandbreite zur VerfĂŒgung gestellt werden kann. Auf der Nebenleitung, die im Normalzustand ungenutzt ist, betrug die nutzbare Anschlussbandbreite zunĂ€chst nur 1,7 Gbit/s. Seit dem 1. Januar 2011 hat auch die Nebenleitung eine Bandbreite von 5 Gbit/s. Das ĂŒbertragene Datenvolumen zeigt weiterhin steigende Tendenz. Es betrĂ€gt zur Zeit (Stand: Juli 2011) von/zum X-Win ca. 580 TByte im Monat.

Der Verkehr am X-WiN-Anschluss wird durch ein Firewall- und ein Intrusion-Prevention-System (IPS) kontrolliert, um Gefahren durch Hacker und Schadsoftware zu minimieren. Das derzeitige IPS ist vollstÀndig transparent im Datenstrom zum X-WiN angebunden und erlaubt einen maximalen Datendurchsatz von 5 Gbit/s in beide Richtungen.

Die Wirksamkeit der Intrusion Prevention wird durch die Zahl verhinderter Attacken deutlich: Die Anzahl der tÀglichen Attacken liegt bei ca. 700, von denen ca. 450 als critical, 150 als major und 100 als minor eingestuft werden (Stand: Juli 2011).

In den letzten Monaten sind vorwiegend PHP- sowie HTTP-Attacken erkennbar, welche erfolgreich durch das IPS abgewehrt werden konnten. Die ersten, im Jahr 2006 beschafften IPS erlaubten nur DatendurchsĂ€tze von 3 Gbit/s bzw. 1 Gbit/s. Um die X-WiN-Bandbreite vollstĂ€ndig nutzen zu können und die vorĂŒbergehend aus dem IPS genommenen ĂŒbertragungsintensivsten Systeme (FTP-Server und Grid-Systeme der Hochenergiephysiker) wieder ĂŒber das IPS laufen lassen zu können, wurden die Sicherheitssysteme daher aus D-Grid-Sondermitteln ersetzt bzw. erweitert. Bei DurchsĂ€tzen von 10 Gbit/s (Firewall) bzw. 5 Gbit/s (IPS) wurde wieder die volle Bandbreite und alle Systeme abgedeckt werden. Im Juni 2011 wurde ein neues Service-Management-System (Management- und Reporting-Server fĂŒr Tippingpoint) aufgebaut. Im Juli 2011 wurden weitere Interfaces des neuen sowie des alten IPS an diverse interne Netzwerke (Servernetz, GoeMobile, ESX-Cluster und Institute) angebunden, damit auch interne Angriffe besser erfasst und verhindert werden können. Erst durch das neu beschaffte IPS ist diese Integration in weitere/andere Netze möglich geworden.

Funk-LAN

Mit ca. 400 Accesspoints im Funk-LAN „GoeMobile“ (Stand: MĂ€rz 2011) stieg die Anzahl der Nutzer in den Jahren 2009, 2010 und Anfang 2011 stetig und erreichte am 12. Januar 2011 mit ca. 1.024 gleichzeitig angemeldeten Nutzern ihren bisherigen Höchstwert.

Das Funk-LAN „GoeMobile“ wurde im Berichtszeitraum mit folgenden Maßnahmen kontinuierlich ausgebaut und damit an die gestiegenen sowie den in nĂ€chster Zeit zu erwartenden Anforderungen angepasst:

  • MĂ€rz 2009: Inbetriebnahme einer neuen 802.11n-WLAN-Struktur mit neuen Accesspoints im Neubau der Physik
  • Juni 2009: Programmierung eines Webinterfaces zur einfachen Steuerung des GĂ€stenetzes fĂŒr einzelne Institute. Hiermit ist es einigen Instituten möglich, selbststĂ€ndig bei Tagungen ein GĂ€stenetz via WLAN zur VerfĂŒgung zu stellen.
  • September 2009: Einbindung der neuen VPN-Gateways (Cisco ASA) in die WLAN-Struktur
  • 1. Halbjahr 2010: Einbindung des eduroam im GoeMobile (siehe Punkt 5)
  • 1. Halbjahr 2010: Aktivierung des automatischen Power- sowie Channelcontrol im gesamten GoeMobile
  • 2./3. Quartal 2010: Auswahl sowie Angebotseinholung und Bestellung der zentralen WLAN-Komponenten (WLAN-Controller MX-2800) zur Erweiterung des WLAN-Clusters und der Ausweitung auf den redundanten Standort in der SUB
  • 2./3. Quartal 2010: Netzwerktechnische Vorbereitungen zur Erweiterung des Clusterbetriebs auf den Redundanzstandort der SUB zum unabhĂ€ngigen Betrieb des gesamten GoeMobile im Störfall
  • 2./3. Quartal 2010: Ausweitung der GastnetzzugĂ€nge fĂŒr Tagungen mittels Trapeze SmartPass. Mittlerweile wird der SmartPass-Zugang von folgenden Einrichtungen intensiv genutzt: GWDG, SUB, Oeconomicum, Max-Planck-Institut fĂŒr biophysikalische Chemie sowie Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Die Administration der GastzugĂ€nge im Rahmen des SmartPass erfolgt autonom durch Administratoren in den einzelnen Institutionen fĂŒr den jeweils eigenen Bereich.
  • 3. Quartal 2010: EinfĂŒhrung des eduroam (siehe Punkt 5) und damit verschlĂŒsselter Zugang zum Funk-LAN mit dem Verfahren EAP/TLS (TTLS sowie PEAP). Dadurch ist fĂŒr die Benutzer ein einfach einzurichtender Zugang zum Funk-LAN unter Verwendung der bereits in modernen Betriebssystemen vorhandenen Clients möglich.
  • 3./4. Quartal 2010: Erweiterung des 802.11n-Betriebes auf zentrale Standorte
  • 3./4. Quartal 2010: Planung/Bestellung und Austausch der alten WLAN-Controller (MX-200) durch leistungsfĂ€higere Controller (MX-2800), um den redundanten Betrieb von 802.11n sicherzustellen
  • 3./4. Quartal 2010: Auslagerung von zwei WLAN-Controllern in die SUB zur Sicherstellung des redundanten Betriebs im GoeMobile

Education Roaming

eduroam (Education Roaming) ermöglicht Mitarbeitern und Studierenden von partizipierenden UniversitĂ€ten und Organisationen den Internetzugang an den Standorten aller teilnehmenden Organisationen unter Verwendung ihres eigenen Benutzernamens und Passwortes via Wireless LAN. Das deutsche Forschungsnetz des DFN-Vereins bietet ebenfalls ein solches Roaming innerhalb Deutschlands an, ist aber auch der eduroam-Initiative beigetreten. Mittlerweile sind fast alle europĂ€ischen LĂ€nder und eine große Anzahl LĂ€nder weltweit bei eduroam vertreten und immer mehr UniversitĂ€ten der jeweiligen LĂ€nder schließen sich mit ihren Forschungsnetzen an. Seit Mai 2010 ist eduroam im GÖNET via Funk-LAN vollstĂ€ndig verfĂŒgbar. Es werden mittlerweile alle Varianten des eduroam hinsichtlich VerschlĂŒsselung angeboten (EAP(T)TLS und PEAP). Das DFN-Roaming wurde zugunsten des eduroam Anfang Juni 2010 im GoeMobile deaktiviert.

Göttinger Grid-Ressourcen-Zentrum GoeGrid

Die GWDG befasst sich seit 2004 intensiv mit der Grid-Technologie und unterstĂŒtzt aktiv die D-Grid-Initiative. Gemeinsam mit den drei D-Grid-Communities mit Beteiligung aus Göttinger Institutionen (TextGrid, MediGRID und HEP Grid) und dem Institut fĂŒr Theoretische Physik der Georg-August-UniversitĂ€t Göttingen hat die GWDG im Jahre 2008 das Grid-Ressourcen-Zentrum Göttingen (GoeGrid) ins Leben gerufen. Im Rahmen von GoeGrid werden von der GWDG die von den Partnern bereitgestellten Grid-Ressourcen betrieben und nach den D-Grid-Regeln den verschiedenen Communities zugĂ€nglich gemacht.

Das Göttinger Grid-Ressourcen-Zentrum GoeGrid wurde im FrĂŒhjahr 2009 um SpeicherkapazitĂ€ten fĂŒr die TextGrid-Community (200 TByte Platten und 200 TByte Archiv) und fĂŒr die Teilchenphysik (300 TByte Platten) erweitert. Weiterhin konnten Netzkomponenten zur 10 GB-Anbindung der Grid-Ressourcen beschafft werden. FĂŒr die Services@MediGRID-Community konnte ein Visualisierungs-Cluster beschafft werden, der von der Medizinischen Informatik in den RĂ€umen des Rechenzentrums der Medizinischen FakultĂ€t betrieben wird und dort durch die Community genutzt werden kann. Diese Erweiterungen konnten durch die 2008 vom BMBF (Bundesministerium fĂŒr Bildung und Forschung) durchgefĂŒhrte Sondermaßnahme zur Verbesserung der Ausstattung des D-Grid realisiert werden, aus der fĂŒr den gemeinsamen Antrag der GWDG und der Göttinger Teilnehmer der D-Grid-Communities Services@MediGRID (Med. Informatik), TextGrid (SUB) und HEP Grid (II. Physik) insgesamt mehr als 1 Mio. € genehmigt wurden. Das GoeGrid stellt nach allen Erweiterungsmaßnahmen insgesamt 2.484 Rechenkerne mit einer Maximalleistung von 26,85 TeraFlop/s, 800 TByte Massenspeicher und 230 TByte Archivspeicher bereit (Stand: April 2011).

Die GWDG ist seit Mitte 2009 an zwei neuen D-Grid-Projekten der 3. Förderrunde des BMBF fĂŒr die Weiterentwicklung des D-Grid beteiligt:

Im Projekt OptiNum-Grid, das von der GWDG als KonsortialfĂŒhrer initiiert wurde, werden unter der Projektleitung der GWDG mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie Dienste und GeschĂ€ftsmodelle entwickelt, die den Grid-Zugang zu Verfahren der numerischen Simulation und Optimierung bereitstellen werden. HierfĂŒr werden vom BMBF insgesamt ca. 1,5 Mio € zur VerfĂŒgung gestellt.

In einem weiteren Projekt, D-Grid Scheduler Interoperability (DGSI), wird die D-Grid-Nutzung mit unterschiedlichen lokalen Schedulern (PBS, Grid-Engine, LSF, GWES, 
) ermöglicht.

Durch die Mitarbeit der GWDG an diesen D-Grid-Entwicklungen wird Göttingen als Grid-Standort weiter gestÀrkt.

Parallelrechnersysteme und Compute-Server

Einleitung

Numerische Simulation hat sich als methodisches Werkzeug in allen Bereichen naturwissenschaftlicher Forschung und technischer Entwicklung etabliert. Die numerische Methode ist die Basis fĂŒr die Behandlung aktueller Fragestellungen; der Zugang zu leistungsfĂ€higen Rechensystemen und der kompetente Einsatz der Rechenleistung ist oftmals ein entscheidender Faktor fĂŒr die Erzielung von international beachteten neuen Forschungsergebnissen.

Es gehört deshalb zu den Aufgaben der GWDG, den Wissenschaftlern der UniversitĂ€t Göttingen und der Max-Planck-Gesellschaft auf dem Gebiet der numerischen Simulation national und international konkurrenzfĂ€hige Arbeitsmöglichkeiten zu schaffen. Dabei kann, soweit hochparallele Anwendungen mit sehr großem Rechenbedarf anfallen, auf der lokalen Ebene nur die Bereitstellung von Systemen fĂŒr Entwicklung und Test paralleler Anwendungen und zur DurchfĂŒhrung von Vorstudien geleistet werden. Die eigentliche Produktionsphase solcher Anwendungen ist auf regionale oder ĂŒberregionale Hoch- und Höchstleistungsrechner angewiesen. Die GWDG berĂ€t und unterstĂŒtzt die Wissenschaftler bei der Nutzung der externen Rechnersysteme und unterhĂ€lt engen Kontakt zu deren Betreiberinstitutionen, insbesondere mit den fĂŒr die Benutzer der GWDG besonders wichtigen Institutionen Norddeutscher Verbund fĂŒr Hoch- und Höchstleistungsrechnen (HLRN) und Rechenzentrum Garching der MPG (RZG).

Bei einer Vielzahl von Forschungsprojekten fallen numerische Simulationsanwendungen an, die von ihrer GrĂ¶ĂŸe her nicht auf die teuren Ressourcen der ĂŒberregionalen Höchstleistungsrechner angewiesen sind. FĂŒr diese stellt die GWDG lokale Rechenressourcen bereit. Die Beschaffung und der Betrieb der hierfĂŒr notwendigen Rechnersysteme erfolgt in Absprache mit dem HLRN und dem RZG. Mit der Standardisierung der Programmierumgebungen zur Parallelverarbeitung und der damit verbundenen weiten Verbreitung paralleler Anwendungen hat sich aus Benutzersicht der Unterschied zwischen sequentieller und paralleler Bearbeitung vermindert. Es wird die fĂŒr die jeweilige Fragestellung effizienteste Methode – sequentiell, shared-memory parallel oder message-passing parallel – eingesetzt. Um die unterschiedlichen Anforderungen dieser verschiedenen Anwendungsklassen möglichst effizient und kostengĂŒnstig zu bedienen, betreibt die GWDG Shared-Memory-Systeme und Cluster-Systeme mit verteiltem Speicher und unterschiedlich leistungsfĂ€higen Kommunikationsnetzen, deren KapazitĂ€t dem jeweiligen Bedarf fĂŒr die unterschiedlichen Klassen angepasst ist. Aus Benutzersicht bietet die GWDG eine möglichst weitgehende Integration von Rechenressourcen fĂŒr sequentielle und parallele Anwendungen an. Diese Integration manifestiert sich in einem einheitlichen Managementsystem fĂŒr parallele und sequentielle Rechner und in einem gemeinsamen System zur Ressourcenverwaltung bei der Nutzung der unterschiedlichen Systeme.

Neben den ĂŒberregionalen und lokalen RechenkapazitĂ€ten stehen einzelnen Instituten und Forschungsgruppen oftmals auch eigene Rechenressourcen zur VerfĂŒgung, die aus Drittmitteln fĂŒr einzelne Projekte oder aus Berufungsmitteln fĂŒr besondere Forschungsschwerpunkte finanziert werden. Die GWDG bietet an, die Beschaffung und den Betrieb dieser gesonderten Rechenressourcen zu ĂŒbernehmen. Bei der Auswahl und Beschaffung kommen die Erfahrung der GWDG im HPC-Bereich und die engen Kontakte zu den wichtigsten Herstellerfirmen den Instituten zugute, zusĂ€tzlich fĂŒhrt der grĂ¶ĂŸere Umfang gebĂŒndelter Beschaffungen in der Regel zu deutlich gĂŒnstigeren Preisen. Der gemeinsame Betrieb der aus Institutsmitteln beschafften Ressourcen mit den GWDG-eigenen Ressourcen entlastet die Institute von der Notwendigkeit zur Bereitstellung eigener Infrastruktur fĂŒr den Rechnerbetrieb und spart eigenen Personalaufwand fĂŒr die Rechneradministration. Der grĂ¶ĂŸte Vorteil der zentralen Ressourcenintegration liegt in der gemeinsamen Nutzung durch die unterschiedlichen Nutzergruppen, die einen Lastausgleich ĂŒber zeitlich variierende Bedarfssituationen der unterschiedlichen Nutzergruppen erlaubt und damit zu einer besseren Gesamtauslastung der Ressourcen fĂŒhrt. Diese Integration von institutseigenen Ressourcen in die HPC-Ressourcen der GWDG ist inzwischen mehrfach praktiziert worden und in allen FĂ€llen als sehr vorteilhaft erfahren worden.

Die fĂŒr die oben angesprochenen Anwendungen mittlerer RechenkomplexitĂ€t der Forschergruppen aus UniversitĂ€t und Max-Planck-Gesellschaft bei der GWDG bereitgestellten HPC-Ressourcen mĂŒssen nach Menge und technologischer Ausstattung dem aktuellen und dem fĂŒr die Zukunft sich abzeichnenden Bedarf angepasst werden. HierfĂŒr stellen die beiden TrĂ€ger der GWDG, die UniversitĂ€t Göttingen und die Max-Planck-Gesellschaft, alle fĂŒnf Jahre einen grĂ¶ĂŸeren Investitionsbetrag zur Beschaffung neuer HPC-Systeme bereit und in den dazwischen liegenden Jahren kleinere BetrĂ€ge zur Abrundung und Erweiterung der vorhandenen Systeme.

Im Folgenden werden die wichtigsten Ereignisse und VerÀnderungen bei den Parallelrechnern im Berichtszeitraum 2009/2010 vorgestellt.

Entwicklung

Status Anfang 2009

Zu Beginn des Berichtzeitraums, also Anfang 2009, wurden bei der GWDG Parallelrechnersysteme und Compute-Server mit einer Gesamtleistung von 11,30 TeraFlop/s betrieben. Diese waren im Einzelnen:

  • Altix 4700 (SGI): Shared-Memory-Multiprozessor mit 128 ĂŒber das NUMALink4-Kommunikationsnetz verbundenen Rechner-Blades. Jedes Blade enthĂ€lt zwei Intel-Itanium-2-Prozessoren mit je zwei Rechenkernen der Taktrate 1,6 GHz. Das System hat eine maximale Leistung von 3,28 TeraFlop/s, einen gemeinsamen Hauptspeicher der GrĂ¶ĂŸe 1.448 GByte und 3,7 TByte lokalen Plattenspeicher. Aufgrund der finanziellen Beteiligung bei der Beschaffung des Systems stehen 40 % der Systemressourcen der Abteilung von Prof. Christensen des MPI fĂŒr Sonnensystemforschung zur VerfĂŒgung.
  • Woodcrest-Cluster (MEGWARE): In diesem Cluster sind 151 Rechenknoten ĂŒber ein Infiniband-Kommunikationsnetz zusammengeschlossen. Jeder Knoten enthĂ€lt zwei Intel-Woodcrest-Prozessoren mit je zwei Rechenkernen der Taktrate 3 GHz. Der Cluster hat eine maximale Leistung von 7,25 TeraFlop/s, einen verteilten Speicher von 1.208 GigaByte und 60 TeraByte lokalen Plattenspeicher.
  • MediGrid-Cluster: In den Woodcrest-Cluster sind weitere elf Rechenknoten integriert, die vom BMBF als D-Grid-Sonderinvestition finanziert wurden und die von der GWDG fĂŒr die MediGRID-Community im D-Grid betrieben werden.
  • Opteron-Linux-Cluster (MEGWARE): der Cluster besteht aus 32 Knoten AMD Dual Opteron (2,2 GHz Taktrate) und jeweils 16 GByte Speicher, die durch ein leistungsfĂ€higes Infiniband-Kommunikationsnetz verbunden sind. Er hat eine maximale Leistung von 0,40 TeraFlop/s.
  • Compute-Server fĂŒr sequentielle Anwendungen: Das System besteht aus acht Systemen AMD Opteron (2,4 GHz Taktrate) mit je vier Prozessoren und 32 GByte Hauptspeicher. Es hat eine maximale Leistung von 0,15 TeraFlop/s.
  • Ein System IBM pSeries690 Regatta mit 32 Prozessoren IBM Power4 mit einer maximalen Leistung von 0,22 TeraFlop/s.
Neubeschaffungen

Wegen des steigenden Bedarfs nach Rechenleistung fĂŒr numerische Simulationen und der Außerbetriebnahme von veralteten Parallelrechnern mit vergleichsweise geringer Leistung, aber hohem Stromverbrauch wurde Anfang 2010 ein modernes leistungsfĂ€higes System beschafft. Unter den zur Auswahl stehenden Clustersystemen mit Hochgeschwindigkeits-Kommunikationsnetz war das Angebot von NEC zwar nicht dasjenige mit der höchsten Rechenleistung, aber das unter BerĂŒcksichtigung des Energieverbrauchs wirtschaftlichste. Das System wurde gemeinsam mit dem MPI fĂŒr Sonnensystemforschung in Katlenburg/Lindau und dem Institut fĂŒr Geophysik der UniversitĂ€t Göttingen beschafft. Wie schon mehrfach in der Vergangenheit erfolgreich mit entsprechenden Synergieeffekten bei Beschaffung, Administration und Auslastung praktiziert, hatten damit drei Einrichtungen ihre zur VerfĂŒgung stehenden Mittel in einer gemeinsamen Beschaffung eines Rechenclusters gebĂŒndelt, der bei der GWDG betrieben wird und von den Partnern anteilig entsprechend ihrer finanziellen Beteiligung genutzt werden kann.

Der neue Nehalem-Cluster

Der Parallelrechner NEC Nehalem-Cluster wurde im Januar 2010 geliefert und ging nach dem erfolgreichen Durchlaufen eines vierwöchigen Probebetriebs Mitte MĂ€rz 2010 in den normalen Benutzerbetrieb. „Nehalem“ ist der Name, den Intel fĂŒr seine neuen Quad-Core-Xeon-Prozessoren mit 64-Bit-UnterstĂŒtzung verwendet, die in den Rechenknoten zum Einsatz kommen.

Der knapp 1 Mio. € teure NEC Nehalem-Cluster enthĂ€lt insgesamt 188 Rechenknoten mit je zwei Quad-Core-Prozessoren, 36 GByte Hauptspeicher und 1 TByte Plattenspeicher, von denen 900 GByte fĂŒr den lokalen Scratch-Bereich zur VerfĂŒgung stehen. Die maximale Rechenleistung aller 1.504 Cores betrĂ€gt 15,2 TeraFlop/s. Damit hat sich durch die Inbetriebnahme des neuen Clusters die Leistung der fĂŒr die Gesellschafter betriebenen Parallelrechnersysteme auf ca. 26 TeraFlop/s mehr als verdoppelt. Der Zugangsrechner hat ebenfalls zwei Quad-Core-Prozessoren, aber 48 GByte Hauptspeicher und 1 TByte Plattenspeicher, von denen 900 GByte fĂŒr einen Work-Bereich zur VerfĂŒgung stehen, der per NFS im gesamten Cluster gemountet ist. Das neue System war bereits einige Wochen nach der Aufnahme des Nutzerbetriebs nahezu voll ausgelastet: ein Beleg fĂŒr die Notwendigkeit regelmĂ€ĂŸiger Erweiterungen der ParallelrechnerkapazitĂ€t und den Erfolg des bewĂ€hrten Konzepts des zentralen Betriebs von gemeinsam beschafften und genutzten IT-Ressourcen verschiedener Einrichtungen im Rechenzentrum der GWDG. Der NEC-Cluster wird in vier wassergekĂŒhlten SchrĂ€nken mit einer StellflĂ€che von 3,20 x 1,30 m betrieben, der Energieverbrauch des Systems unter Volllast wird bei ca. 56,4 kW liegen.

Die Neubeschaffung des NEC-Cluster-Systems hat im Bereich der Anwendungen mit Message-Passing-ParallelitĂ€t und geringeren Kommunikationsanforderungen zu einer Entspannung des Nutzungsengpasses beigetragen. Wie die im Herbst 2009 von der GWDG durchgefĂŒhrte Bedarfserhebung gezeigt hat, gibt es aber auch einen weiter steigenden Bedarf fĂŒr Anwendungen mit hohem Kommunikationsbedarf. Diese sind auf eng gekoppelte Multiprozessoren mit shared memory angewiesen, wobei in der Regel der Skalierungsgrad, d. h. die Zahl der parallel nutzbaren Prozessorkerne fĂŒr die einzelne Anwendung gering (< 64) ist. Zudem wurde bei dieser Umfrage fĂŒr eine Reihe von Projekten die Notwendigkeit einer hohen Geschwindigkeit zur Aus- oder Eingabe der dabei erzeugten oder zu bearbeitenden Daten betont.

Der neue Magny-Cours-Cluster

Diesen beiden Anforderungen sollten durch die Beschaffung eines Clusters von moderat parallelen Shared-Memory-Systemen mit jeweils 32 bis 64 Prozessorkernen und eines fĂŒr die Parallelrechner dedizierten schnellen Ein-/Ausgabe-Systems entsprochen werden. Dieser Beschaffungsmaßnahme hat sich das Institut fĂŒr Astrophysik der UniversitĂ€t angeschlossen, da in dem dort neu etablierten Forschungsgebiet computational astrophysics Ă€hnliche Anforderungen fĂŒr Shared-Memory-Anwendungen und schnelle Ein-/Ausgabe-Verarbeitung anfallen. Aus den bis zum Stichtag 11. Oktober 2010 im Rahmen eines beschrĂ€nkten Verfahrens abgegebenen Angeboten wurde das von MEGWARE unter BerĂŒcksichtigung der in der Ausschreibung vorgegebenen Leistungskriterien als das wirtschaftlichste ausgewĂ€hlt. Der neue, 660.000 â‚Ź teure Rechencluster wurde dann Anfang 2011 geliefert, installiert und ist nach erfolgreichen Tests Ende Februar 2011 in den Benutzerbetrieb gegangen. Er verdoppelt mit seiner Rechenleistung von 27,9 TeraFlop/s die bis dahin zur VerfĂŒgung stehende Gesamtrechenleistung aller Parallelrechnersysteme der GWDG und stellt damit das zur Zeit leistungsstĂ€rkste Rechnersystem bei der GWDG dar. Der neue sog. Magny-Cours-Cluster der Firma MEGWARE enthĂ€lt insgesamt 64 Rechenknoten mit jeweils vier AMD-Zwölf-Core-Prozessoren vom Typ Magny-Cours (also insgesamt 3.072 Cores), die ĂŒber ein sehr schnelles Kommunikationsnetzwerk miteinander verbunden sind. Er besitzt einen verteilten Hauptspeicher von 8,2 TByte und einem verteilten lokalen Plattenspeicher von 64 TByte. Der Energieverbrauch des gesamten Systems betrĂ€gt 54,6 kW. Damit ist das neue System gegenĂŒber dem zuletzt vor einem Jahr beschafften, schon besonders energieeffizienten NEC-System nochmals um 60 % energieeffizienter bezogen auf die Peak-Leistung pro Core.

Zeitgleich mit dem neuen MEGWARE-Cluster wurde auch ein gemeinsamer Massenspeicherbereich fĂŒr die Parallelrechner-Cluster auf Basis des bei der GWDG bereits eingesetzten globalen Filesystems StorNext von Quantum realisiert. Die Konfigurationsdaten des in die IPStor-Virtualisierung eingebundenen Systems sind im Einzelnen:

  • Acht SAN-Server und zwei Metadaten-Server fĂŒr 500 LAN-Clients
  • Erweiterung des globalen Filesystems StorNext
  • 0,5 TByte SSD-Cache fĂŒr schnellen Schreib-Zugriff
  • 10-Gb-Ethernet-Netz zwischen SAN-Servern und allen Parallelrechner-Clustern
  • Gesamtleistung: 236 TByte netto KapazitĂ€t, Mindestdurchsatz: 2 GByte/s
Abschaltung alter Parallelrechnersysteme

In der Einleitung wurde auf den fĂŒnfjĂ€hrigen Zyklus der Investitionen zur Neubeschaffung von Parallelrechnersystemen hingewiesen. Durch die rasante Weiterentwicklung von Halbleitertechnologie und Rechnerarchitektur vervielfĂ€ltigt sich die LeistungsfĂ€higkeit von Parallelrechnern in diesem Zeitraum von fĂŒnf Jahren um den Faktor 10 bis 20. Das Anwachsen der bei der GWDG installierten Parallelrechnerleistung belegt diese Entwicklung.

Die steigende Leistung der neubeschafften Systeme macht die Nutzung der veralteten Systeme aus Anwendersicht unattraktiv und ihren Betrieb aus Rechenzentrumssicht unwirtschaftlich. Die Abschaltung und der Abbau veralteter Systeme erfolgt daher regelmĂ€ĂŸig in kurzem zeitlichem Abstand zur Inbetriebnahme der neuen Hardware.

Der letzte von vier IBMpSeries690-Rechnern, der Rechner gwdk084, wurde am 1. Februar 2009 außer Betrieb genommen, nachdem die drei noch Ă€lteren pSeries690-Systeme gwdk081, gwdgk082 und gwdk083 schon am 1. Dezember 2007 abgeschaltet worden waren. Damit wurde eine betrĂ€chtliche Einsparung an Energiekosten erreicht bei einer vergleichsweise geringen Reduzierung der insgesamt bei der GWDG verfĂŒgbaren Rechenleistung.

Planungen und Erweiterung

FĂŒr die Jahre 2012 und 2013 ist wieder eine grĂ¶ĂŸere Neubeschaffung von Parallelrechnerleistung geplant, damit dann die fĂŒnf Jahre alten Systeme SGI Altix und MEGWARE Woodcrest durch leistungsfĂ€higere Systeme ersetzt werden können.

Mailservices

Migration des Exchange-Mailsystems

Die fĂŒr Anfang des Jahres 2009 geplante Umschaltung des Frontend-Clusters von Exchange 2003 auf Exchange 2007 (unter Beibehaltung von drei noch weiterhin benötigten „Exchange-2003-Inseln“) sowie die anschließende sukzessive transparente Migration der Mailboxen von insgesamt ca. 28.000 Exchange-Nutzern auf die Exchange-2007-Systeme verzögerten sich zunĂ€chst wegen ĂŒberraschend aufgetretener Anforderungen zur MandantenfĂ€higkeit, die erst durch umfangreiche Änderungen im Active Directory realisiert werden konnten. Auch die geplanten Tests der erweiterten Exchange-2007-„Unified Communication“-FunktionalitĂ€ten, um diese bei Bedarf als neue Dienste anzubieten, verzögerten sich dadurch entsprechend. Nachdem diese Anforderungen erfĂŒllt waren, musste die Migration der E-Mail-PostfĂ€cher auf Exchange 2007 aufgrund von InkompatibilitĂ€ten mit hĂ€ufig genutzten Mail-Klienten ausgesetzt werden. Die erforderlichen Softwarekorrekturen sollten nach Auskunft des Herstellers vermutlich erst mit der Nachfolgeversion Exchange 2010 zur VerfĂŒgung stehen. Die Migration zu Exchange 2007 erfolgte daher zunĂ€chst nicht generell, sondern nur auf expliziten Benutzerwunsch (z. B. fĂŒr die neuen Mac-OS-Klienten, die auf mindestens Exchange 2007 angewiesen sind).

Nachdem Exchange 2010 dann Anfang 2010 zur VerfĂŒgung stand, konnten die Arbeiten zum Einsatz dieser neuen Version und damit zur Migration endlich fortgesetzt werden. Eine erste Testinstallation eines Exchange-2010-Clusters hat dann leider ergeben, dass Exchange 2010 insbesondere wegen fehlender MandantenfĂ€higkeit derzeit noch nicht fĂŒr einen Produktiveinsatz bei der GWDG geeignet ist. Der Hersteller arbeitet an einer entsprechenden Funktionserweiterung. Diese wird voraussichtlich im Laufe des zweiten Halbjahres 2011 mit dem Service Pack 2 zur VerfĂŒgung stehen. Parallel werden von der GWDG 3rd-Party-Erweiterungen fĂŒr die Herstellung der MandantenfĂ€higkeit in Exchange 2010 evaluiert. Die folgende Abbildung zeigt die Konfiguration des geplanten Exchange-2010-Clusters im Endausbau, weiß unterlegt sind dabei die Komponenten des Einstiegs-/Pilotsystems. Durch Doppelung/Spiegelung aller Komponenten ist der Cluster von vornherein katastrophensicher ausgelegt. Die ebenfalls redundant ausgelegten Load Balancer ermöglichen eine dynamische und gleichmĂ€ĂŸige Lastverteilung auf alle beteiligten Komponenten.

In der Zwischenzeit wurde wegen der wachsenden Nutzung des Exchange-Systems die alte Exchange-2003-Umgebung durch Einsatz weiterer Hardware-Ressourcen konsolidiert und entsprechend den Anforderungen ausgebaut. Im zentralen Exchange-2003-Backend-Cluster wurden Ende Oktober 2010 ca. 40.000 PostfĂ€cher bedient. Hinzu kamen noch dezentrale Exchange-2003-PostfĂ€cher (Zentralverwaltung der UniversitĂ€t Göttingen und MPI fĂŒr Experimentelle Medizin) sowie das UMG-Pilotprojekt, sodass zu diesem Zeitpunkt insgesamt ca. 43.000 Exchange-PostfĂ€cher in der Exchange-2003-Struktur beheimatet waren.

Die Konsolidierung der Exchange-2003-Hardware wurde Ende Oktober 2010 erfolgreich abgeschlossen: FĂŒnf Backend-Server waren auf neue Hardware gebracht, drei Frontend-Server auf neuer Hardware virtualisiert, und zwei weitere alte Exchange-Server sind durch virtuelle Server im VMware-ESX-Cluster ersetzt worden.

Mailfilter

Die GWDG hat schon 2006 damit begonnen, Lösungen zu untersuchen, die bereits den Zugang von Spam-versendenden Systemen unterbinden. Das System der Firma IronPort wurde nach ausfĂŒhrlichen Tests als am besten geeignet bewertet. Es bietet neben bekannten Verfahren wie VirenĂŒberprĂŒfung und Bewertung des Inhalts einen sogenannten Reputations-Filter: IronPort fĂŒhrt eine Datenbank, in der fĂŒr sendende Systeme die Wahrscheinlichkeit gefĂŒhrt wird, dass dieses System Spam versendet. Die Datenbank wird laufend gepflegt und von den weltweit installierten IronPort-Systemen mit (anonymisierten) Informationen versorgt. Der Betreiber des IronPort-Systems entscheidet dann, ab welcher Bewertung Verbindungen abgewiesen werden.

Im Rahmen der Umstellung der Verwaltungskonten der MPG auf den Exchange-Service der GWDG wurden dann von der MPG zwei IronPort-Systeme beschafft, die die Filterung des Mailverkehrs der Konten bei der GWDG bzw. Instituten in Göttingen ĂŒbernehmen. Außerdem wird der Service allen Instituten angeboten. Die Voraussetzung dafĂŒr ist die Bereitstellung aller im Institut verwendeten E-Mail-Adressen, da nur so Nachrichten an falsche Empfangsadressen bereits im Iron-Port-System abgewiesen werden können. Die Systeme können im Load-Balancing-Betrieb arbeiten, so dass bei Ausfall eines Systems das verbleibende den Verkehr ĂŒbernimmt. Durch eine rĂ€umlich getrennte Aufstellung wird eine weitere Erhöhung der VerfĂŒgbarkeit angestrebt.

Die beiden beschafften Iron-Port-Systeme wurden im FrĂŒhjahr 2009 in Betrieb genommen und fĂŒr den Spam-Schutz der VerwaltungsdomĂ€nen der MPG eingesetzt, mit dem erwarteten Erfolg. Die Einbeziehung weiterer Max-Planck-Institute in diesen Spam-Schutz begann dann kurze Zeit spĂ€ter mit dem MPI fĂŒr Festkörperforschung in Stuttgart.

Durch die Inbetriebnahme des IronPort-Systems gab es zunĂ€chst zwei Systeme, ĂŒber die die Virenfilterung und die Spam-Bewertung eingehender Mails abgewickelt wurde: Neben dem IronPort-System fĂŒr die MPG noch ein schon mehrere Jahre im Einsatz befindliches Public-Domain-Linux-System fĂŒr die UniversitĂ€t Göttingen. Bedingt durch die unterschiedlichen Mailbox-Zahlen der Gesellschafter lag dabei das Hauptgewicht der Nutzung auf dem Linux-System. FĂŒr den Monat September 2009 wurden ĂŒber das Linux-System 4,0 Mio. Mails empfangen bei 51 Mio. VerbindungswĂŒnschen. Die um eine GrĂ¶ĂŸenordnung höhere Zahl der VerbindungswĂŒnsche gegenĂŒber den empfangenen Mails zeigt grob die enorme Menge an Spam-Mails. Im selben Monat wurden ĂŒber die Appliances der Firma Cisco/IronPort 0,24 Mio. Mails empfangen bei 5,28 Mio. VerbindungswĂŒnschen.

Die bessere Spam-Erkennungsrate der IronPort-Systeme (Faktor 1,7) zeigt sich hier im deutlich verschiedenen VerhĂ€ltnis der empfangenen Mails zur Zahl der VerbindungswĂŒnsche auf beiden Systemen. Der Virenschutz auf den IronPort-Systemen erfolgt mit Sophos-Software, deren Lizenzen im niedersĂ€chsischen Sophos-Landesvertrag bereitgestellt werden. Nach der mit Sophos erfolgreich verhandelten Abspaltung der Lizenzen aus diesem Vertrag in das IronPort-System der GWDG können nun auch die E-Mails der UniversitĂ€t Göttingen einschließlich der Studierenden ĂŒber das deutlich bessere IronPort-System geleitet und geschĂŒtzt werden. Im Jahr 2010 wurden dann noch weitere Max-Planck-Institute auf Wunsch an das IronPort-System angebunden.

Mail-Archivierung

In einem gemeinsamen Projekt der Abteilung IT der UniversitĂ€ts-Zentralverwaltung und der GWDG ist ein System zur E-Mail-Archivierung ausgewĂ€hlt worden (Atempo Digital Archive for Messaging, kurz ADAM). Nach Installation und Konfiguration der Software im September 2010 wurden zunĂ€chst die PostfĂ€cher der UniversitĂ€ts-Zentralverwaltung in einem Probebetrieb schrittweise der Archivierung unterzogen. Aus dem wĂ€hrend dieser Zeit gesammelten Erfahrungen mit dem System resultierten einige Anpassungen und Verbesserungen. Im Laufe des Jahres 2011 sollen in ĂŒberschaubaren Schritten weitere Benutzergruppen erfasst werden, da die EinfĂŒhrung der Archivierung im Dialog mit den Nutzern erfolgen soll.

Die Zielsetzungen fĂŒr den Einsatz des Archivierungssystems sind:

  • Vermeidung von persönlichen Outlook-PST-Dateien auf lokalen Festplatten oder Netzwerk-Laufwerken
  • sichere Archivierung von E-Mail
  • Entlastung der Exchange-PostfĂ€cher
  • Entlastung der Exchange-Datenbanken

Der Archivserver durchsucht PostfĂ€cher auf den Exchange-Backend-Servern und archiviert Nachrichten nach einstellbaren Kriterien wie Alter, GrĂ¶ĂŸe und Art der AnhĂ€nge oder GrĂ¶ĂŸe des Postfachs. In den PostfĂ€chern werden Verweise hinterlassen, die nach automatisierter Installation eines Plug-Ins unter Outlook einen anwendertransparenten Zugriff auf archivierte E-Mail gestatten.

Servervirtualisierung

Dem steigenden Hardware- und Betreuungsaufwand zum Betrieb der stetig wachsenden Zahl von Servern mit unterschiedlichsten Funktionen kann mit Servervirtualisierung wirksam begegnet werden. Dabei bedienen wenige leistungsfĂ€hige Hardwaresysteme ĂŒber eine Virtualisierungsschicht eine Vielzahl von Serverinstanzen mit unterschiedlichen Betriebssystemen und Funktionen. Die GWDG hatte im Jahr 2006 nach dem Produktvergleich verschiedener Virtualisierungssysteme einen prototypischen Betrieb zur Servervirtualisierung aufgebaut. Mit den Erfahrungen aus diesem Testsystem wurde Ende 2006 die Servervirtualisierung bei der GWDG produktiv eingesetzt und wird zunehmend von den Kunden genutzt. In der Virtualisierung befinden sich unterschiedliche Systeme:

  • Server von Kunden, die im Rahmen der Virtualisierung von der GWDG installiert und betrieben werden.
  • Serversysteme, die bei der GWDG Dienste zur VerfĂŒgung stellen.
  • Serversysteme, die aus einer frĂŒheren Variante der Servervirtualisierung migriert wurden.
  • Testsysteme der Kunden, mit denen FunktionalitĂ€ten der Betriebssysteme geprĂŒft werden und die damit keine relevanten Serverdienste zur VerfĂŒgung stellen.
  • HochverfĂŒgbare Server, die in der Virtualisierung redundant ausgelegt sind und Kerndienste im Netzwerk ĂŒbernehmen (Authentifizierung etc.)

Im Berichtszeitraum 2009/2010 wurde die Servervirtualisierung laufend erweitert und dem stĂ€ndig steigenden Bedarf der Kunden angepasst. Folgende Maßnahmen (in chronologischer Reihenfolge) wurden durchgefĂŒhrt:

  • Erweiterung der Infrastruktur um zwei auf insgesamt vier HP-Server (Mai/Juni 2009):
2 x HP Proliant DL580 G5 mit jeweils 4 QuadCore-Xeon-Prozessoren mit 2,4 GHz und 128 GByte Speicher
2 x HP Proliant DL580 G5 mit jeweils 2 QuadCore-Xeon-Prozessoren mit 2,4 GHz und 128 GByte Speicher
  • Inbetriebnahme eines redundanten ESX-Servers im Klinikum, welcher ausschließlich die Controller fĂŒr das Active Directory bereitstellt (Juni 2009)
  • Installation neuer, virtueller Server beider Gesellschafter, teilweise als hochperformante Systeme mit vier CPUs und 8 oder 16 GByte Speicher
  • Konsolidierung und Entfernung nicht mehr benötigter virtueller Server
  • Aufbau eines erweiterten Monitorings unter Nagios
  • Umstellung des gesamten VMware-Clusters von der Version ESX 3.5 auf vSphere 4.0
  • Einrichtung der High-Availability-Capabilities bei vSphere 4.0 zur Erlangung vollstĂ€ndiger Redundanz
  • Abschluss der Planungen des redundanten RZ-Standortes in der SUB hinsichtlich VMware vSphere
  • Erweiterung des VMware-Clusters um zwei weitere HP-Server auf insgesamt sechs Server
  • Erweiterung des VMware-Clusters auf den redundanten Standort SUB
  • Ausbau des Clusters auf insgesamt neun Host-Server (neun HP Proliant-Server mit insgesamt 88 Cores und 1,3 TByte Hauptspeicher)
  • Anbindung des BlueArc-Storage ĂŒber NFS als weitere Massenspeichervariante neben FibreChannel (Dezember 2010 - April 2011)
  • Einrichtung der getrennten 10Gbit/s-LWL-Strecke zwischen GWDG und SUB fĂŒr schnelles vMotion im VMware-Cluster zur Sicherung des redundanten Standortes in der SUB
  • 4. Oktober 2010: Aufnahme des Produktivbetriebes des redundanten Standortes in der SUB hinsichtlich der Servervirtualisierung, um somit sicherzustellen, dass selbst im Katastrophenfall (Wegfall eines Standortes) die wichtigsten Serversysteme innerhalb der Virtualisierung funktionsfĂ€hig bleiben.
  • Leistungstest hinsichtlich Proof of Concept zur Virtualisierung von Exchange 2010 in VMware (Oktober 2010 - MĂ€rz 2011)
  • Weitere Inbetriebnahme virtueller Server der UniversitĂ€t (insb. auch SUB) sowie der Max-Planck-Gesellschaft (November 2010 - April 2011)

Die momentane CPU-Auslastung ermöglicht noch Reserven fĂŒr weitere Gastsysteme, wenngleich eine Erweiterung des Clusters um weitere Hosts mittelfristig erforderlich sein wird. Die Auslastung des Memory der Host-Server liegt im Mittel bei ca. 52 % und erreicht derzeitig keine kritische Grenze. Bei Ausfall eines Hosts kann der Betrieb der entscheidenden Serversysteme derzeit sichergestellt werden. Die weitere Planung im Bereich der virtuellen Server sieht folgende Schritte vor:

  • Beschaffung und Einsatz von schnellen 10Gbit/s-Interfaces fĂŒr jeden ESX-Host zur Erweiterung der Netzwerkleistung
  • Umstrukturierung der Netzwerkstruktur auf einen eigenen IP-Netzwerkbereich fĂŒr VMware
  • Erweiterung des Dienstleistungsangebots bei der Servervirtualisierung um die Bereiche Firewall sowie Intrusion Prevention durch das Tippingpoint IPS (Intrusion Prevention System)
  • Migration von VMware 4.0 zu Version 4.1. Hierdurch können erweiterte Möglichkeiten hinsichtlich Anbindung und Betrieb von Massenspeicher genutzt werden.
  • Erweiterung der Anbindung des BlueArc-Storage an den VMware-Cluster zum produktiven Einsatz bei der Servervirtualisierung
  • Installation einer abgetrennten VMware-Umgebung fĂŒr den Exchange-2010-Cluster auf zwei Host-Systemen

Identity Management

Verzeichnisdienste bilden die Basis fĂŒr die Verwaltung von IdentitĂ€ten (Benutzerkonten), Gruppen, Rechten und allgemeinen Informationsstrukturen in IT-Umgebungen. Zur VerknĂŒpfung mehrerer Verzeichnisse, insbesondere auch unterschiedlicher Organisationen, bietet sich ein Meta-Directory an. DarĂŒber hinaus speichert ein Directory zukĂŒnftig nicht nur Authentifizierungsinformationen, sondern stellt als „Daten-Drehscheibe“ eine gemeinsame Basis fĂŒr die Verteilung und Verwaltung von Informationen sowie zur Optimierung von GeschĂ€ftsablĂ€ufen dar. Die GWDG, der GeschĂ€ftsbereich IT des UniversitĂ€tsklinikums Göttingen, die UniversitĂ€t Göttingen und interessierte Einrichtungen der MPG arbeiten im GÖ*-Kontext bereits seit Anfang 2005 an der Realisierung eines entsprechenden Meta-Directory-Systems fĂŒr die beteiligten Einrichtungen. Das System konnte dann zur Jahresmitte 2006 im Rahmen der Zielsetzungen erfolgreich in den Produktivbetrieb ĂŒbernommen werden. ZusĂ€tzlich wurde Rahmen des Meta-Directory-Projektes ein zentrales Benutzer-Portal fĂŒr „Self-Service“ Identity Management entwickelt, das seit Mitte Oktober 2006 in Betrieb ist. Es bietet den Benutzern die Möglichkeit, in allen angeschlossenen Systemen ein einheitliches Passwort zu definieren – ein wichtiger Schritt in Richtung eines „Single Password“ am Göttinger Wissenschaftsstandort.

Das IdentitĂ€tsmanagement (IdM) ermöglicht die Synchronisation von Benutzerkonten (z. B. einheitliche Studierenden-Accounts), Gruppen usw. in den verschiedenen angeschlossenen Systemen sowie eine dezentrale Benutzer-Administration ĂŒber ein Web-Portal. Diese erlaubt den Instituten die Anlage, Bearbeitung, Sperrung und Verschiebung von Benutzern sowie die Einrichtung von Mail-Weiterleitungen. ZusĂ€tzlich lassen sich Benutzern auch E-Mail-Zertifikate fĂŒr die Verwendung mit Exchange ĂŒber das Benutzer-Portal zuweisen.

Das IdM fĂŒr die Max-Planck-Gesellschaft und UniversitĂ€t Göttingen umfasst mittlerweile 36 angebundene Verzeichnisse mit unterschiedlichen Systemen (Windows AD, LDAP, Datenbank und Prozesstreiber).

Die GWDG arbeitet gemeinsam mit dem Rechenzentrum Garching, der Max Planck Digital Library und der IVS-CPT der MPG an der Realisierung einer Shibboleth-Föderation fĂŒr die MPG (MPG-AAI). Hiermit soll eine sichere sog. Single-Sign-On-Lösung realisiert werden, die dem Benutzer nach einmaliger Anmeldung mit einem einheitlichen Benutzernamen und Passwort Zugang zu unterschiedlichen Web-Anwendungen ermöglicht. Die GWDG bietet hierbei eine Schnittstelle zu den eigenstĂ€ndigen Benutzerverwaltungen der 80 Institute an. Dieser sog. IdP Proxy ermöglicht es den Benutzern der Institute, unter Verwendung ihres lokalen Accounts auf unterschiedliche Dienstleistungen in verschiedenen Föderationen (z. B. der DFN-AAI) zuzugreifen. Im Rahmen der NDS-AAI als Shibboleth-Föderation fĂŒr das Land Niedersachsen realisiert die GWDG auch fĂŒr die Georg-August-UniversitĂ€t Göttingen einen Zugriff auf Dienste innerhalb unterschiedlicher Föderationen.

Speichersysteme

Speichervirtualisierung

Mit immer schneller wachsenden DatenbestÀnden ist die Realisierung eines zentralen Datenmanagementsystems in verteilten, heterogenen DV-Umgebungen oft unverzichtbar. Storage-Area-Network- (SAN) und Network-Attached-Storage-Systeme (NAS) erhöhen die Effizienz der AdministrationstÀtigkeit, optimieren den Datenzugriff, erhöhen die Ausfallsicherheit und verbessern die Datensicherheit in verteilten Systemen. Zur Flexibilisierung und Optimierung der Massenspeicherverwaltung bietet sich das Konzept einer Speichervirtualisierung an.

Ziel der Speichervirtualisierung ist eine Vereinheitlichung und gleichzeitige Flexibilisierung der Massenspeicherverwaltung und -verteilung innerhalb des SAN der GWDG, das den Massenspeicher fĂŒr unterschiedliche Nutzergruppen und Anwendungsbereiche zur VerfĂŒgung stellt. Durch Aufbau einer sogenannten Virtualisierungsschicht, durch die der komplette Datenverkehr zwischen Rechnern und Massenspeichersystemen geleitet wird, kann auf Rechnerseite die derzeitige Treibervielfalt deutlich reduziert werden (die Rechner „sehen“ ĂŒber das SAN im Wesentlichen nur noch einen Typ RAID-System, nĂ€mlich die Virtualisierungsserver). Auf Seite der angeschlossenen RAID-Systeme eröffnen sich vielfĂ€ltige neue Möglichkeiten wie Datenmigrationen im laufenden Betrieb sowie Plattenspiegelung und -replikation auch ĂŒber Herstellergrenzen hinweg. Die Verwaltung und der Betrieb der Plattensysteme unterschiedlicher Hersteller werden flexibilisiert.

Die Speichervirtualisierung der GWDG besteht zurzeit aus vier IPStor-Servern, von denen jeweils zwei als Cluster in einer active-active Konfiguration betrieben werden. Eine active-active Konfiguration bietet im normalen Betrieb (nicht Failover-Fall) den Vorteil einer Lastverteilung auf beiden Servern, wodurch die LeistungsfÀhigkeit der Virtualisierung erhöht wird. Es ist geplant, eines der bestehenden Cluster durch neue, leistungsfÀhigere Hardware zu ersetzen. Hierbei wird auch die Anzahl der Fibrechannel-Adapter von vier auf sechs erhöht. Die freiwerdenden Rechner werden dann als PrÀ-Produktionssystem eingesetzt.

Über die Speichervirtualisierung werden gegenwĂ€rtig Massenspeicherressourcen mit einer GesamtkapazitĂ€t von 1.088 TByte mit 439 virtuellen LUNs an 149 Hosts bereitgestellt.

Nach der Installation von Version 6.0 der Virtualisierungssoftware NSS (IPStor) im Mai 2009 durch den Hersteller FalconStor ist die StabilitÀt der gesamten Speichervirtualisierungsumgebung zufriedenstellend.

Die NSS-Versionen 6.0 und höher ermöglichen die Bereitstellung von LUNs mit einer GrĂ¶ĂŸe von mehr als 2 TByte. Hierdurch konnte die Anzahl der Pfade, insbesondere zwischen Massenspeichersystemen und IPStor-Servern, wesentlich verringert werden. Somit konnte die KomplexitĂ€t reduziert und die Administration vereinfacht werden.

Seit September 2010 ist auf allen IPStor-Servern die aktuelle NSS-Version 6.15 im Einsatz. Ab dieser Version können die Fibrechannel-Verbindungen zu den Hosts nicht nur wie bisher active-standby, sondern auch active-active betrieben werden, wodurch die Lastverteilung und der I/O-Durchsatz verbessert werden. Die GWDG plant den Einsatz einer Konfiguration mit active-active Verbindungen zu den Hosts.

Backup und Archiv

Nach Ersatz von sechs LTO-3-Bandlaufwerken am Standort Klinikum durch LTO-4-Laufwerke konnte dort im Laufe des Jahres 2010 die Migration der Backup-Daten auf Medien von annÀhernd der doppelten KapazitÀt fortgesetzt werden. Dadurch konnte einer Erhöhung des Bedarfs an StellplÀtzen im dortigen Bandroboter vorgebeugt werden. Ende Dezember 2010 betrug das auf Band gespeicherte Backup-Inventar 1.122 TByte am Standort Klinikum und am Standort GWDG 964 TByte. Jeder der beiden Bandroboter hÀlt zusÀtzlich eine Kopie der Daten des Archivsystems, in dem ca. 300 TByte aufbewahrt werden.

Durch Einsatz einer neuen Softwareversion (EMC DiskXtender Version 2.11) konnte das seit Ende Oktober 2009 im Archiv bestehende Problem sporadisch nicht zugreifbarer Dateien endlich behoben werden. Leider fĂŒhrte der Einsatz der neuen Software zu Fehlern im Bereich der Kassettenverwaltung (der Kassettenwechsel bei Datenmigration von Platte auf Kassette funktionierte nicht einwandfrei), so dass ein reibungsloser Produktionsbetrieb zeitweise nicht möglich war. Zur Abmilderung der grĂ¶ĂŸten SpeicherengpĂ€sse stellt der Software-Hersteller ein Massenspeichersystem EMC CX-4 mit einer KapazitĂ€t von 50 TByte leihweise zur VerfĂŒgung.

Beschaffung eines NAS-Systems

Das im FrĂŒhjahr 2010 vom MPI fĂŒr biophysikalische Chemie (MBPC), dem IT-Service fĂŒr Studierende (studIT) und der GWDG gemeinschaftlich beschaffte NAS-System besteht aus zwei im HA-Verbund (HA = High Availability) betreibbaren NAS-Köpfen und verfĂŒgt in der Anfangskonfiguration ĂŒber eine SpeicherkapazitĂ€t von ĂŒber 250 TByte (netto). Es wird hauptsĂ€chlich als Windows- und UNIX-Fileserver fĂŒr das MPI fĂŒr biophysikalische Chemie und die studIT eingesetzt werden. Die GWDG betreibt das System und hat es um weitere 32 TByte fĂŒr die Windows-Fileservices der GWDG erweitert.

Die Test- und StabilitÀtsphase konnte erfolgreich beendet werden. Die ausstehenden Fehleruntersuchungen und -behebungen wurden durch die Herstellerfirma BlueArc im September/Oktober 2010 erfolgreich abgeschlossen.

Das System war ursprĂŒnglich ĂŒber die ServerrĂ€ume der GWDG und des MBPC verteilt. Die Fertigstellung des GWDG-Serverraumes in der NiedersĂ€chsischen Staats- und UniversitĂ€tsbibliothek (SUB) erlaubte, die Redundanz, speziell der MBPC-Daten, durch die grĂ¶ĂŸere geographische Trennung zu erhöhen. Durch die Verwendung der flexiblen Administrationsmöglichkeiten ließ sich der Umbau des Systems derart vereinfachen, dass die Hardware nur anteilig umgebaut werden musste. Die DatenbestĂ€nde wurden anschließend zwischen den Standorten verschoben. Der Umbau wurde Anfang Oktober abgeschlossen.

Aufgrund des Systemumzugs und vorhandener Datendurchsatzprobleme zwischen den Standorten GWDG und SUB konnte der Produktivbetrieb nicht wie anvisiert im September aufgenommen werden. Ursache fĂŒr die schlechte DatenĂŒbertragung waren fehlerhafte LWL-Verbindungen.

Ablösung der Windows-Filecluster

Mit Aufnahme des produktiven Betriebs des BlueArc-NAS-Filers ist die Ablösung der bestehenden Windows-Filecluster vorgesehen. Diese stellen die Freigaben der Homeverzeichnisse und der in diese integrierten Benutzer-Profile aller GWDG-Benutzerkonten sowie die Windows-Gruppenlaufwerke fĂŒr die UniversitĂ€t zur VerfĂŒgung. Homeverzeichnisse und Profile der Benutzer werden getrennt, um ihren unterschiedlichen PerformanceansprĂŒchen zukĂŒnftig besser gerecht werden zu können.

Die aktuellen separaten Freigaben der Homeverzeichnisse und Profile auf Benutzerbasis werden zugunsten von institutsgebundenen Freigaben verschlankt. Durch die massive Reduzierung der Anzahl der Freigaben sollen der Verwaltungsaufwand minimiert und die technischen Ressourcen geschont werden. Die ĂŒber die letzten Jahre historisch gewachsenen Verzeichnis-, Daten- und Freigabestrukturen werden zur Vereinfachung der Verwaltung, der Datenkonsolidierung und zur Vorbereitung zukĂŒnftigen Datenmanagements neu strukturiert. Diese Restrukturierung der Windows-Fileservices erfordert es, die Prozesse der Benutzerverwaltung und ihre technische Umsetzung anzupassen.

Niedersachsen-Storage-Cloud

Das Datenvolumen, welches an den Hochschulen durch den allgegenwĂ€rtigen IT-Einsatz in Forschung, Lehre, Service und Verwaltung entsteht, wĂ€chst stetig an, muss verwaltet werden und erhöht die Anforderungen an die Speicherinfrastrukturen an jeder Hochschule. Gleichzeitig sind die einzelnen Hochschulen durch den Wegfall mehrerer Förderprogramme (HBFG, CIP, CAD/CAM, WAP, Netzprogramm und Zentralrechner-Ersatz) nur ungenĂŒgend fĂŒr die Finanzierung des wachsenden Umfangs von Basisbestandteilen der IT-Infrastruktur ausgestattet. Die Leiterinnen und Leiter der Rechenzentren des Landes Niedersachsen haben deshalb im Rahmen eines landesweit angelegten Konzepts vereinbart, die Speicherinfrastrukturen zu konsolidieren und aufeinander abzustimmen. Mit Hilfe der neu entwickelten Grid- und Cloud-Technologien sollen möglichst viele Speicherbereiche der Hochschulen in eine landesweite Niedersachsen-Storage-Cloud ĂŒberfĂŒhrt werden. Eine Storage-Cloud bringt Kosteneinsparung durch gemeinsame Beschaffung, durch Erfahrungsaustausch und Zusammenarbeit beim Betrieb und durch Arbeitsteilung bei der zentralen Bereitstellung spezieller Speicherdienste. Die landesweite Nutzung der gemeinsamen Speicherinfrastruktur erlaubt eine bessere Auslastung der vorhandenen Ressourcen, die schnelle Deckung von lokal auftretenden Bedarfsspitzen und den Einsatz hochverfĂŒgbarer zentraler Speicherdienste.

Die Finanzierung der Niedersachsen-Storage-Cloud wurde ĂŒber Landesmittel nach § 143c GG angestrebt. Ein entsprechender Antrag wurde Ende 2009 unter FederfĂŒhrung der GWDG gestellt. Dabei handelt es sich um ein Speichersystem von insgesamt 1 PetaByte, das in unterschiedlich großen Teilsystemen auf 15 NiedersĂ€chsische Hochschulrechenzentren verteilt werden soll. Das Volumen des Antrags betrug ca. 1,5 Millionen Euro. Die Begutachtung des Antrags durch die DFG wurde am 9. Juni 2010 mit einer Empfehlung zur Beschaffung im beantragten Umfang abgeschlossen. Die GWDG hatte bereits in Absprache mit den Partnerinstitutionen die Ausschreibungsunterlagen vorbereitet, so dass die Beschaffung zeitnah erfolgen konnte.

Nach positivem Entscheid des Antrags und der Finanzierung aus Landesmitteln nach § 143c GG hat die GWDG in Absprache mit den beteiligten Hochschulen im Herbst 2010 eine europaweite Ausschreibung von 15 NAS-Systemen mit vorgeschaltetem Teilnahmewettbewerb durchgefĂŒhrt. Aus den bis zum Ende der Angebotsfrist am 1. Oktober 2010 abgegebenen gĂŒltigen fĂŒnf Angeboten wurde das der beiden Firmen Isilon Systems und Concat als bestes ausgewĂ€hlt. Das gesamte Speichersystem umfasst insgesamt fast 1 PetaByte, die sich auf unterschiedlich große Teilsysteme an 15 NiedersĂ€chsischen Hochschulrechenzentren verteilen. Das Volumen des Auftrags betrĂ€gt 1,5 Millionen Euro.

Windows-(Active-Directory-)Services

Die Computer, Server, Drucker und Benutzer der UniversitĂ€t Göttingen und der Max-Planck-Institute bilden ein großes Netzwerk, das mit dem Verzeichnisdienst Active Directory (AD) von Microsoft als Struktur abgebildet und verwaltet wird. Das AD wird im Großen von der GWDG und im Kleinen von den Institutsadministratoren verwaltet. Das AD umfasst inzwischen rund 50 DomĂ€nen, mit rund 6.500 Arbeitsplatzrechnern und Servern, was ungefĂ€hr zwei Dritteln aller im GÖNET angesiedelten Systeme entspricht. Das wichtigste Merkmal der Active-Directory-Struktur ist das „Single Sign on“. Dieses umfasst die Möglichkeit, sich innerhalb der Struktur mit einer einzigen Benutzerkennung an jedem Klienten anmelden zu können und zentrale Ressourcen zu nutzen.

Auf Grund vielfĂ€ltiger Leistungen innerhalb des Active Directory und der flexiblen Handhabung hinsichtlich der Administration innerhalb der Institute konnten in den letzten Monaten viele Interessenten fĂŒr das Angebot gewonnen werden.

In den vergangenen Jahren wurde das Angebot weiter ausgebaut und Arbeitsprozesse fĂŒr die Administratoren in den Instituten durch kontinuierliche Verbesserung zentraler Dienste (z. B. WSUS (Windows Server Update Service) und Sophos Anti-Virus) weiter vereinfacht. So konnte der Arbeitsaufwand fĂŒr die Administration der Computer und die Schulung der ZustĂ€ndigen in den Instituten weiter optimiert werden.

Auch im Bereich der Sicherheit konnten erhebliche Fortschritte erzielt werden. So ermöglicht eine zentrale Überwachung und Verwaltung der Arbeitsstationen einen rechtzeitigen Eingriff bei AuffĂ€lligkeiten.

Die GWDG bietet ihre Dienste fĂŒr Windows-Systeme fĂŒr alle Institute der beiden Gesellschafter an. Die allgemeinen Dienste, die fĂŒr alle im GÖNET eingebundenen Systemen zur VerfĂŒgung stehen, werden wesentlich ergĂ€nzt durch die Möglichkeiten fĂŒr Systeme, die in das Active Directory der GWDG integriert sind.

Serversysteme fĂŒr die Max-Planck-Gesellschaft

Bibliothekssystem Aleph

Seit 2001 betreibt die GWDG fĂŒr Institutsbibliotheken der Max-Planck-Gesellschaft einen Server fĂŒr das Bibliothekssystem Aleph500, eine Software fĂŒr Katalogisierung, Erwerbung und Ausleihe von BĂŒchern und Zeitschriften. Aleph500 bietet sowohl den Bibliothekaren ein Arbeitsinstrument fĂŒr den gesamten bibliothekarischen GeschĂ€ftsgang, als auch den Wissenschaftlerinnen und Wissenschaftlern an den Instituten mit dem Online-Katalog (OPAC) ein weltweit zugĂ€ngliches Instrument fĂŒr die Recherche in den BestĂ€nden ihrer Institutsbibliothek.

Als zentrale Kataloge der Max-Planck-Gesellschaft stehen auf dem Göttinger Aleph-Server das Zeitschriftenverzeichnis und das Verzeichnis der e-Books zur VerfĂŒgung. Alle Bibliotheken der MPG können darĂŒber hinaus auf dem Aleph-Server die Normdaten der Personennamendatei (PND), der Gemeinsamen Körperschaftsdatei (GKD) und der Schlagwortnormdatei (SWD) nutzen.

32 Bibliotheken, die insgesamt 38 Max-Planck-Institute versorgen, nutzen derzeit das Aleph-System. Ferner steht die Übernahme des „kubikat“, des Verbundkataloges des Kunstbibliotheken-Fachverbundes Florenz – MĂŒnchen – Rom bevor. Im Kunstbibliotheken-Fachverbund haben sich zwei Max-Planck-Institute sowie das Zentralinstitut fĂŒr Kunstgeschichte in MĂŒnchen und das Deutsche Forum fĂŒr Kunstgeschichte in Paris zusammengeschlossen. In der Aleph-Entwicklungsumgebung sind die Bibliotheken bereits eingerichtet, und die Daten sind migriert. Die produktive Datenmigration soll in den nĂ€chsten Monaten erfolgen. Durch die Integration der Kunstbibliotheken wĂ€chst der Aleph-Datenbestand auf ĂŒber 3 Millionen TitelsĂ€tze an.

Da die WartungsvertrĂ€ge fĂŒr die Aleph-Hardware Ende 2010 ausliefen, hatte die GWDG bereits im FrĂŒhjahr 2010 ein Konzept fĂŒr neue Aleph-Hardware erstellt. Die Server sind Ende September 2010 von der Max Planck Digital Library (MPDL) bestellt worden, und im Dezember 2010 wurde dann die Aleph-Installation auf die neue, leistungsfĂ€higere Hardware migriert.

Die GWDG betreibt den Aleph-Server und unterstĂŒtzt darĂŒber hinaus die Kunden durch Konfiguration und Pflege des Setup fĂŒr die verschiedenen Bibliotheken und Support. Sie stellt Kommunikationsmittel wie Mailinglisten und ein Aleph-Wiki zur VerfĂŒgung. Bei regelmĂ€ĂŸigen Treffen mit den Bibliothekarinnen und Bibliothekaren und der Max Planck Digital Library werden Anforderungen fĂŒr die Weiterentwicklung des Systems gesammelt und als EntwicklungswĂŒnsche ĂŒber die Ex-Libris-Nutzerorganisation IGeLU an die Herstellerfirma gegeben. Eigene Vorhaben zur Weiterentwicklung der Aleph-Services in der MPG werden durch Arbeitsgruppen, zusammengesetzt aus MPDL, Bibliotheken und GWDG, realisiert.

Der Test der OpenSource-Software vufind als modernes bibliothekarisches Recherchetool fĂŒr die Max-Planck-Gesellschaft ist abgeschlossen; da er nicht die gewĂŒnschten Ergebnisse erbracht hatte, wird diese Software nicht zum Einsatz kommen.

Metalib- und SFX-Server der MPG

Die Max Planck Virtual Library (VLib) bietet mit einer Installation der ebenfalls von der Fa. Ex Libris angebotenen Software Metalib den Wissenschaftlerinnen und Wissenschaftlern der MPG die Möglichkeit, unter einer SuchoberflĂ€che gleichzeitige Recherchen in mehreren dezentralen wissenschaftlichen Ressourcen durchzufĂŒhren. Dazu gehören die Bibliothekskataloge der Max-Planck-Institute, aber auch von der MPG lizenzierte Datenbanken, externe Bibliothekskataloge und eine Auswahl frei verfĂŒgbarer Datenbanken und Kataloge. Mit dem in die VLib-OberflĂ€che integrierten Max Planck Context Sensitive Linking (MPG-SFX) werden eine direkte Lokalisierung des Volltextes zu einem recherchierten Titel – soweit Zugriff darauf besteht – und ferner die Weiterbearbeitung des Suchergebnisses mit anderen verfĂŒgbaren Diensten angeboten.

Beide Server laufen in virtuellen Umgebungen: Metalib in einer Solaris-Zone auf der im Herbst 2010 neu angeschafften Hardware, auf der auch die Zonen fĂŒr Aleph laufen, und SFX auf einem RedHAT-Linux-Server im VMware-Cluster der GWDG. Die SFX-Software wurde Ende 2010 auf die aktuelle Version 4 umgestellt.

Serversysteme fĂŒr die UniversitĂ€t Göttingen

Webserver www.uni-goettingen.de und Institutswebseiten im GCMS

Ende 2008 begann die Planung fĂŒr die Übernahme der Betreuung des Webservers der UniversitĂ€t Göttingen durch die GWDG. Im August 2009 hat die GWDG dann die Betreuung des Webservers der UniversitĂ€t Göttingen ĂŒbernommen. Mit diesem Wechsel wurde auch dieser Webserver bzw. das ihm zugrunde liegende Göttinger CMS-System (GCMS) durch die Entwickler am Institut fĂŒr Wirtschaftswissenschaften von MySQL4 / PHP4 auf MySQL5 / PHP5 umgestellt. DafĂŒr wurde auf einem virtuellen Server innerhalb der VMware-Umgebung der GWDG zunĂ€chst ein Entwicklungssystem eingerichtet und dann auch das produktive System auf eine virtuelle Maschine migriert. Nach erfolgreichem Abschluss aller Migrationsarbeiten und Tests erfolgte die produktive Übernahme des Webauftritts der UniversitĂ€t sowie derjenigen Institute, die das GCMS nutzen, am 25. August 2009.

Webserver www.studentenwerk-goettingen.de

Im September 2010 hat die GWDG die Betreuung des Webservers des Studentenwerkes Göttingen ĂŒbernommen. DafĂŒr wurde ein virtueller Server innerhalb der VMware-Umgebung der GWDG eingerichtet. Die GWDG ĂŒberwacht und wartet das zugrunde liegende Betriebssystem. Das Studentenwerk ist fĂŒr den Inhalt des Webauftritts und dessen Sicherheit zustĂ€ndig.

Stud.IP

Stud.IP (Studienbegleitender Internetsupport von PrĂ€senzlehre) ist eine internetbasierte Arbeitsumgebung zur UnterstĂŒtzung von Lehrveranstaltungen an Bildungseinrichtungen (Lernplattform, Learning Management System), mit der ĂŒber das Internet eine Kommunikation zwischen Lernenden und Lehrenden möglich ist. Stud.IP wird seit Anfang 2009 bei der GWDG in einer redundant ausgelegten hochperformanten physikalischen Umgebung gehostet. Die GWDG ĂŒbernimmt hierbei Aufgaben zur Installation, Konfiguration, Administration und Wartung im Bereich des Betriebssytems und zugrunde liegender Applikationen von Stud.IP. Stud.IP wird von einer Vielzahl an UniversitĂ€ten und Fachhochschulen eingesetzt.

Projekte

Wissenschaftliche Projekte

EURExpress

Im großen europĂ€ischen Forschungsprojekt EURExpress (Förderung durch die EU im Rahmen des 6. Forschungsprogramms) wurden an verschiedenen Standorten in Europa große Mengen von Schnitten von Mausembryonen erzeugt. Die AktivitĂ€t von Tausenden von Genen wurden in diesen Schnitten durch molekularbiologische Methoden sichtbar gemacht. Initiiert durch Professor Eichele, waren daran u. a. das frĂŒhere MPI fĂŒr experimentelle Endokrinologie in Hannover und das MPI fĂŒr molekulare Genetik in Berlin beteiligt. Als Ergebnis entstanden mit Hilfe von automatisierten Mikroskopieverfahren große Mengen hochaufgelöster digitaler Bilddaten, die zur GWDG transferiert, dort weiterverarbeitet und gespeichert wurden. Derzeit werden nur noch vom MPI fĂŒr biophysikalische Chemie in Göttingen Daten geliefert. Wichtigstes Ziel des Projekts EURExpress ist die Erstellung eines Internet-basierten Expressionsatlasses fĂŒr das Genom der Maus, d. h. eine Kartierung der AktivitĂ€ten der einzelnen Bestandteile des Erbguts. Neben diversen Programmieraufgaben ist es Aufgabe der GWDG innerhalb des Projekts, wie schon im VorlĂ€uferprojekt „Genepaint“, die Server zu betreiben, die zum Transfer der anfallenden Bilddaten nach Göttingen und zur Darstellung und Realisierung von Recherchemöglichkeiten in den gewonnenen Bilddaten notwendig sind.

Zu Beginn der Projektphase wurden wöchentlich ca. 200 GByte Bilddaten geliefert, inzwischen hat sich das Datenvolumen auf wenige GByte pro Woche reduziert. Der Datenbestand umfasst derzeit ca. 35 TByte an TIF-Daten, hinzu kommen an konvertierten Bildern ca. 5 TByte im FlashPix-Format sowie ca. 105 GByte im JPEG-Format.

Die im Rahmen des Projekts fĂŒr die GWDG zur VerfĂŒgung stehenden Mittel wurden im Berichtszeitraum aufgestockt und das Projekt planmĂ€ĂŸig fortgefĂŒhrt. Mittlerweile sind bis MĂ€rz 2011 ca. 427.000 Bilder nach Durchlauf des Workflows inkl. Metadaten per TSM / HSM mit einem Volumen von 35 TByte gespeichert.

Da die WartungsvertrĂ€ge fĂŒr Teile der eingesetzten Hardware ausliefen, wurde der Datenbank- und Webserver im MĂ€rz 2010 erfolgreich auf eine virtuelle Maschine im VMware-Cluster der GWDG migriert. Ebenfalls wurde der Zoomserver, der das virtuelle Mikroskop fĂŒr die Website des Projekts beherbergt, in die VMware-Umgebung migriert.

DP4lib

Das Projekt DP4lib ist die konsequente Weiterentwicklung von Kopal zu einem integrierten Dienst zur Langzeitarchivierung digitaler Daten. Dabei soll das System zu einer mandantenfĂ€higen Lösung ausgebaut werden. Das Projekt wurde von der Deutschen Nationalbibliothek in Frankfurt und der SUB Göttingen bei der DFG beantragt und Anfang 2009 genehmigt. Wie beim Projekt Kopal wird die Software durch IBM geliefert, die GWDG ĂŒbernimmt Planung und Betrieb der Speicher- und Serversysteme. Projektbeginn war Anfang 2010 mit einem Kickoff-Meeting .

KoLaWiss

Im Rahmen der GO*-Arbeitsgruppe Langzeitarchivierung (LZA) wurde ein Projektantrag zur Erstellung einer Studie Kooperative Langzeitarchivierung fĂŒr Wissenschaftsstandorte erstellt, der bei der DFG eingereicht und genehmigt wurde. Die Studie sollte u. a. Förderkriterien fĂŒr den Aufbau von kooperativen Langzeitarchivierungs-Zentren erarbeiten. Das Projekt wurde am 1. Februar 2008 begonnen und sollte am 31. Januar 2009 beendet sein. Die Projektleitung lag bei der GWDG. Wegen kurzfristiger personeller Änderungen wurde eine VerlĂ€ngerung der Laufzeit bis Ende April 2009 mit der DFG vereinbart und das Projekt dann am 30. April 2009 abgeschlossen sowie der Abschlussbericht der DFG zugestellt. Vor dem DFG-Unterausschuss fĂŒr elektronische Bibliotheken wurden die Projektergebnisse prĂ€sentiert.

MediGRID

Das Projekt MediGRID (Laufzeit 1. September 2005 bis 28. Februar 2009) war ein Verbundvorhaben im Rahmen der D-Grid eScience-Initiative des Bundesministeriums fĂŒr Bildung und Forschung (BMBF). Ziel des Projekts war eine Grid-unterstĂŒtzte Verbesserung der interdisziplinĂ€ren, weitgehend standortunabhĂ€ngigen Zusammenarbeit in der biomedizinischen Community. FĂŒr das Projektvorhaben wurde ein modularer Aufbau gewĂ€hlt: In den vier methodischen Modulen Middleware, Ontologie-Werkzeuge, Ressourcenfusion und eScience wurde eine Grid-Infrastruktur erarbeitet. FĂŒr drei reprĂ€sentative Fachbereiche der biomedizinischen Forschung (Bildverarbeitung, Biomedizinische Informatik und Klinische Forschung) wurden exemplarische Anwendungen in diese Grid-Infrastruktur portiert.

Die GWDG war an MediGRID als Ressourcenprovider und im Modul Ressourcenfusion beteiligt. In diesem Modul wurde fĂŒr die MediGRID-Community eine Infrastruktur zur Prozessierung und Speicherung von biomedizinischen Daten in einer Grid-Umgebung aufgebaut, die fĂŒr laufende D-Grid Projekte weiter betrieben wird. Diese Infrastruktur ermöglichte es den ersten Anwendungsentwicklern und Nutzern der Community, ihre Anwendungsszenarien erfolgreich in das MediGRID zu migrieren. Wesentliche Herausforderung war es, die heterogenen Anforderungen auf die FunktionalitĂ€ten der verfĂŒgbaren Grid-Werkzeuge abzubilden.

Ein Schwerpunkt der Arbeiten im Modul Ressourcenfusion war die Konzeption und Implementierung von Diensten, um Nutzerdaten und Metadaten im MediGRID zu verwalten. Dazu wurden etablierte Werkzeuge wie der Storage Resource Broker (SRB) fĂŒr die Verwaltung von Informationen auf Dateiebene und die OGSA-DAI-Middleware fĂŒr den Zugriff auf Informationen in verteilten relationalen Datenbanksystemen bezĂŒglich der Anforderungen in MediGRID evaluiert und angepasst.

FĂŒr die AusfĂŒhrung von Anwendungen in MediGRID kommt der Grid Workflow Execution Service (GWES) zum Einsatz. Gemeinsam mit dem Modul Middleware befasste sich die GWDG mit der Analyse und Optimierung dieses Workflow-Systems. Dazu wurden die Leistungsparameter identifiziert, die als Entscheidungsgrundlage fĂŒr das Job-Scheduling dienen können. Es wurde ein datenabhĂ€ngiges Job-Co-Scheduling eingefĂŒhrt, um aufwendige Datentransferoperationen zu vermeiden, und die Modellierung der Ressourcenauslastung zur VerkĂŒrzung von Wartezeiten optimiert. Mit diesen Erweiterungen konnte der Job-Durchsatz in MediGRID deutlich verbessert werden.

Services@MediGRID

Das Projekt Services@MediGRID (ursprĂŒnglich vorgesehene Laufzeit 1. Januar 2008 bis 31. Dezember 2010, kostenneutrale VerlĂ€ngerung bis 31. MĂ€rz 2011) ist eines der Nachfolgeprojekte von MediGRID innerhalb der D-Grid-Initiative des Bundesministeriums fĂŒr Bildung und Forschung (BMBF). Services@MediGRID entwickelt auf Basis der MediGRID-Middleware wichtige Elemente fĂŒr die Nachhaltigkeit der Grid-Infrastruktur. Dazu wird das MediGRID um eine vertikale Komponente erweitert, die durch alle Schichten hindurch Dienste gestaltet, die Voraussetzung fĂŒr eine kommerziell orientierte Verwertung sind. Hintergrund ist eine sich verĂ€ndernde Förderstruktur in biomedizinischen Forschungsprojekten dahingehend, dass fĂŒr den einzelnen Antragsteller zunehmend weniger Infrastruktur gefördert, sondern vielmehr empfohlen wird, sich die Dienstleistung bei einem Serviceanbieter einzukaufen. Voraussetzung dafĂŒr ist ein leichter, niederschwelliger Zugang zu Servicedienstleistungen, wie sie beispielsweise in D-Grid angeboten werden. DarĂŒber hinaus mĂŒssen die in Anspruch genommenen Dienste fĂŒr Diensteanbieter und Dienstenutzer transparent zu- und abrechenbar sein. Deshalb spielen vertikale Dienste wie Accounting und Billing eine zentrale Rolle fĂŒr die neue Förderstruktur zur Nutzung zentraler Dienste und auch fĂŒr die Nachhaltigkeit der Diensteanbieter.

Die GWDG beteiligte sich bis 31. Dezember 2009 an Services@MediGRID weiter als Ressourcenprovider. HauptsĂ€chlich war sie jedoch Integrationspartner und befasste sich mit dem Grid Coaching fĂŒr potenzielle Anbieter und Kunden von Grid-Diensten. FĂŒr die Entwickler wurden dazu Workshops abgehalten, die sie befĂ€higen, ihre Anwendungen in die Grid-Umgebung zu migrieren. Gleichzeitig wurde durch einen systematischen Review von Grid-Ressourcen, Grid-Services und Grid-Werkzeugen das Portfolio fĂŒr zukĂŒnftige Kunden zusammengestellt. Die Kunden werden damit in die Lage versetzt, selbst ihre Grid-Anforderungen zu formulieren und entsprechende Servicepartner zu finden.

OptiNum-Grid

Das Forschungsprojekt und Verbundvorhaben OptiNum-Grid – Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen wurde von der GWDG als KonsortialfĂŒhrer und Koordinator mit zwei Partnern aus der Forschung und drei Partnern aus der Industrie fĂŒr die 3. D-Grid-Förderrunde des BMBF initiiert. Die beiden Partner aus der Forschung sind zum einen die Friedrich-Alexander-UniversitĂ€t Erlangen-NĂŒrnberg (Lehrstuhl fĂŒr Informatik 3 – Rechnerarchitektur) und zum anderen die Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. in MĂŒnchen (Fraunhofer-Institut fĂŒr Integrierte Schaltungen IIS, Institutsteil Entwurfsautomatisierung EAS). Die drei Partner aus der Industrie sind die EQUIcon Software GmbH aus Jena, die ERAS Gesellschaft fĂŒr Entwicklung und Realisation Adaptiver Systeme mbH aus Göttingen sowie die Zentrum Mikroelektronik Dresden AG.

Ziel des Projektes, das mit 1,5 Mio € ĂŒber drei Jahre gefördert wird und am 1. Juni 2009 planmĂ€ĂŸig begonnen wurde, ist es, Dienste und GeschĂ€ftsmodelle zu entwickeln, mit denen numerische Simulations- und Optimierungsverfahren ĂŒber das Grid bereitgestellt und genutzt werden können. FĂŒr die industriellen Partner ermöglicht der Zugang zu Grid-Ressourcen die zunehmend erforderliche Nutzung von numerischer Simulation und Optimierung in ihren Entwicklungs- und ProduktionsablĂ€ufen, ohne den Aufwand der Beschaffung und des Betriebs der dafĂŒr notwendigen Infrastruktur in eigener Regie betreiben zu mĂŒssen. In vielen Bereichen nĂ€mlich ist heutzutage wegen zunehmender technischer KomplexitĂ€t und steigender Produktsicherheitsanforderungen die Entwicklung innovativer neuer Produkte ohne Computersimulationen nicht mehr möglich, aber die dafĂŒr benötigte Computerleistung ĂŒbersteigt oftmals die Grenzen dessen, was insbesondere mittelstĂ€ndische Unternehmen ihren Ingenieuren bereitstellen können. Mit der Öffnung des Grids fĂŒr das breite Feld von Simulations- und Optimierungsanwendungen in der Forschung können Synergieeffekte durch Lastausgleich und erhöhte Auslastung von öffentlich geförderten Rechenressourcen erzielt werden.

DGSI

An einem weiteren Verbundprojekt der 3. D-Grid-Förderrunde, DGSI – D-Grid Scheduler Interoperability (Laufzeit: 1. Mai 2009 bis 30. April 2012), ist die GWDG als Partner mit sechs weiteren Forschungseinrichtungen und einem Unternehmen aus der Industrie beteiligt. In diesem Projekt werden Verfahren entwickelt, die die gemeinsame Nutzung der zur VerfĂŒgung stehenden Rechen- und Speicherressourcen ĂŒber die Grenzen der heterogenen Umgebung der vielen D-Grid-Communities hinweg ermöglichen. Die meisten Communities bzw. Service Grids im Rahmen von D-Grid stehen der Anforderung gegenĂŒber, vorhandene Arbeitslast in effizienter Weise auf die angeschlossenen Ressourcen zu verteilen. Diese unter dem Sammelbegriff Grid Scheduling gefasste Problematik ist bereits innerhalb einer Community sehr komplex, community-ĂŒbergreifend ist sie noch viel schwieriger zu bewĂ€ltigen. Zu diesem Zweck werden die vorhandenen Schedulingsysteme verschiedener Service Grids im Rahmen des Projekts an eine zu entwickelnde InteroperabilitĂ€tsschicht angebunden. Mittels Verhandlungen können die beteiligten Scheduler AktivitĂ€ten und Ressourcen untereinander delegieren. Damit wird sichergestellt, dass die im D-Grid vorhandenen Rechen- und Speicherressourcen allen Communities nachhaltig zur VerfĂŒgung stehen können. Bei der Umsetzung wird konsequent auf anerkannte offene Standards gesetzt, um die InteroperabilitĂ€t von D-Grid im internationalen Kontext zu stĂ€rken.

Persistent Identifier (PID) und EPIC

Zielsetzungen

In allen Wissenschaftsdisziplinen werden immer mehr Daten erzeugt und gespeichert und es werden in zunehmendem Maße Relationen zwischen diesen Daten und anderen Ressourcen erzeugt, die fĂŒr die Wissenschaft essentiell sind, wie z. B. Referenzen auf Daten in wissenschaftlichen Publikationen. Es wird immer deutlicher, dass jede wissenschaftliche Einrichtung eine Langzeit-Strategie fĂŒr seine wissenschaftlichen Ressourcen entwickeln muss, um deren ZugĂ€nglichkeit langfristig abzusichern. Dabei spielen verschiedene GrĂŒnde eine Rolle, wie z. B. die ÜberprĂŒfbarkeit wissenschaftlicher Resultate oder die Aufbewahrung nicht wiederholbarer Observationen.

In der Wissenschaft muss also zunehmend dafĂŒr gesorgt werden, dass a) die Ressourcen in geordneten Repositorien registriert werden, deren Inhalte nicht verĂ€ndert werden sollten und mithin referenzierbar und zitierfĂ€hig sind, und b) die Referenzen selbst stabil sind, wissen dass digitale Repositorien lebende Organismen sind, die einer dauernden Migration auf verschiedenen Ebenen (Hardware/Software-Änderungen, Format-Änderungen etc.) unterworfen sind. Aufgrund dieser Änderungen eignen sich die gegenwĂ€rtig weithin verwendeten URLs nicht, da sie physikalische Pfade und semantische Inhalte umfassen, die nach wenigen Jahren schon nicht mehr aktuell sind.

Die Wissenschaft benötigt also fĂŒr die Referenzierbarkeit ihrer PrimĂ€r- und SekundĂ€r-Daten andere Mechanismen, die Ressourcen eindeutig und zeitunabhĂ€ngig benennen, Ă€hnlich wie eine ISBN-Nummer die Inkarnation eines Buches darstellt und nicht auf eine physikalische Kopie eines Buches verweist. Allerdings benötigt man fĂŒr die Auflösung eines eindeutigen und persistenten Identifiers (PID) einen abgesprochenen Mechanismus. Aufgrund der enormen Bedeutung der Auflösung von Referenzen in aktuelle URLs fĂŒr alle möglichen Aktionen mĂŒssen alle diesbezĂŒglichen Resolutions-Services mit einem hohen Grad an Robustheit, ZuverlĂ€ssigkeit und Langfristigkeit arbeiten.

Vorhaben und Ergebnisse

Der BAR (Beratender Ausschuss fĂŒr Rechenanlagen) der MPG hatte Ende 2008 dem Antragsentwurf zur EinfĂŒhrung persistenter und eindeutiger Identifikatoren in der MPG stattgegeben, um fĂŒr die Max-Planck-Gesellschaft mit dem Aufbau des Prototypen eines PID-Service zur Bereitstellung fĂŒr Persistent Identifier (PID) beginnen zu können. Dieser Service sollte auf Basis des Handle-Systems entstehen. Betreiber dieses Service ist die GWDG.

Da bis dahin fĂŒr die Einrichtung eines derartigen Service kein fertiges, qualitĂ€tsgesichertes, kommerzielles oder freies Produkt existierte, mussten die dafĂŒr notwendigen Softwarekomponenten in dem Projekt entwickelt werden. Mit Ende der ersten Phase des zeitlich befristeten Projektes stand ein bereits produktiv nutzbarer Prototyp fĂŒr die Basisdienste eines PID-Service fĂŒr die MPG bereit. Um fĂŒr den bestehenden Service eine höhere ZuverlĂ€ssigkeit und zusĂ€tzlich eine Verbreitung im europĂ€ischen Raum zu ermöglichen, gab es im Herbst 2009 einen internationalen Zusammenschluss der Institutionen GWDG, SARA (Amsterdam, Niederlande) und CSC (Helsinki, Finnland) in einem Memorandum of Understanding, in dem die Bereitschaft erklĂ€rt wurde, gemeinsam einen PID-Service-Dienst bereitzustellen und durch gegenseitige Redundanz-Strukturen hochverfĂŒgbar zu machen. Dieser Zusammenschluss heißt European Persistant Identifier Consortium (EPIC).

Im Berichtszeitraum wurden eine Reihe von Maßnahmen zur Weiterentwicklung und Verbesserung dieses Dienstes durchgefĂŒhrt
  • Es wurde ein lokaler Handle Server eingerichtet, der bislang primĂ€r fĂŒr die Bearbeitung eines Identifikator-Prefix fĂŒr die Max-Planck-Gesellschaft zustĂ€ndig ist.
  • Aufbauend auf den Funktionen dieses Servers ist eine Service-Schnittstelle fĂŒr die Max-Planck-Gesellschaft entwickelt worden, die unterschiedliche Arten des Zugriff der Institute der MPG auf die Erstellung und Manipulation von PIDs ermöglicht. Diese Services gewĂ€hrleisten derzeit die Erzeugung und die Auflösung der Adresse eines Handles zum Beispiel als Web-Applikation oder Web-Service.
  • DarĂŒber hinaus ist fĂŒr ein sicheres Betriebskonzept nötig, Routinen zur QualitĂ€tssicherung und Überwachung der Services und fĂŒr geeignete Fallback-Strategien zu implementieren. Derzeit ist die Implementation als virtueller Server (Xen) realisiert. Ein tĂ€gliches Backup garantiert den Datenbestand. Die Überwachung geschieht mit den bei der GWDG ĂŒblichen Monitoring-Systemen.
  • Die Funktionen sind neben ihrer Web-Interface-Bereitstellung als Web-Service ĂŒber das RESTProtokoll implementiert worden.
  • Es wurde eine umfangreiche Dokumentation der Schnittstellen und der Funktionen erstellt.
  • Es wurde fĂŒr das EPIC eine DomĂ€ne beantragt, und unter dieser Adresse[12] tritt dieser ursprĂŒnglich fĂŒr die MPG entwickelte Dienst mittlerweile im europĂ€ischen Rahmen auf.
  • EPIC hat unter der Adresse[13] den ursprĂŒnglich fĂŒr die MPG entwickelten Dienst mittlerweile im europĂ€ischen Rahmen verfĂŒgbar gemacht.
  • FĂŒr den sogenannten Resolver - das ist der Dienst, der zu einem ausgegebenen PID die zugehörige URL bzw. die zugehörigen im PID gespeicherten Informationen ausgibt - sind inzwischen in Helsinki und Amsterdam Slave-Server eingerichtet. Diese Server halten ihre lokale Datenbank mit den Datenbankinhalten des PID-Service in Göttingen synchron. Somit können die Anfragen zur Resolution von PIDs genau wie die der Server in Göttingen beantwortet werden.
  • Es gibt mittlerweile die folgenden Nutzer des Systems:
  • die MPG durch die Max Planck Digital Library (MPDL)
  • MPI fĂŒr Psycholinguistik
  • MPI zur Erforschung multireligiöser und multiethnischer Gesellschaften
  • das Institut fĂŒr Deutsche Sprache
  • die Berlin-Brandenburg Academy of Sciences
  • die NiedersĂ€chsische Staats- und UniversitĂ€tsbibliothek in Göttingen (SUB)
  • Im europĂ€ischen Umfeld gibt es verschiedene weitere Nutzer aus dem Clarin-Projekt.
  • Der durch die GWDG bereitgestellte Service ist im Zusammenhang mit der derzeitigen Entwicklung eines Konzeptes fĂŒr die Forschungsdaten-Archivierung sehr positiv aufgenommen worden. Dieser Dienst kann dort ein wichtiger Orientierungspunkt fĂŒr die technische und organisatorische Realisierung werden.
  • Am 19./20. April 2010 fand der erste EPIC User Workshop bei der GWDG statt, bei dem erste Erfahrungen mit dem Service ausgetauscht und notwendige zukĂŒnftige Entwicklungen geplant wurden. Ein wesentliches weiteres Ziel dieses Workshops war es, interne Strukturen fĂŒr EPIC aufzubauen, die dem Konsortium die Legitimation und den Auftrag fĂŒr seine TĂ€tigkeit geben. Ein erstes Treffen einer User Group fand statt, die Einrichtung eines Scientific Boards und/oder eines Executive Boards wurde diskutiert.
  • Es gibt mittlerweile eine SSL-UnterstĂŒtzung der API.
  • Es werden im EPIC-Konsortium mittlerweile neben dem MPG-Prefix 11858 verschiedene andere Prefixes bereitgestellt.
  • Es gibt nun eine neue Spezifikation fĂŒr eine gemeinsame API, die die verschiedenen unter EPIC betriebenen APIs vereinheitlichen soll. Mit der Realisierung dieser API soll in den nĂ€chsten Monaten begonnen werden.
  • Durch ein Pattern-Matching mit Rewrite-Regeln bei der PID-Auflösung im Handle-System 7.0 ist es nun möglich, sogenannte Fragments, also Teilbereiche der durch den PID adressierten Objekte, anzusteuern.
  • Im Herbst 2010 wurde mit der Fertigung eines Flyers begonnen, der im Oktober 2010 fertig gestellt wurde und seitdem auf etlichen einschlĂ€gigen Konferenzen verteilt wurde.
  • Im September 2010 wurde ein Vertrag zwischen CNRI und der GWDG geschlossen, der die Einrichtung eines Global Handle Registry (GHR) Mirror Servers und eines http-Proxies vorsieht, um auf diese Weise eine grĂ¶ĂŸere UnabhĂ€ngigkeit Europas bei der PID-Auflösung zu bekommen.
  • Seit Anfang Januar 2011 betreibt die GWDG einen solchen Server, der damit, außer einem weiteren Server in China, der einzige außerhalb der USA betriebene derartige Server ist. Die Einrichtung eines weiteren Servers in Australien ist derzeit in Planung.
  • Durch die Mitarbeit der GWDG in den Projekten Dariah-DE und Clarin-D stehen ab dem April 2011 Mittel fĂŒr die Weiterentwicklung der API und der PrĂ€sentation von EPIC zur VerfĂŒgung.
  • Am 12./13. April 2011 fand der zweite EPIC User Workshop in Amsterdam statt. Auch hier ging es wieder darum, Erfahrungen im Umgang mit dem Service auszutauschen und notwendige zukĂŒnftige Entwicklungen zu planen. Ein wesentlicher Schwerpunkt des Treffens war dabei die neue API-Spezifikation und das VerhĂ€ltnis der PID-Systeme Handle und URN.

Weblinks

  • Website der GWDG
  • Wiki der GWDG
  • Max-Planck-Gesellschaft (Hrsg.): GWDG - 25 Jahre Datenverarbeitung fĂŒr die Wissenschaft, (Reihe: Berichte und Mitteilungen der Max-Planck-Gesellschaft, Heft 1995/3), ISSN 0341-7778
  • GWDG-Bericht, Gesellschaft fĂŒr Wissenschaftliche Datenverarbeitung mgH Göttingen. - Göttingen : GWDG Nr. 1.1972 -, ISSN 0176-2516[14]
  • GWDG-Nachrichten, Informationen fĂŒr die Benutzer des Rechenzentrums / Gesellschaft fĂŒr Wissenschaftliche Datenverarbeitung mbH. - Göttingen : GWDG 1978 -, ISSN 0940-4686[15]

Einzelnachweise

  1. ↑ GWDG: Forschungsprojekt DP4lib, DP4lib
  2. ↑ GWDG: Forschungsprojekt D-Grid Scheduler Interoperability, D-Grid Scheduler Interoperability
  3. ↑ GWDG: Forschungsprojekt Optimierung technischer Systeme und naturwissenschaftlicher Modelle mit Hilfe numerischer Simulationen im Grid, OptiNum-Grid
  4. ↑ GWDG: Forschungsprojekt EURExpress, EURExpress
  5. ↑ GWDG: Forschungsprojekt Services@MediGRID, Services@MediGRID
  6. ↑ GWDG: abgeschlossene Forschungsprojekte, Abgeschlossene Projekte
  7. ↑ GWDG: Forschungsprojekte, Forschungsprojekte
  8. ↑ GWDG: GWDG Nachrichten, GWDG-Nachrichten
  9. ↑ GWDG: Presseinformation Nr. 4/2010 vom 18. Oktober 2010, Presseinformation
  10. ↑ GWDG: Webseite 40-Jahr-Feier, 40-jahr-Feier
  11. ↑ GWDG: Presseinformation Nr. 03/2011 vom 7. Oktober 2011, Presseinformation
  12. ↑ GWDG: Wissenschaftliches Projekt PID, Verweis auf URL PID-Konsortium
  13. ↑ GWDG: wissenschaftliches Projekt, Verweis auf URL PID-Konsortium
  14. ↑ GWDG: GWDG-Berichte, GWDG-Berichte
  15. ↑ GWDG: GWDG-Nachrichten, GWDG-Nachrichten
51.5630555555569.9708333333333

Wikimedia Foundation.

Schlagen Sie auch in anderen WörterbĂŒchern nach:

  • Göttingen — Wappen Deutschlandkarte 
   Deutsch Wikipedia

  • Uni Göttingen — Vorlage:Infobox Hochschule/TrĂ€ger fehlt Georg August UniversitĂ€t Göttingen Motto In publica commoda (Zum Wohle aller) 
   Deutsch Wikipedia

  • UniversitĂ€t Göttingen — Vorlage:Infobox Hochschule/TrĂ€ger fehlt Georg August UniversitĂ€t Göttingen Motto In publica commoda (Zum Wohle aller) 
   Deutsch Wikipedia

  • Georg-August-UniversitĂ€t Göttingen — Motto In publica commoda (Zum Wohle aller)[1] 
   Deutsch Wikipedia

  • Max-Planck-Gesellschaft — zur Förderung der Wissenschaften (MPG) Zweck: Grundlagenforschung Vorsitz: Peter Gruss (PrĂ€sident) GrĂŒ 
   Deutsch Wikipedia

  • Georg-August-UniversitĂ€t — Vorlage:Infobox Hochschule/TrĂ€ger fehlt Georg August UniversitĂ€t Göttingen Motto In publica commoda (Zum Wohle aller) 
   Deutsch Wikipedia

  • Georgia Augusta — Vorlage:Infobox Hochschule/TrĂ€ger fehlt Georg August UniversitĂ€t Göttingen Motto In publica commoda (Zum Wohle aller) 
   Deutsch Wikipedia

  • GÖ — Wappen Deutschlandkarte 
   Deutsch Wikipedia

  • Gö — Wappen Deutschlandkarte 
   Deutsch Wikipedia

  • Nikolausberg — Stadt Göttingen Koordinaten 
   Deutsch Wikipedia


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.