Jahr der Informatik Jahr der Informatik: Computer bilden die Grundlage für Wissenschaft und Wirtschaft

Bonn/dpa. - Kaum eine Disziplin hat sich in denvergangenen 60 Jahren so rasant entwickelt wie die Informatik. Dassiebte deutsche Wissenschaftsjahr, ausgerufen vom Bundesministeriumfür Bildung und Forschung, widmet sich 2006 der jungen Disziplin.«Ziel ist es, den Menschen die Bedeutung der Informatik näher zubringen und auch Berührungsängste abzubauen», sagt Matthias Jarke,Präsident der Gesellschaft für Informatik (GI) und Mitinitiator desInformatikjahrs. Bundesforschungsministerin Annette Schavan (CDU)eröffnet das Wissenschaftsjahr offiziell an diesem Dienstag (17.Januar) in Berlin.
Informatik bestimmt heute weite Teile unseres Alltags, von dercomputergesteuerten Waschmaschine bis zum Geldautomaten. Und alsWirtschaftsfaktor hat sie in Deutschland inzwischen etwa denAutomobilbau überholt. Im Gegensatz zu vielen anderen Branchen istdie Informations- und Kommunikationstechnik im vergangenen Jahrgewachsen, wie Jarke betont. Und die Visionen kennen kaum Grenzen: Sosollen künftig «intelligente» Roboter die Menschen unterstützen -nicht nur in gefährlichen Umgebungen wie etwa der Tiefsee, sondernauch im Haushalt. Ein erster Service-Roboter ist in Japan bereits aufdem Markt.
Der Begriff Informatik selbst tauchte zum ersten Mal 1957 beimDeutschen Karl Steinbuch auf, einem Pionier der Disziplin. DieKombination der Wörter Information und Automatik deutet auf dieGrundzüge dieser Wissenschaft. Die Geschichte der Informatik ist wieein großes Mosaik. Verschiedene Einflüsse machen sie zu dem, was sieheute ist - eine selbstständige Wissenschaft und, wie es WilfriedBrauer, erster ordentlicher Professor für Informatik an derUniversität Hamburg formuliert, eine «Kooperationspartnerin für jedeWissenschaft nicht nur als Werkzeug in Ergänzung der Mathematik,sondern auch als Methode zur intellektuellen Analyse undModellbildung».
Drei Disziplinen prägten die Entwicklung der Informatik besonders:die Mathematik, die Mechanik und später die Elektronik. GroßeBedeutung kommt dem deutschen Universalgelehrten Gottfried WilhelmLeibniz (1646-1716) zu. «Er entdeckte die Bedeutung des Dualsystemsund das Rechnen in diesem», erklärt Brauer. Dadurch entstand dieIdee, ein binäres Zahlensystem als Basis einer Rechenmaschine zunutzen - lange vor dem Bau des ersten Computers.
Ein Mathematiker erwies sich mehr als 150 Jahre nach Leibniz alsComputerpionier. Der Engländer Charles Babbage entwarf das Konzeptdes ersten Computers. Seine «Analytical Engine» (AnalytischeMaschine) enthielt bereits alle fundamentalen Elemente eines heutigenComputers: eine zentrale Recheneinheit, einen Speicher und dieMöglichkeit, Variablen und Zahlen einzugeben. Babbage schaffte esallerdings nicht, seine Maschine zu bauen.
Den ersten programmierbaren Computer konstruierte der DeutscheKonrad Zuse und nannte ihn Z3. Er entwarf die so genannteSchaltalgebra, deren Grundlage das Binärsystem ist. Um sie elektrischumzusetzen, braucht es zwei Zustände eins und null, Strom an undStrom aus. Zuse stellte den Rechner im Jahr 1941 fertig.Telefonrelais erledigten die Schaltarbeit.
Es folgten Computer so groß wie Einbauküchen. In Forschung undIndustrie fanden sie zunehmend Anklang. Damals entstand auch derBegriff des «Bug» (engl. Käfer) für eine Fehlfunktion des Rechners.In den großen Anlagen passierte es schon mal, dass ein Käfer dasSystem lahm legte, weil er einen Kurzschluss verursachte. Den Sprungin die Haushalte schafften Computer erst Anfang der 1980er Jahre.
Doch ohne Software ist jede Hardware nutzlos. «Für die Entwicklungder Informationstechnik waren die Software und die damitzusammenhängenden Konzepte und Verfahren genau so wichtig wie dieHardware», sagt Brauer. Jeder Computer verrichtet seine Arbeitscheinbar automatisch, doch ohne Programm könnten Roboter nichtlaufen, Geldautomaten nichts auszahlen und der PC-Bildschirm bliebeschwarz.
«Die Digitalsierung, also die Darstellung der Welt auf Basis vonNullen und Einsen, hat völlig neue Möglichkeiten zurInformationsverarbeitung geschaffen», sagt GI-Präsident Jarke. In derInformatik genauso wie im alltäglichen Leben.