Computer

ï»ż
Computer
Pdp-7-oslo-2004.jpeg
PDP-7
IBM Blue Gene P supercomputer.jpg
IBM Blue Gene
Apple II.jpg
Apple II
IBM PC 5150.jpg
IBM-PC
Dell Studio 1555 IMG 6023 1500px.jpg
Notebook (Laptop)
IPad 2.jpg
Tablet-Computer

Ein Computer (englische Aussprache [kɔmˈpjuːtɐ]) oder Rechner ist ein Apparat, der Daten mithilfe einer programmierbaren Rechenvorschrift verarbeiten kann.

Charles Babbage und Ada Lovelace gelten durch die von Babbage entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers, wÀhrend Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) die ersten universell programmierbaren Computer bauten.

ZunĂ€chst war die Informationsverarbeitung (die Ein- und Ausgabe der Daten) auf die Verarbeitung von Zahlen beschrĂ€nkt. Mit zunehmender LeistungsfĂ€higkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des tĂ€glichen Lebens vorzufinden. Beispielsweise dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Waschmaschinen und weiteren GerĂ€ten des Alltags vom Videorekorder bis hin zur MĂŒnzprĂŒfung in Warenautomaten; auch im Mobiltelefon steckt ein Computer; Personal Computer dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe VorgĂ€nge zu simulieren, z. B. in der Klimaforschung oder fĂŒr thermodynamische Fragestellungen und medizinische Berechnungen.

Inhaltsverzeichnis

Herkunft des Namens

Der englische Begriff computer, abgeleitet vom Verb (to) compute (aus Lateinisch: computare = ‚zusammenrechnen‘),[1] bezeichnete ursprĂŒnglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel fĂŒr Astronomen im Mittelalter. 1938 stellte Konrad Zuse den ersten frei programmierbaren mechanischen Rechner her (Z1), der im heutigen Sinne bereits dem Begriff entsprach. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten Electronic Numerical Integrator and Computer (kurz ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich Computer als Gattungsbegriff fĂŒr diese neuartigen Maschinen.

Grundlagen

GrundsĂ€tzlich unterscheiden sich zwei Bauweisen: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen GerĂ€teeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogcomputer, wenn er mit analogen GerĂ€teeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische MessgrĂ¶ĂŸen wie Spannung oder Strom).

Heute werden fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsĂ€tzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.

Ein Digitalcomputer besteht zunĂ€chst nur aus Hardware. Die Hardware stellt erstens einen so genannten Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfĂŒgt das Rechenwerk der Hardware ĂŒber grundlegende Bausteine fĂŒr eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik fĂŒr Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung (siehe bei Sprunganweisung). Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhĂ€ngig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsĂ€tzlichen Überlegungen zur Berechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nĂŒtzlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und Bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen UrsprĂŒngen in der Mitte des 20. Jahrhunderts nicht wesentlich verĂ€ndert, wenngleich die Details der Technologie erheblich verbessert wurden.

Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (VerstĂ€rker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden frĂŒher hĂ€ufiger zur Simulation von RegelvorgĂ€ngen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollstĂ€ndig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten.

Hardwarearchitektur

Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als Von-Neumann-Architektur bezeichnet wird, definiert fĂŒr einen Computer fĂŒnf Hauptkomponenten:

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).

Der Speicher ist eine Anzahl von durchnummerierten „Zellen“; jede von ihnen kann ein kleines StĂŒck Information aufnehmen. Diese Information wird als BinĂ€rzahl, also einer Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Ein Charakteristikum der Von-Neumann-Architektur ist, dass diese BinĂ€rzahl (bspw.: 01000001, was der Dezimalzahl 65 entspricht) entweder ein Teil der Daten (also z. B. die Zahl 65 oder der Buchstabe A) oder ein Befehl fĂŒr die CPU (oben erwĂ€hnter „bedingter Sprung“) sein kann.

Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich).

Dem gegenĂŒber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur VerfĂŒgung, dadurch können Daten-Schreiboperationen keine Programme ĂŒberschreiben.

In der Von-Neumann-Architektur ist die Steuereinheit dafĂŒr zustĂ€ndig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen „Zeiger“ auf eine bestimmte Speicherzelle hat, in der der nĂ€chste Befehl steht, den sie auszufĂŒhren hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel „65“, erkennt dies als „bedingter Sprung“. Dann geht sie zur nĂ€chsten Speicherzelle, weil sie wissen muss, wohin sie springen soll. Sie liest auch diesen Wert aus und interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle. Dann setzt sie den Zeiger auf eben diese Speicherzelle, um dort wiederum ihren nĂ€chsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt „bedingter Sprung“ lauten wĂŒrde „Lies Wert“, dann wĂŒrde sie nicht den Programmzeiger verĂ€ndern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen, welche die Steuereinheit aus zwei Speicherzellen ausgelesen hat) und gibt den Wert an die Steuereinheit zurĂŒck, die den Wert dann fĂŒr einen Vergleich verwenden oder wieder in eine dritte Speicherzelle zurĂŒckschreiben kann.

Die Ein-/Ausgabeeinheiten schließlich sind dafĂŒr zustĂ€ndig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.

Softwarearchitektur

Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen VorgĂ€nge in den Leiterbahnen. Die ersten Computer wurden auch tatsĂ€chlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch fĂŒr den Programmierer einen semantisch verstĂ€ndlichen Inhalt darstellen (z. B. GOTO fĂŒr den „unbedingten Sprung“).

SpĂ€ter wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu mĂŒssen, z. B.: das Interpretieren einer gedrĂŒckten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in ĂŒbergeordneten Bibliotheken gebĂŒndelt, welche Unterfunktionen zu komplexen Operationen verknĂŒpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrĂŒckt hat).

In einem modernen Computer arbeiten sehr viele dieser Programmebenen ĂŒber- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsĂ€chlich gesteuert wird.

Geschichte

Die VorlÀufer des modernen Computers

Die Computertechnologie entwickelte sich im Vergleich zu anderen ElektrogerĂ€ten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurĂŒck bis in die Antike und ist damit wesentlich lĂ€nger als die Geschichte der modernen Computertechnologien und mechanischen bzw. elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa fĂŒr einfache SchreibgerĂ€te auf Papier und Tafeln entwickelt wurden. Im Folgenden wird entsprechend versucht, einen Überblick ĂŒber diese Entwicklungen zu geben.

Zahlen als Grundlage der Computergeschichte

Das Konzept der Zahlen lĂ€sst sich auf keine konkreten Wurzeln zurĂŒckfĂŒhren und hat sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Man findet in allen bekannten Sprachen mindestens fĂŒr die Zahlen eins und zwei Entsprechungen. Auch in der Kommunikation von vielen Tierarten (etwa verschiedener Primaten, aber auch Vögeln wie der Amsel) lĂ€sst sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von GegenstĂ€nden feststellen.

Die Weiterentwicklung dieser einfachen numerischen Systeme fĂŒhrte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperation wie der Addition, der Subtraktion, der Multiplikation und der Division bzw. auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch ĂŒberprĂŒfbar. Daraus entwickelten sich dann weiterfĂŒhrende Betrachtungen, etwa die von Euklid entwickelte Darstellung des grĂ¶ĂŸten gemeinsamen Teilers.

Im Mittelalter erreichte das Arabische Zahlensystem Europa und erlaubte eine grĂ¶ĂŸere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, AusdrĂŒcke und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln rsp. des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource fĂŒr Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen fĂŒllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.

FrĂŒhe Entwicklung von Rechenmaschinen und -hilfsmitteln

Die Entwicklung mechanischer Rechenhilfen
Der Abakus

Das frĂŒheste GerĂ€t, das in rudimentĂ€ren AnsĂ€tzen mit einem heutigen Computer vergleichbar ist, ist der Abakus, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indochinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten Rechenmaschinen ersetzt. In einigen Regionen der Welt wird der Abakus noch immer als Rechenhilfe verwendet. Einem Ă€hnlichen Zweck diente auch das Rechenbrett des Pythagoras.

Bereits im 1. Jh. v. Chr. wurde mit dem Computer von Antikythera die erste Rechenmaschine erfunden. Das GerĂ€t diente vermutlich fĂŒr astronomische Berechnungen und funktionierte mit einem Differentialgetriebe, einer erst im 13. Jahrhundert wiederentdeckten Technik.

Mit dem Untergang der Antike kam der technische Fortschritt zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan â€“ und dies tut er bis heute.

Der Rechenschieber, eine der wichtigsten mechanischen Rechenhilfen fĂŒr die Multiplikation und Division

1614 publizierte John Napier seine Logarithmentafel und 1623 baute Wilhelm Schickard die erste Vier-Spezies-Maschine und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der ComputerĂ€ra“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von ZahnrĂ€dern, die im Wesentlichen aus dem Bereich der Uhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von Johannes Kepler bei seinen astronomischen Berechnungen.

1642 folgte Blaise Pascal mit seiner Rechenmaschine, der Pascaline. 1668 entwickelte Samuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute Gottfried Wilhelm Leibniz seine erste Vier-Spezies-Maschine und erfand 1703 das binĂ€re Zahlensystem (Dualsystem), das spĂ€ter die Grundlage fĂŒr die Digitalrechner und darauf aufbauend die digitale Revolution wurde.

Mechanischer Rechner von 1914

1805 entwickelte Joseph-Marie Jacquard Lochkarten, um WebstĂŒhle zu steuern. 1820 baute Charles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer fĂŒr Großunternehmen erschwinglich machte. Charles Babbage entwickelte von 1820 bis 1822 die Differenzmaschine (engl. Difference Engine) und 1837 die Analytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und George Scheutz in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte Ada Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-VolkszĂ€hlung mit Hilfe des Lochkartensystems von Herman Hollerith durchgefĂŒhrt. Im gleichen Jahr baute Torres y Quevedo eine Schachmaschine, die mit König und Turm einen König matt setzen konnte,– und somit den ersten Spielcomputer.

Mechanische Rechner wie die darauf folgenden Addierer, der Comptometer, der Monroe-Kalkulator, die Curta und der Addo-X wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das Dezimalsystem, das technisch schwieriger umzusetzen war. Dies galt sowohl fĂŒr die Rechner von Charles Babbage um 1800 wie auch fĂŒr den ENIAC von 1945, den ersten vollelektronischen Universalrechner ĂŒberhaupt.

Es wurden jedoch auch nichtmechanische Rechner gebaut, wie der Wasserintegrator.

Vom Beginn des 20. Jahrhunderts

1935 stellten IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchfĂŒhren konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im selben Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer und Alan Turing publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.

1938 stellte Konrad Zuse die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der FertigungsprĂ€zision nie voll funktionstĂŒchtig war. Die Z1 verfĂŒgte bereits ĂŒber Gleitkommarechnung. Sie wurde im Krieg zerstört und spĂ€ter nach OriginalplĂ€nen neu gefertigt, die Teile wurden auf modernen FrĂ€s- und DrehbĂ€nken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technikmuseum in Berlin steht, ist mechanisch voll funktionsfĂ€hig und hat eine Rechengeschwindigkeit von 1 Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte Claude Shannon einen Artikel darĂŒber, wie man symbolische Logik mit Relais implementieren kann. (Lit.: Shannon 1938)

WĂ€hrend des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur EntschlĂŒsselung der ENIGMA-Codes und baute dafĂŒr einen speziellen mechanischen Rechner, Turing-Bombe genannt.

Entwicklung des modernen turingmÀchtigen Computers

Bis zum Ende des Zweiten Weltkrieges

Nachbau der Zuse Z3 im Deutschen Museum in MĂŒnchen

Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstĂŒchtige programmgesteuerte binĂ€re Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3. Wie 1998 bewiesen werden konnte, war die Z3 turingmĂ€chtig und damit außerdem die erste Maschine, die – im Rahmen des verfĂŒgbaren Speicherplatzes â€“ beliebige Algorithmen automatisch ausfĂŒhren konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfĂ€higer Computer der Geschichte betrachtet. Die nĂ€chsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmĂ€chtig. Auch Maschinen auf analoger Basis wurden entwickelt.

Colossus Mark II

Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fĂŒnf Computern.“ datiert. Im selben Jahr stellte Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellte eine EntschlĂŒsselungsmaschine fĂŒr das VerschlĂŒsselungsgerĂ€t M-209 der US-StreitkrĂ€fte fertig.[2] Zuse hatte schließlich bis MĂ€rz 1945 seine am 21. Dezember 1943 bei einem Bombenangriff zerstörte Z3 durch die deutlich verbesserte Zuse Z4 ersetzt, dem damals einzigen turingmĂ€chtigen Computer in Europa, der von 1950 bis 1955 als zentraler Rechner der ETH ZĂŒrich genutzt wurde.

Eigenschaften der ersten Computer
Computer Land Inbetriebnahme Gleitkomma-
arithmetik
BinÀr Elektronisch Programmierbar TuringmÀchtig
Zuse Z3 Deutschland Mai 1941 Ja Ja Nein Ja, durch Lochstreifen Ja
Atanasoff-Berry-Computer USA Sommer 1941 Nein Ja Ja Nein Nein
Colossus UK 1943 Nein Ja Ja Teilweise, durch Neuverkabelung Nein
Mark I USA 1944 Nein Nein Nein Ja, durch Lochstreifen Ja
Zuse Z4 Deutschland MĂ€rz 1945 Ja Ja Nein Ja, durch Lochstreifen Ja
ENIAC USA 1946 Nein Nein Ja Teilweise, durch Neuverkabelung Ja
1948 Nein Nein Ja Ja, durch eine Matrix aus WiderstÀnden Ja

Nachkriegszeit

ENIAC auf einem Bild der US-Armee
Der EDVAC
Röhrenrechner Ural-1 aus der Sowjetunion

Das Ende des Zweiten Weltkriegs erlaubte es, dass EuropĂ€er und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. 1946 wurde der Electronical Numerical Integrator and Computer (ENIAC) unter der Leitung von John Eckert und John Mauchly entwickelt. ENIAC ist der erste vollelektronische digitale Universalrechner (Konrad Zuses Z3 verwendete 1941 noch Relais, war also nicht vollelektronisch). 1947 baute IBM den Selective Sequence Electronic Calculator (SSEC), einen Hybridcomputer mit Röhren und mechanischen Relais und die Association for Computing Machinery (ACM) wurde als erste wissenschaftliche Gesellschaft fĂŒr Informatik gegrĂŒndet. Im gleichen Jahr wurde auch der erste Transistor realisiert, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten 1956 den Nobelpreis fĂŒr Physik. In die spĂ€ten 1940er Jahre fĂ€llt auch der Bau des Electronic Discrete Variable Automatic Computer (EDVAC), der erstmals die Von-Neumann-Architektur implementierte.

1949 stellte Edmund C. Berkeley, BegrĂŒnder der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer fĂŒr den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von BauplĂ€nen vertrieben, von denen in den ersten zehn Jahren ihrer VerfĂŒgbarkeit ĂŒber 400 Exemplare verkauft wurden. Im selben Jahr stellte Maurice Wilkes mit seinem Team in Cambridge den Electronic Delay Storage Automatic Calculator (EDSAC) vor; basierend auf John von Neumanns EDVAC ist es der erste Rechner, der vollstĂ€ndig speicherprogrammierbar war. Ebenfalls 1949 besichtigte Eduard Stiefel die in einem Pferdestall in Hopferau aufgestellte Zuse Z4 und finanzierte die grĂŒndliche Überholung der Maschine durch die Zuse KG bevor sie an die ETH ZĂŒrich ausgeliefert wurde und dort in Betrieb ging.

In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. Unter der Leitung von Prof. Alwin Walther wurde am Institut fĂŒr Praktische Mathematik (IPM) der TH Darmstadt ab 1951 der DERA (DarmstĂ€dter Elektronischer Rechenautomat) erbaut. Remington Rand baute 1951 ihren ersten kommerziellen Röhrenrechner, den UNIVersal Automatic Computer I (UNIVAC I) und 1955 Bell Labs fĂŒr die US Air Force mit dem TRansistorized Airborne DIgital Computer (TRADIC) den ersten Computer, der komplett mit Transistoren statt Röhren bestĂŒckt war; im gleichen Jahr begann Heinz Zemanek mit der Konstruktion des ersten auf europĂ€ischem Festland gebauten Transistorrechners, dem MailĂŒfterl. Ebenfalls im gleichen Jahr baute die DDR mit der „OPtik-REchen-MAschine“ (OPREMA) ihren ersten Computer. 1956 nahm die ETH ZĂŒrich ihre ERMETH in Betrieb und IBM fertigte das erste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde die Electrologica X1 als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium fĂŒr mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer „XYZ“ vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begann Siemens mit der Auslieferung des Siemens 2002, des ersten in Serie gefertigten und vollstĂ€ndig auf Basis von Transistoren hergestellten Computers.

1960er

1960 baute IBM den IBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, und DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 lieferte die Telefunken AG die ersten TR 4 aus. 1964 baute DEC den Minicomputer PDP-8 fĂŒr unter 20.000 Dollar.

1964 definierte IBM die erste Computerarchitektur S/360, womit Rechner verschiedener Leistungsklassen denselben Code ausfĂŒhren können und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt. 1965 stellte das Moskauer Institut fĂŒr PrĂ€zisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit dem BESM-6 den ersten exportfĂ€higen Großcomputer der UdSSR vor. BESM-6 wurde ab 1967 mit Betriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mit D4a ein 33bit Auftischrechner der TU Dresden.

Nixdorf 820 von 1968.

1968 bewarb Hewlett-Packard (HP) den HP-9100A in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“. Die 1968 entstandene Nixdorf Computer AG erschloss zunĂ€chst in Deutschland und Europa, spĂ€ter auch in Nordamerika, einen neuen Computermarkt: die Mittlere Datentechnik bzw. die dezentrale elektronische Datenverarbeitung. Massenhersteller wie IBM setzten weiterhin auf Großrechner und zentralisierte Datenverarbeitung, wobei Großrechner fĂŒr kleine und mittlere Unternehmen schlicht zu teuer waren und die Großhersteller den Markt der Mittleren Datentechnik nicht bedienen konnten. Nixdorf stieß in diese Marktnische mit dem modular aufgebauten Nixdorf 820 vor, brachte dadurch den Computer direkt an den Arbeitsplatz und ermöglichte kleinen und mittleren Betrieben die Nutzung der elektronischen Datenverarbeitung zu einem erschwinglichen Preis. Im Dezember 1968 stellten Douglas C. Engelbart und William English vom Stanford Research Institute (SRI) die erste Computermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen BenutzeroberflĂ€chen) interessierte dies jedoch kaum jemanden. 1969 werden die ersten Computer per Internet verbunden.

1970er

Mit der Erfindung des serienmĂ€ĂŸig produzierbaren Mikroprozessors wurden die Computer immer kleiner und leistungsfĂ€higer. Doch noch wurde das Potential der Computer verkannt. So sagte noch 1977 Ken Olson, PrĂ€sident und GrĂŒnder von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“

Intel 8008 Nachfolger des Intel 4004

1971 war es Intel, die mit dem 4004 den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferte Telefunken den TR 440 an das Deutsche Rechenzentrum Darmstadt sowie an die UniversitĂ€ten Bochum und MĂŒnchen. 1972 ging der Illiac IV, ein Supercomputer mit Array-Prozessoren, in Betrieb. 1973 erschien mit Xerox Alto der erste Computer mit Maus, graphischer BenutzeroberflĂ€che (GUI) und eingebauter Ethernet-Karte; und die französische Firma R2E begann mit der Auslieferung des Micral. 1974 stellte HP mit dem HP-65 den ersten programmierbaren Taschenrechner vor und Motorola baute den 6800-Prozessor, wĂ€hrenddessen Intel den 8080 Prozessor fertigte. 1975 begann MITS mit der Auslieferung des Altair 8800. 1975 stellte IBM mit der IBM 5100 den ersten tragbaren Computer vor. Eine WortlĂ€nge von 8 Bit und die Einengung der (schon existierenden) Bezeichnung Byte auf dieses Maß wurden in dieser Zeit gelĂ€ufig.

1975 Maestro I (ursprĂŒnglich Programm-Entwicklungs-Terminal-System PET) von Softlab war weltweit die erste Integrierte Entwicklungsumgebung fĂŒr Software. Maestro I wurde weltweit 22.000-mal installiert, davon 6.000-mal in der Bundesrepublik Deutschland. Maestro I war in den 70er und 80er Jahren fĂŒhrend auf diesem Gebiet.

1976 stellte Apple Computer den Apple I vor und Zilog entwickelte den Z80-Prozessor. 1977 kamen der Apple II, der Commodore PET und der Tandy TRS 80 auf den Markt, 1978 die VAX-11/780 von DEC, eine Maschine speziell fĂŒr virtuelle Speicheradressierung. 1979 schließlich startete Atari den Verkauf seiner Rechnermodelle 400 und 800. RevolutionĂ€r war bei diesen, dass mehrere Custom-Chips den Hauptprozessor entlasteten.

1980er

C64 mit 5ÂŒâ€ł-Diskette und Laufwerk

Die 1980er waren die BlĂŒtezeit der Heimcomputer, zunĂ€chst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 KiB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider/Amstrad CPC 464/664, Atari XL/XE-Reihe), spĂ€ter auch leistungsfĂ€higere Modelle mit 16-Bit- (Texas Instruments TI-99/4A) oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST). Diese Entwicklung wurde durch IBM in Gang gesetzt, die 1981 den IBM-PC (Personal Computer) vorstellten und damit entscheidend die weitere Entwicklung bestimmten.

1982 brachte Intel den 80286-Prozessor auf den Markt und Sun Microsystems entwickelte die Sun-1 Workstation. Nach dem ersten BĂŒro-Computer mit Maus, Lisa, der 1983 auf den Markt kam, wurde 1984 der Apple Macintosh gebaut und setzte neue MaßstĂ€be fĂŒr Benutzerfreundlichkeit. Die Sowjetunion konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums in Akademgorodok. Im Januar 1985 stellte Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. Im Juli produzierte Commodore den ersten Amiga-Heimcomputer. In Sibirien wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ fĂŒr vier Jahre in Serie ging. 1986 brachte Intel den 80386-Prozessor auf den Markt, 1989 den 80486. Ebenfalls 1986 prĂ€sentierte Motorola den 68030-Prozessor. 1988 stellte NeXT mit Steve Jobs, MitgrĂŒnder von Apple, den gleichnamigen Computer vor.

Die Computer-Fernvernetzung, deutsch „DFÜ“ (DatenfernĂŒbertragung), ĂŒber das Usenet wurde an UniversitĂ€ten und in diversen Firmen immer stĂ€rker benutzt. Auch Privatleute strebten nun eine Vernetzung ihrer Computer an; Mitte der 1980er Jahre entstanden Mailboxnetze, zusĂ€tzlich zum FidoNet das Z-Netz und das MausNet.

1990er

Die 1990er sind das Jahrzehnt des Internets und des World Wide Web. (Siehe auch Geschichte des Internets, Chronologie des Internets) 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) die PowerPC-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 brachte Intel den Pentium-Prozessor auf den Markt, 1995 den Pentium Pro. 1994 stellte Leonard Adleman mit dem TT-100 den ersten Prototypen fĂŒr einen DNA-Computer vor, im Jahr darauf Be Incorporated die BeBox. 1999 baute Intel den Supercomputer ASCI Red mit 9.472 Prozessoren und AMD stellte mit dem Athlon den Nachfolger der K6-Prozessorfamilie vor.

Entwicklung im 21. Jahrhundert

Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwĂ€rtig und allgemein akzeptiert. WĂ€hrend die LeistungsfĂ€higkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in die Telekommunikation und Bildbearbeitung integriert. 2001 baute IBM den Supercomputer ASCI White, und 2002 ging der NEC Earth Simulator in Betrieb. 2003 lieferte Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren fĂŒr den Massenmarkt. AMD zog mit dem Opteron und dem Athlon 64 nach. 2005 produzierten AMD und Intel erste Dual-Core-Prozessoren, 2006 doppelte Intel mit den ersten Core 2 Quad-Prozessoren nach. Seit Ende 2008 gibt es von Intel die Core-i-CPU-Serie. Entwicklungen wie Mehrkernprozessoren, Berechnung auf Grafikprozessoren (GPGPU) und Tablet-PCs bzw. allgemeiner Tablet-Computer, wie z. B. dem iPad, dominieren in den letzten Jahren (Stand 2011) das Geschehen.

Zukunftsperspektiven

ZukĂŒnftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren VerknĂŒpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und KĂŒnstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.

FĂŒr weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, UbiquitĂ€res Computing (= Rechnerallgegenwart) und Wearable Computing.

Zeitleiste

Google Earth Peer-to-Peer Videoportal VRML Suchmaschine Streaming Media Suchmaschine Webcam Webbrowser File Transfer Protocol WYSIWYG Usenet SPAM Mailbox (Computer) Tabellenkalkulation Ego-Shooter IP-Telefonie Pong E-Mail Datenbanksystem Textverarbeitung Computerspiel OPREMA OPREMA Compiler Computermusik Computermusik Mark I (Computer) Colossus Zuse Z3#Anwendung F-Sharp Kylix C-Sharp D (Programmiersprache) PHP Ruby (programming language) Java (Programmiersprache) JavaScript Delphi (Programmiersprache) AppleScript Visual Basic Python (Programmiersprache) Perl SQL HyperCard Eiffel (Programmiersprache) PostScript PARADOX Turbo Pascal C++ Ada (Programmiersprache) DBASE REXX VISICALC Prolog C (Programmiersprache) Smalltalk Pascal (Programmiersprache) Logo BASIC PLI Simula APL (Programmiersprache) COBOL LISP ALGOL FORTRAN Mark I Autocode A-0 PlankalkĂŒl Google Chrome OS Microsoft Windows 7 Apple iOS Microsoft Windows Vista Ubuntu Microsoft Windows Server 2003 Z/OS Microsoft Windows XP Mac OS X Extensible Firmware Interface Microsoft Windows 2000 Microsoft Windows Millennium Edition Mac OS Mac OS Microsoft Windows 98 EPOC (computing) Mac OS Debian GNU/Linux Microsoft Windows 95 OS/390 OpenBSD Red Hat Linux Red Hat Linux Windows Windows Solaris (Betriebssystem) Linux (Betriebssystem) OSF/1 BeOS SCO UNIX RISC OS NEXTSTEP OS/400 Windows OS/2 Minix IRIX HP-UX Apple IIgs AIX operating system Windows TOS AmigaOS Mac OS Apple Lisa SunOS MS-DOS Basic Input Output System OS-9 Virtual Memory System Apple DOS Apple DOS CP/M MVS VM/CMS Unix Airline Control Program CP/CMS OS/360 Apple iPad Intel-Core-i-Serie AMD K10 Intel Core Athlon 64 PowerPC 970 Intel Pentium III Apple Power Macintosh Apple iMac Intel Pentium Intel 80486 PS/2 Connection Machine Acorn Archimedes Apple IIgs Amstrad 1512 Atari ST Amiga 1000 IBM PC AT Apple Macintosh IBM PCjr IBM PC XT Apple Lisa Connection Machine ZX Spectrum Compaq Portable Intel 80286 Commodore 64 BBC Micro IBM-PC ZX81 8010 ZX80 Commodore VIC-20 Motorola 68000 Commodore PET 2001 Intel 8086 TRS-80 Apple II MOS Technologies 6502 Cray Zilog Z80 Einplatinen-Computer Einplatinen-Computer Altair 8800 Altair 8800 Altair 8800 Motorola 6800 Intel 8080 Programmierbarer Taschenrechner Programmierbarer Taschenrechner Superminicomputer Superminicomputer Intel 8008 Intel 4004 BESM (Computer) CDC 6600 PDP-8 System/360 ATLAS OPREMA TRADIC BESM (Computer) UNIVAC 1101 UNIVAC I Remington Rand 409 BINAC Electronic Discrete Variable Automatic Computer Electronic Delay Storage Automatic Calculator Manchester Mark I ENIAC Zuse Z4 Colossus Bell Laboratories#Meilensteine Harvard Mark I Atanasoff-Berry-Computer Zuse Z3 Zuse Z3 Bell Laboratories#Meilensteine Zuse Z1 Thunderbolt (Schnittstelle) USB 3.0 GPGPU PCI-Express HyperTransport Serial ATA Digital Visual Interface Ethernet#Gigabit-Ethernet DSL Universal Serial Bus FireWire DNA-Computer CD-i VESA SVGA Hyper-Threading Advanced Technology Attachment Extended Industry Standard Architecture VGA CD-ROM Enhanced Graphics Adapter Postscript Expanded Memory Specification Advanced Technology Attachment Domain Name System GNU Soundkarte Koprozessor Laptop RISC Musical Instrument Digital Interface Color Graphics Adapter Industry Standard Architecture WIMP (Benutzerschnittstelle) GUI Festplattenlaufwerk SCSI Compact Disc ARCNET Laserdrucker TCP/IP#Geschichte Ethernet Spielkonsole Mikroprozessor#Geschichte Diskette Dynamic Random Access Memory RS-232 ARPANET Lichtwellenleiter Paketvermittlung Fuzzy-Logik Time Sharing Maus (EDV) Paging Virtueller Speicher Interrupt Spooling Integrierter Schaltkreis Integrierter Schaltkreis Matrixdrucker Festplatte Kernspeicher Kernspeicher Magnettrommelspeicher Halbleiterspeicher Transistor Register (Computer)#Geschichte Anwendungssoftware Programmiersprache Betriebssystem Hardware Erfindung Computer#Geschichte

Weltweite Marktanteile der Computerhersteller

Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des Marktforschungsunternehmens Gartner Inc., basierend auf Verkaufszahlen von Desktop-Computer, Notebooks, Netbooks aber ohne Tablet-Computer an Endkonsumenten:[3]

Rang Hersteller Land Verkaufszahlen 2010 Marktanteil 2010 Verkaufszahlen 2009 Marktanteil 2009
1. Hewlett-Packard Flag of the United States.svg 62.768.547 17,9 % 58,942,530 19,1 %
2. Acer-Gruppe Flag of the Republic of China.svg 45.265.678 12,9 % 39.783.933 12,9 %
3. Dell Flag of the United States.svg 42.123.680 12,0 % 37.353.774 12,1 %
4. Lenovo Flag of the People's Republic of China.svg 33.965.812 9,7 % 24.735.404 8,0 %
5. Toshiba Flag of Japan.svg 19.011.752 5,4 % 15.499.805 5,0 %
Sonstige Hersteller 147.768.653 42,1 % 132.026.226 42,8 %
Insgesamt 350.904.121 100 % 308.341.673 100 %

Bekannte Computerhersteller

Bekannte ehemalige Computerhersteller

Siehe auch

Quellenangaben

  1. ↑ etymonline.com: compute. Abgerufen am 22. September 2010.
  2. ↑ http://www.heise.de/tp/deutsch/inhalt/co/18371/1.html
  3. ↑ http://www.gartner.com/it/page.jsp?id=1519417

Literatur

  • Konrad Zuse: Der Computer – Mein Lebenswerk, Springer: Berlin, 1993, ISBN 3-540-56292-3
  • Ron White: So funktionieren Computer. Ein visueller Streifzug durch den Computer & alles, was dazu gehört, Markt+Technik: MĂŒnchen, 2004, ISBN 3-8272-6714-5
  • M. Budde: Computer-Allgemeinwissen, Kostenloses Computerbuch fĂŒr absolute AnfĂ€nger, PDF-Datei

Geschichte

  • Berkeley, Edmund Callis: Giant Brains or Machines That Think, New York: John Wiley & Sons 1949 (7. Aufl. 1963) – die erste populĂ€re Darstellung der EDV, trotz des fĂŒr moderne Ohren seltsam klingenden Titels sehr seriös und fundiert – relativ einfach antiquarisch und in fast allen Bibliotheken zu finden
  • Bowden, B. V. (Hg.): Faster Than Thought, New York: Pitman 1953 (Nachdruck 1963) – eine frĂŒhe populĂ€re Darstellung der EDV, gibt den Stand seiner Zeit verstĂ€ndlich und ausfĂŒhrlich wieder; nur mehr antiquarisch und in Bibliotheken zu finden, ISBN 0-273-31580-3
  • Friedewald, Michael, Der Computer als Werkzeug und Medium. Die geistigen und technischen Wurzeln des Personalcomputers, GNT-Verlag 2000, ISBN 3928186477 â€“ hervorragende Studie
  • Head, Simon, The New Ruthless Economy. Work and Power in the Digital Age, Oxford UP 2005, ISBN 0-19-517983-8 - der Einsatz des Computers in der Tradition des Taylorismus
  • Hoffmann, Ute, Computerfrauen. Welchen Anteil hatten Frauen an der Computergeschichte und -arbeit?, MĂŒnchen 1987
  • N.N.: Loading History. Computergeschichte(n) aus der Schweiz, Bern: Museum fĂŒr Kommunikation 2001 ISBN 3-0340-0540-7 – Ausstellungskatalog zu einer Sonderausstellung mit Schweizer Schwerpunkt, aber fĂŒr sich alleine lesbar
  • N.N.: HNF Heinz Nixdorf Forum MuseumsfĂŒhrer, Paderborn: HNF 2000 ISBN 3-9805757-2-1 – MuseumsfĂŒhrer des nach eigener Darstellung weltgrĂ¶ĂŸten Computermuseums
  • Weinhart, Karl: Informatik und Automatik. FĂŒhrer durch die Ausstellungen, MĂŒnchen: Deutsches Museum 1990 ISBN 3-924183-14-7 – der Katalog zu den permanenten Ausstellungen des Deutschen Museums zum Thema; vor allem als ergĂ€nzende Literatur zum Ausstellungsbesuch empfohlen
  • Wurster, Christian: Computers. Eine illustrierte Geschichte, Taschen 2002 ISBN 3-8228-5729-7 â€“ eine vom Text her leider nicht sehr exakte Geschichte der EDV mit einzelnen Fehlern, die aber durch die GastbeitrĂ€ge einzelner Persönlichkeiten der Computergeschichte und durch die zahlreichen Fotos ihren Wert hat
  • Reifenrath, Andre: Geschichte der Simulation, Humboldt UniversitĂ€t, Dissertation, Berlin 2000. Geschichte des Computers von den AnfĂ€ngen bis zur Gegenwart unter besonderer BerĂŒcksichtigung des Themas der Visualisierung und Simulation durch den Computer.

PrimÀrquellen

  • Claude E. Shannon: A Symbolic Analysis of Relay and Switching Circuits, in: Transactions of the American Institute of Electrical Engineers, Volume 57, 1938, Seite 713–723

Weblinks

 Commons: Computer â€“ Sammlung von Bildern, Videos und Audiodateien
Wiktionary Wiktionary: Computer â€“ BedeutungserklĂ€rungen, Wortherkunft, Synonyme, Übersetzungen
 Wikiquote: Computer â€“ Zitate
Wikinews Wikinews: Portal:Computer â€“ in den Nachrichten
Wikibooks Wikibooks: Computergeschichte â€“ Lern- und Lehrmaterialien

Computermuseen


Wikimedia Foundation.

Synonyme:

Schlagen Sie auch in anderen WörterbĂŒchern nach:

  • computer — com‧put‧er [kəmˈpjuːtə ǁ ər] noun [countable, uncountable] COMPUTING an electronic machine that can do calculations very quickly, store information or documents, or do tasks according to a set of instructions called a program: ‱ We store all our… 
   Financial and business terms

  • computer — COMPÚTER, computere, s.n. Calculator electronic; ordinator. ♱ Computer familial = microcalculator pentru prelucrarea Ɵi vizualizarea informaĆŁiilor provenite de la o serie de periferice, specific aplicaĆŁiilor familiale (utilitare, educaĆŁionale,… 
   Dicționar RomĂąn

  • computer — /komˈpjuter, ingl. kəmˈpjuːtə(r)/ [vc. ingl., «calcolatore», da to compute «calcolare», dal fr. computer «computare»] s. m. inv. calcolatore, elaboratore, elaboratore elettronico, cervello elettronico □ (est.) personal computer, PC, home computer 
   Sinonimi e Contrari. Terza edizione

  • Computer — Com*put er (k[o^]m*p[=u]t [ e]r), n. 1. One who computes. 2. (Computers) an electronic device for performing calculations automatically. It consists of a clock to provide voltage pulses to synchronize the operations of the devices within the… 
   The Collaborative International Dictionary of English

  • computer — ● computer ou computeur nom masculin (anglais computer, de to compute, calculer) Synonyme de ordinateur. ● computer ou computeur (synonymes) nom masculin (anglais computer, de to compute, calculer) Synonymes : ordinateur 
   EncyclopĂ©die Universelle

  • Computer — Sm std. (20. Jh.) Entlehnung. Entlehnt aus ne. computer, einer Ableitung von ne. compute berechnen , dieses aus frz. computer, aus l. computāre berechnen, zusammenrechnen, ĂŒberschlagen , zu l. putāre rechnen, berechnen, putzen, reinigen und l.… 
   Etymologisches Wörterbuch der deutschen sprache

  • Computer — [Basiswortschatz (Rating 1 1500)] Auch: ‱ Rechner Bsp.: ‱ Wir haben einen neuen Computer in unserem BĂŒro. ‱ Mein neuer Computer ist sehr leistungsfĂ€hig. ‱ Welcher Laden verkauft Computer? 
   Deutsch Wörterbuch

  • computer — 1640s, one who calculates, agent noun from COMPUTE (Cf. compute). Meaning calculating machine (of any type) is from 1897; in modern use, programmable digital electronic computer (1945; theoretical from 1937, as Turing machine). ENIAC (Cf. ENIAC)… 
   Etymology dictionary

  • computer — [kəm pyo͞otâ€Čər] n. 1. a person who computes 2. a device used for computing; specif., an electronic machine which, by means of stored instructions and information, performs rapid, often complex calculations or compiles, correlates, and selects… 
   English World dictionary

  • Computer — Computer: Die Bezeichnung fĂŒr »elektronische Rechenanlage; Rechner« wurde in der 2. HĂ€lfte des 20. Jh.s aus gleichbed. engl. computer entlehnt. Das engl. Wort gehört zum Verb engl. to compute »â€čbeâ€șrechnen«, das auf lat. computare… 
   Das Herkunftswörterbuch

  • computer — [n] calculating, data processing machine abacus, adding machine, analog, artificial intelligence, brain*, calculator, clone, CPU, data processor, digital, electronic brain*, laptop*, MAC, mainframe, micro*, microcomputer, mini*, minicomputer,… 
   New thesaurus


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.