Computer

3.4036120926485 (2547)
Geschrieben von bishop 20/04/2009 @ 16:13

Tags : computer, high-tech

Neueste Nachrichten
Innenminister-Beschluss Verbot für Killerspiele am Computer - Bild.de
Noch vor der Bundestagswahl wollen die Innenminister der 16 Bundesländer ein Verbot von Killerspielen am Computer verabschieden. von Winnenden Auf einem bei ihrer Frühjahrskonferenz am Freitag in Bremerhaven gefassten Beschluss forderten die...
Flippern mit Gedankenkraft - Spiegel Online
Schließt man die Elektroden-Mütze an einen Computer an, kann man ihm beibringen, die EEG-Muster den jeweiligen Gedanken zuzuordnen. Mittels einer ausgeklügelten Software lassen sich die Gedanken dann in Befehle übersetzen, die Maschinen steuern oder...
Computer: Zeitung: Rückkehr von Steve Jobs noch im Juni - FOCUS Online
Apple-Chef Steve Jobs wird laut einem Zeitungsbericht nach seiner langen Krankheit noch in diesem Monat wieder an seinen Schreibtisch zurückkehren. Das „Wall Street Journal“ beruft sich dabei auf „Menschen, die mit Apple vertraut sind“....
Download: Laden Sie das Gratis-Programm Windows 7 Upgrade Advisor ... - Bild.de
Ist Ihr Computer für den Vista-Nachfolger Windows 7 schnell genug? COMPUTER BILD zeigt, wie Sie im Handumdrehen mit dem „Windows 7 Upgrade Advisor“ die Kompatibilität prüfen. Bis Juli 2009 bietet Microsoft eine Vorabversion von Windows 7 zum Download...
Download: Lightscribe System Software 1.18.5.1 - PC Games Hardware
Lightscribe-fähige Computer oder Brenner sind generell mit dem LightScribe-Logo oder mit dem Begriff "Lightscribe" auf dem Laufwerk oder auf dem Computer selbst gekennzeichnet. • Beschriftungssoftware mit Lightscribe-Unterstützung....
Computer-Ausfälle in Eurofighter-Jets - SF Tagesschau
Bei einigen Kampfjets vom Typ Eurofighter gibt es einem Bericht des Nachrichtenmagazins «Spiegel» zufolge ein elektronisches Problem: Mitten im Flug fallen bisweilen die Computer-Bildschirme aus. Der Eurofighter ist einer von drei Jets,...
POL-WES: Wesel - Computer aus Büro geklaut - news aktuell (Pressemitteilung)
Wesel (ots) - Ein unbekannter Täter betrat am Freitag zwischen 17.30 Uhr und 18.30 Uhr den Verkaufsraum eines Geschäftes an der Straße Am Spaltmannsfeld. Der Besitzer befand sich zu diesem Zeitpunkt in einem Lager des Geschäftes....
SPD-Innenexperte will Internetzensur durch das Grundgesetz verbieten - Bild.de
„Meine Idee ist, aus einem ungeschriebenen Computer-Grundrecht ein geschriebenes Internet-Grundrecht zu machen, wegen der besonderen Bedeutung dieses neuen Raums der Kommunikation.“ Einem Zeitungsbericht, nach dem er neben Kinderporno-Seiten weitere...
Flipper lässt sich mit Gedanken steuern - RP ONLINE
Forscher der Technischen Universität Berlin haben eine Brücke zwischen Gehirn und Computer geschlagen. Mit dem "Brain-Computer Interface" konnte ein Proband einen Flipper in Echtzeit steuern – mit der Kraft seiner Gedanken. Die Universität hat zusammen...
Tischtennis: Boll wieder Nummer drei - Berliner Morgenpost
Der dreifache Europameister vom Champions-League-Sieger Borussia Düsseldorf, zuletzt im Mai 2007 so weit vorn und 2003 im Computer die erste Nummer eins aus Deutschland, schob sich im Juni-Ranking vor Chinas Olympiasieger Ma Lin....

Computer

IBM PC 5150.jpg

Ein Computer, (von lat.: computare, zusammenrechnen) auch Rechner genannt, ist ein Apparat, der Daten mit Hilfe einer programmierbaren Rechenvorschrift verarbeiten kann. Der englische Begriff computer, abgeleitet vom Verb to compute (rechnen), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten Electronic Numerical Integrator and Computer (kurz ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich Computer als Gattungsbegriff für diese neuartigen Maschinen.

Zunächst war die Informationsverarbeitung mit Computern auf die Verarbeitung von Zahlen beschränkt. Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden: Sie dienen der Verarbeitung und Ausgabe von Informationen in Wirtschaft und Behörden, der Berechnung der Statik von Bauwerken bis hin zur Steuerung von Waschmaschinen und Automobilen. Die leistungsfähigsten Computer werden eingesetzt, um komplexe Vorgänge zu simulieren: Beispiele sind die Klimaforschung, thermodynamische Fragestellungen, medizinische Berechnungen – bis hin zu militärischen Aufgaben, zum Beispiel der Simulation des Einsatzes von nuklearen Waffen. Viele Geräte des Alltags, vom Telefon über den Videorekorder bis hin zur Münzprüfung in Warenautomaten, werden heute von integrierten Kleinstcomputern gesteuert (eingebettetes System).

Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet; er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet.

Heute werden fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsätzliche Bausteine unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.

Ein Digitalcomputer besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen so genannten Speicher bereit, in dem Daten wie in Schubladen gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich, und der bedingte Sprung. Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und Bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.

Analogrechner funktionieren jedoch nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern verdrängt worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten.

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).

Der Speicher ist eine Anzahl von durchnummerierten „Zellen“; jede von ihnen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also einer Abfolge von ja/nein-Informationen, in der Speicherzelle abgelegt – besser vorzustellen als eine Folge von Nullen und Einsen. Ein Charakteristikum der „Von Neumann-Architektur“ ist, dass diese Binärzahl (beispielsweise 01000001, was der Dezimalzahl 65 entspricht) entweder ein Teil der Daten sein kann (also zum Beispiel der Buchstabe „A“), oder ein Befehl für die CPU („Springe ...“).

Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich).

Dem gegenüber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung, dadurch können Daten-Schreiboperationen keine Programme überschreiben.

In der Von-Neumann-Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen „Zeiger“ auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel „65“, erkennt dies als „Springe“. Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wohin sie springen soll. Sie liest auch diesen Wert aus, und interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle. Dann setzt sie den Zeiger auf eben diese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt „Springe“ lauten würde „Lies Wert“, dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen, welche die Steuereinheit aus zwei Speicherzellen ausgelesen hat) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder wieder in eine dritte Speicherzelle zurückschreiben kann.

Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.

Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus höheren Strukturen heraus automatisch.

Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B. das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat).

In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.

Während früher eine CPU nur mit diesem Maschinencode gesteuert werden konnte, sind inzwischen auch CPUs programmierbar und damit kleine eigenständige Computer.

Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen oder elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im Folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben.

Das Konzept der Zahlen lässt sich auf keine konkreten Wurzeln zurückführen und hat sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Entsprechend findet man in allen bekannten Sprachen mindestens für die Zahlen eins und zwei und auch in der Kommunikation von vielen Tierarten (etwa verschiedener Primaten, aber auch Vögeln wie der Amsel) lässt sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von Gegenständen feststellen.

Die Weiterentwicklung dieser einfachen numerischen Systeme führte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperation wie der Addition, der Subtraktion, der Multiplikation und der Division oder auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtungen, etwa die von Euklid entwickelte Darstellung des größten gemeinsamen Teilers.

Im Mittelalter erreichte das Arabische Zahlensystem Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, Ausdrücke und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln oder des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.

Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der Abakus, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indochinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten Rechenmaschinen ersetzt. In ärmeren Regionen der Welt wird der Abakus noch immer als Rechenhilfe verwendet. Einem ähnlichen Zweck diente auch das Rechenbrett des Pythagoras. Ebenfalls zu den frühen Rechenmaschinen gehört die Balkenwaage, die allerdings keinen numerischen Ansatz bietet sondern mit deren Hilfe versucht werden soll, beidseitig einer gemeinsamen Aufhängung eine Gleichheit des Gewichtes zu erreichen.

Bereits im 1. Jh. v. Chr. wurde mit dem Computer von Antikythera die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem Differentialgetriebe, einer erst im 13. Jahrhundert wiederentdeckten Technik.

Mit dem Untergang der Antike kam der technische Fortschritt zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Das Mittelalter schließlich hemmte den technischen Fortschritt. Doch ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan - und dies tut er bis heute.

1614 publizierte John Napier seine Logarithmentafel und 1623 baute Wilhelm Schickard die erste Vier-Spezies-Maschine und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von Zahnrädern, die im Wesentlichen aus dem Bereich der Uhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von Johannes Kepler bei seinen astronomischen Berechnungen.

1642 folgte Blaise Pascal mit seiner Rechenmaschine, der Pascaline. 1668 entwickelte Samuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute Gottfried Wilhelm Leibniz seine erste Vier-Spezies-Maschine und erfand 1703 das binäre Zahlensystem (Dualsystem), das später die Grundlage für die Digitalrechner und darauf aufbauend die digitale Revolution wurde.

1805 entwickelte Joseph-Marie Jacquard Lochkarten, um Webstühle zu steuern. 1820 baute Charles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte. Charles Babbage entwickelte von 1820 bis 1822 die Differenzmaschine (engl. Difference Engine) und 1833 die Analytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und George Scheutz in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte Ada Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt. Im gleichen Jahr baute Torres y Quevedo eine Schachmaschine, die mit König und Turm einen König matt setzen konnte, und somit den ersten Spielcomputer.

Mechanische Rechner wie die darauf folgenden Addierer, der Comptometer, der Monroe-Kalkulator, die Curta und der Addo-X wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das Dezimalsystem, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von Charles Babbage um 1800 wie auch für den ENIAC von 1945, den ersten elektronischen Universalrechner überhaupt.

Es wurden jedoch auch nichtmechanische Rechner gebaut, wie der Wasserintegrator.

1935 stellten IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im gleichen Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer und Alan Turing publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.

Während des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur Entschlüsselung der ENIGMA-Codes und baute dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt. Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte, binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3. Die Z3 war turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden erstellt.

Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im gleichen Jahr stellte Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig .

Das Ende des Zweiten Weltkriegs erlaubte es, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. 1946 wurde der Electronical Numerical Integrator and Computer (ENIAC) unter der Leitung von John Eckert und John Mauchly entwickelt. ENIAC ist der erste elektronische digitale Universalrechner. 1947 baute IBM den Selective Sequence Electronic Calculator (SSEC), einen Hybridcomputer mit Röhren und mechanischen Relais und die Association for Computing Machinery (ACM) wurde als erste wissenschaftliche Gesellschaft für Informatik gegründet. Im gleichen Jahr wurde auch der Transistor erfunden, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten 1956 den Nobelpreis für Physik. In die späten 1940er Jahre fällt auch der Bau des Electronic Discrete Variable Automatic Computer (EDVAC), der erstmals die Von-Neumann-Architektur implementierte.

1949 stellte Edmund C. Berkeley, Begründer der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft wurden. Im selben Jahr stellte Maurice Wilkes mit seinem Team in Cambridge den Electronic Delay Storage Automatic Calculator (EDSAC) vor; basierend auf John von Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar war. Ebenfalls 1949 stellte Steve Kolberg die Zuse Z4 fertig, deren Bau schon 1942 begonnen wurde und 1944 in wesentlichen Teilen abgeschlossen war, aber kriegsbedingt nicht fertiggestellt werden konnte. 1950 wurde die Z4 von der Firma Zuse KG an die ETH Zürich geliefert und ging dort in Betrieb.

In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. Unter der Leitung von Prof. Alwin Walther wurde am Institut für Praktische Mathematik (IPM) der TH Darmstadt ab 1951 der DERA (Darmstädter Elektronischer Rechenautomat) erbaut. Remington Rand baute 1951 ihren ersten kommerziellen Röhrenrechner, den UNIVersal Automatic Computer I (UNIVAC I) und 1955 Bell Labs für die US Air Force mit dem TRansistorized Airborne DIgital Computer (TRADIC) den ersten Computer, der komplett mit Transistoren statt Röhren bestückt war; im gleichen Jahr begann Heinz Zemanek mit der Konstruktion des ersten auf europäischem Festland gebauten Transistorrechners, dem Mailüfterl. Ebenfalls im gleichen Jahr baute die DDR mit der „OPtik-REchen-MAschine“ (OPREMA) ihren ersten Computer. 1956 fertigte IBM das erste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde die Electrologica X1 als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium für mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer "XYZ" vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begann Siemens mit der Auslieferung des Siemens 2002, des ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers.

1960 baute IBM den IBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, und DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 lieferte die Telefunken AG die ersten TR 4 aus. 1964 baute DEC den Minicomputer PDP-8 für unter 20.000 Dollar.

1964 definierte IBM die erste Computerarchitektur S/360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt. 1965 stellte das Moskauer Institut für Präzisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit dem BESM-6 den ersten exportfähigen Großcomputer der UdSSR vor. BESM-6 wurde ab 1967 mit Betriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mit D4a ein 33bit Auftischrechner der TU Dresden.

1968 bewarb Hewlett-Packard (HP) den HP-9100A in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“. Die 1968 entstandene Nixdorf Computer AG erschloss zunächst in Deutschland und Europa, später auch in Nordamerika, einen neuen Computermarkt: die Mittlere Datentechnik, bzw. die dezentrale elektronische Datenverarbeitung. Massenhersteller wie IBM setzten weiterhin auf Großrechner und zentralisierte Datenverarbeitung, wobei Großrechner für kleine und mittlere Unternehmen schlicht zu teuer waren und die Großhersteller den Markt der Mittleren Datentechnik nicht bedienen konnten. Nixdorf stieß in diese Marktnische mit dem modular aufgebauten Nixdorf 820 vor, brachte dadurch den Computer direkt an den Arbeitsplatz und ermöglichte kleinen und mittleren Betrieben die Nutzung der elektronischen Datenverarbeitung zu einem erschwinglichen Preis. Im Dezember 1968 stellten Douglas C. Engelbart und William English vom Stanford Research Institute (SRI) die erste Computermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessierte dies jedoch kaum jemanden.

1971 war es Intel, die mit dem 4004 den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferte Telefunken den TR 440 an das Deutsche Rechenzentrum Darmstadt, sowie an die Universitäten Bochum und München. 1972 ging der Illiac IV, ein Supercomputer mit Array-Prozessoren, in Betrieb. 1973 erschien mit Xerox Alto der erste Computer mit Maus, graphischer Benutzeroberfläche (GUI) und eingebauter Ethernet-Karte; und die französische Firma R2E begann mit der Auslieferung des Micral. 1974 stellte HP mit dem HP-65 den ersten programmierbaren Taschenrechner vor und Motorola baute den 6800-Prozessor, währenddessen Intel den 8080 Prozessor fertigte. 1975 begann MITS mit der Auslieferung des Altair 8800.

1975 Maestro I (ursprünglich Programm-Entwicklungs-Terminal-System PET) von Softlab war weltweit die erste Integrierte Entwicklungsumgebung für Software. Maestro I wurde weltweit 22.000 Mal installiert, davon 6.000 Mal in der Bundesrepublik Deutschland. Maestro I war in den 70er und 80er Jahren führend auf diesem Gebiet.

1976 stellte Apple Computer den Apple I vor und Zilog entwickelte den Z80-Prozessor. 1977 kamen der Apple II, der Commodore PET und der Tandy TRS 80 auf den Markt, 1978 die VAX-11/780 von DEC, eine Maschine speziell für virtuelle Speicheradressierung. 1979 schließlich startete Atari den Verkauf seiner Rechnermodelle 400 und 800. Revolutionär war bei diesen, dass mehrere Custom-Chips den Hauptprozessor entlasteten.

Die 1980er waren die Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 kB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider/Amstrad CPC 464/664), später auch leistungsfähigere Modelle mit 16-Bit- oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST). Diese Entwicklung wurde durch IBM in Gang gesetzt, die 1981 den IBM-PC (Personal Computer) vorstellten und damit entscheidend die weitere Entwicklung bestimmten.

1982 brachte Intel den 80286-Prozessor auf den Markt und Sun Microsystems entwickelte die Sun-1 Workstation. Nach dem ersten Büro-Computer mit Maus, Lisa, der 1983 auf den Markt kam, wurde 1984 der Apple Macintosh gebaut und setzte neue Maßstäbe für Benutzerfreundlichkeit. Die Sowjetunion konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums in Akademgorodok. Im Januar 1985 stellte Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. Im Juli produzierte Commodore den ersten Amiga-Heimcomputer. In Sibirien wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ für vier Jahre in Serie ging. 1986 brachte Intel den 80386-Prozessor auf den Markt, 1989 den 80486. Ebenfalls 1986 präsentierte Motorola den 68030-Prozessor. 1988 stellte NeXT mit Steve Jobs, Mitgründer von Apple, den gleichnamigen Computer vor.

Die 1990er sind das Jahrzehnt des Internets und des World Wide Web. (Siehe auch Geschichte des Internets, Chronologie des Internets) 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) die PowerPC-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 brachte Intel den Pentium-Prozessor auf den Markt, 1995 den Pentium Pro. 1994 stellte Leonard Adleman mit dem TT-100 den ersten Prototypen für einen DNA-Computer vor, im Jahr darauf Be Incorporated die BeBox. 1999 baute Intel den Supercomputer ASCI Red mit 9.472 Prozessoren und AMD stellte mit dem Athlon den Nachfolger der K6-Prozessorfamilie vor.

Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert. Während die Leistungsfähigkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in die Telekommunikation und Bildbearbeitung integriert. 2001 baute IBM den Supercomputer ASCI White und 2002 ging der NEC Earth Simulator in Betrieb. 2003 lieferte Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zog mit dem Opteron und dem Athlon 64 nach. 2005 produzierten AMD und Intel erste Dual-Core Prozessoren, 2006 doppelte Intel mit den ersten Core 2 Quad-Prozessoren nach.

Zukünftige Entwicklungen bestehen aus der möglichen Nutzung biologischer Systeme (Biocomputer), optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Weitere Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung. Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und Künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Pervasive Computing, Ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Zum Seitenanfang



Computer Aided Design

Ein einfaches Bauteil in 3D-Ansicht (CATIA V5)

Der Begriff Rechnerunterstützte Konstruktion oder englisch Computer Aided Design (CAD) bezeichnet das Erstellen von Konstruktionsunterlagen für mechanische, elektrische oder elektronische Erzeugnisse mit Hilfe von spezieller Software, zum Beispiel im Anlagenbau, Maschinenbau, Autobau, Flugzeugbau, Schiffbau, in der Zahnmedizin und auch in der Architektur, im Bauwesen sowie im Modedesign.

Mit modernen 3D-CAD-Programmen werden zunächst dreidimensionale Volumenmodelle erstellt. Daraus können zwei- oder dreidimensionale Zeichnungen und bewegte Visualisierungen der Objekte abgeleitet werden. Darüber hinaus lassen sich Bauteileigenschaften wie z. B. Volumen, Gewicht, Schwerpunkt und Trägheitsmomente berechnen.

Ausgehend von den Volumenmodellen lassen sich mit Hilfe spezieller Software Simulationen durchführen, zum Beispiel für mechanische und/oder thermische Belastung (Finite-Elemente-Methode) bei Bauteilen, Lichtsimulationen oder Simulationen des Innenklimas bei Gebäuden, Strömungssimulationen (Wind oder Wellen), Crashsimulationen im Fahrzeugbau und Simulationen verschiedener Fertigungsverfahren (zum Beispiel Spritzgießen) oder elektromagnetische Feldsimulationen.

CAD-Modelle können auch als Eingangsdaten für generative Fertigungsverfahren und die Steuerung von CNC-Maschinen verwendet werden. CAD ist zudem Bestandteil der computerintegrierten Produktion (CIM), bei der sich dem rechnergestützten Entwurf die rechnergesteuerte Fertigung anschließt.

CAD-Programme gibt es für zahlreiche verschiedene Anwendungsfälle und Betriebssysteme. Siehe dazu die Liste von CAD-Programmen und die Liste elektronischer CAD-Lösungen.

Ein weiteres Anwendungsgebiet ist der Entwurf von elektronischen Schaltungen. Entsprechende Programme werden oft auch unter den Begriffen eCAD und EDA zusammengefasst, insbesondere bei Anwendungen im Leiterplattenentwurf und der Installationstechnik (siehe unten).

Wegen der besonderen Anforderungen haben sich Spezialbereiche mit teilweise stark unterschiedlichen Entwicklungsmethoden gebildet, besonders für den computerbasierten Chipentwurf, d.h. die Entwurfsautomatisierung (EDA) für analoge oder digitale Integrierte Schaltkreise, zum Beispiel ASICs. Hierzu verwandt ist das Design von programmierbaren Bausteinen wie Gate Arrays, GALs, FPGA und anderen Typen programmierbarer Logik (PLDs) unter Benutzung von zum Beispiel VHDL, Abel.

Auch in der klassischen Installationstechnik finden sich zahlreiche Anwendungsbereiche für Computersoftware. Ob große Hausinstallationen für Industrie oder öffentliche Gebäude oder der Entwurf und die Umsetzung von SPS-basierten Steuerungsanlagen – selbst in diesem Sektor wird heute das individuelle Design der jeweiligen Anlage stark vom Computer unterstützt.

Im Bereich der Mikrosystemtechnik besteht eine besondere Herausforderung darin, Schaltungsdaten mit den mechanischen Produkt-Konstruktionsdaten (CAD) zusammenzuführen und mit solchen Daten direkt Mikrosysteme herzustellen.

Einfache 2D-CAD-Systeme sind vektororientierte Zeichenprogramme. Zeichnungselemente sind Punkte, Linien, Linienzüge, Kreisbögen, Splines. Werkzeuge ermöglichen das Erzeugen, Positionieren, Ändern und Löschen von Zeichnungselementen. Die Arbeitsweise unterscheidet sich wenig von der klassischen Arbeit am Zeichenbrett. Wesentliche Fortschritte werden durch die Verwendung von Ebenen (Layertechnik) und die Arbeit mit vordefinierten Symbolen (etwa für Norm- und Wiederholteile) erreicht. Komplizierte Berechnungen von Präzisionsmaßen entfallen, da die CAD-Programme um ein Vielfaches genauer sind als eine klassische Zeichnung am Zeichenbrett. Funktionen wie Mehrfachkopieren ersparen außerdem das wiederholte Zeichnen desselben Objekts. Unterstützungen wie automatische Hilfslinien, automatisches Finden von Mittelpunkten, Lotrechten, Tangenten und automatisches Zeichnen der Äquidistante vereinfachen die Arbeit erheblich. Innovative Zoomfunktionen, mit denen Einzelheiten während des Zeichnens vergrößert werden können, ohne dass das aktuelle Werkzeug abgelegt werden muss oder die aktuelle Zeichenfunktion beendet wird, ermöglichen die Arbeit in komplexen Plänen trotz geringer Bildschirmauflösung (1600×1200 Pixel ist für CAD-Anwendung eine geringe Auflösung). Weiter entwickelte CAD-Systeme unterstützen die semi- oder vollautomatische Erzeugung von Bemaßungen und Schraffuren. Ein weiteres Leistungsmerkmal moderner 2D-CAD-Systeme ist die Verwendung von Assoziativität zwischen Zeichnungselementen, zum Beispiel zwischen Linien und Bemaßungen. Leistungsfähige CAD-Systeme stellen Programmierschnittstellen zur Erweiterung der Funktionalität oder zur anwenderspezifischen Anpassung bereit.

Hierbei handelt es sich nicht um eine 'echte' 3D-Technologie. Vielmehr wird mit ebenen Objekten (2D-Skizzen) gearbeitet, die sich auf beliebig angeordneten Flächen im Raum befinden. Die Methode ist weniger rechenintensiv als 3D und wird oft von Architekturprogrammen genutzt, weil ähnliche Ergebnisse möglich sind wie bei Volumenmodellen.

Siehe auch Isometrie, Isometrische Darstellung.

Ein weiteres Merkmal moderner CAD-Systeme ist die Möglichkeit einer weitgehenden Assoziativität zwischen verschiedenen Geometrieelementen und besonders zwischen dem 3D-Objekt und der davon abgeleiteten Zeichnung. Beispielsweise kann durch Änderung des Durchmessermaßes an der Zeichnung einer Bohrung das 3D-Modell des Teiles der Baugruppe, in der das Teil verbaut ist, modifiziert werden – darüber hinaus gleichzeitig aber auch das für die Fertigung erforderliche Werkzeug.

Mit den CAD-systemneutralen Formaten gelingt in der Regel nur die Übertragung von Kanten-, Flächen- und Volumenmodellen. Die Konstruktionshistorie geht in der Regel verloren, damit sind die übertragenen Daten in der Regel für eine Weiterverarbeitung nur bedingt geeignet. CAD-systemspezifische Datenformate ermöglichen die Übertragung der vollständigen CAD-Modelle, sie sind jedoch nur für wenige Systeme verfügbar.

Für die Weitergabe von PCB-Daten zur Erstellung von Belichtungsfilmen für Leiterplatten hat das so genannte Gerber-Format und das neuere Extended Gerber-Format große Bedeutung (siehe Fotografischer Film).

Die Anfänge der CAD-Programme liegen in den 1960er Jahren.

Am MIT in Boston zeigte Ivan Sutherland 1963 mit seiner Sketchpad-Entwicklung, dass es möglich ist, an einem computergesteuerten Radarschirm interaktiv (Lichtstift, Tastatur) einfache Zeichnungen (englisch Sketch) zu erstellen und zu verändern.

1965 wurden bei Lockheed (Flugzeugbau, USA) die ersten Anläufe für ein kommerzielles CAD-System zur Erstellung technischer Zeichnungen (2D) gestartet. Dieses System, CADAM (Computer Augmented Design And Manufacturing), basierend auf IBM-Großrechnern, speziellen Bildschirmen, und mit hohen Kosten verbunden, wurde später von IBM vermarktet und war, zumindest im Flugzeugbau, Marktführer bis in die 80er Jahre. Es ist teilweise in CATIA aufgegangen. Daneben wurde eine PC-basierende Version von CADAM mit dem Namen HELIX entwickelt und vertrieben, das aber praktisch vom Markt verschwunden ist.

An der Universität Cambridge, England, wurden Ende der 60er Jahre die ersten Forschungsarbeiten aufgenommen, die untersuchen sollten, ob es möglich ist, 3D-Grundkörper zu verwenden und diese zur Abbildung komplexerer Zusammenstellungen (z. B. Rohrleitungen im Chemieanlagenbau) zu nutzen. Aus diesen Arbeiten entstand das System PDMS (Plant Design Management System), das heute von der Fa. Aveva, Cambridge, UK, vermarktet wird.

Ebenfalls Ende der 60er Jahre begann der französische Flugzeughersteller Avions Marcel Dassault (heute Dassault Aviation) ein Grafikprogramm zur Erstellung von Zeichnungen zu programmieren. Daraus entstand das Programm CATIA. Die Mirage war das erste Flugzeug, das damit entwickelt wurde. Damals benötigte ein solches Programm noch die Leistung eines Großrechners.

Nachdem Anfang der 80er Jahre die ersten Heimcomputer in Firmen und Haushalten standen, kamen auch CAD-Programme dafür auf den Markt. In dieser Zeit gab es eine Vielzahl von Computerherstellern und Betriebssysteme. AutoCAD war eines der ersten und erfolgreichsten CAD-Systeme, das auf unterschiedlichen Betriebssystemen arbeitete. Um den Datenaustausch zwischen diesen Systemen zu ermöglichen, definierte AutoDesk für sein CAD-System AutoCAD das DXF-Dateiformat als „neutrale“ Export- und Importschnittstelle. 1982 erschien AutoCAD für das Betriebssystem DOS. Das Vorgehen bei der Konstruktion blieb jedoch beinahe gleich wie davor am Papier. Das 2D-CAD brachte jedoch als Vorteil sehr saubere Zeichnungen, die einfach wieder geändert werden konnten. Es war schneller möglich, verschiedene Versionen eines Bauteils zu zeichnen.

Bereits Mitte der 80er Jahre kam mit dem deutschen 3D-CAD-System PYTHA ein erster Farb-Renderer auf den Markt.

In den 80er Jahren begann wegen der sinkenden Arbeitsplatzkosten und der besser werdenden Software ein CAD-Boom. In der Industrie wurde die Hoffnung gehegt, mit einem System alle anstehenden Zeichnungs- und Konstruktions-Aufgaben lösen zu können. Dieser Ansatz ist aber gescheitert. Heute wird für jede spezielle Planungsaufgabe ein spezielles System mit sehr leistungsfähigen Spezialfunktionen benutzt. Für seine Kritik und sein praktisches Engagement gegen den Einsatz von CAD bei Lucas Aerospace und für seine Vorschläge die Produktion auf zivile und nützliche Güter umzustellen, erhielt Mike Cooley 1981 den Alternativen Nobelpreis. Der Schritt zur dritten Dimension wurde durch die immer höhere Leistungsfähigkeit der Hardware dann gegen Ende der 1980er Jahre auch für kleinere Firmen erschwinglich. So konnten virtuelle Körper von allen Seiten begutachtet werden. Ebenso wurde es möglich, Belastungen zu simulieren und Fertigungsprogramme für computergesteuerte Werkzeugmaschinen (CNC) abzuleiten. Seit Anfang der 2000er Jahre gibt es erste Ansätze, die bis dahin immer noch zwingend notwendige Zeichnung verschwinden zu lassen. In die immer öfter vorhandenen 3D-Modelle werden von der Bemaßung über Farbe und Werkstoff alle notwendigen Angaben für die Fertigung eingebracht. Wird das 3D-Modell um diese zusätzlichen, geometriefremden Eigenschaften erweitert, wird es zum Produktmodell. Die einzelnen einheitlichen Volumenobjekte werden zu Instanzen unterschiedlicher Klassen. Dadurch können Konstruktionsregeln und Verweise zwischen einzelnen Objekten (z. B. Fenster wird in Wand verankert) realisiert werden.

Zum Seitenanfang



Laboratory Unit for Computer Assisted Surgery

Datenaufbereitung an der einzelnen CT-Schicht

Laboratory Unit for Computer Assisted Surgery (LUCAS) ist ein System, das die Planung einer Umstellungsosteotomie am Computer erlaubt. LUCAS wurde seit 1998 an der Universität Regensburg mit Unterstützung von Carl Zeiss Oberkochen entwickelt. Der Operationsplan kann mit einem Navigationssystem am Patienten reproduziert werden. LUCAS setzt auf der gleichen Plattform auf, wie der Surgical Segment Navigator (SSN), Surgical Tool Navigator (STN), der Surgical Microscope Navigator (SMN) und der Mehrkoordinatenmanipulator (MKM) von Carl Zeiss.

Ein CT- oder MRT-Bilddatensatz aus einzelnen zweidimensionalen Schichten wird auf LUCAS geladen. Die Bilddaten werden aufbereitet zur Beseitigung von Bildrauschen, zur Kantenbetonung und Kontrastverstärkung. Anschließend werden die einzelnen zweidimensionalen CT-Schichten zu einem dreidimensionalen Modell am Computer zusammengesetzt. In einem Gittermodell wird das Knochensegment, das umgestellt werden soll, markiert. Das Segment wird auf LUCAS verschoben, bis es korrekt steht; Kriterien für die richtige Stellung eines Knochensegments können ein Symmetrievergleich oder auch die Ausmessung des Orbitavolumens darstellen. Auch eine texturierte Darstellung der Segmentumstellungsosteotomie ist möglich. Die Vektoren für den räumlichen Segmentversatz werden zusammen mit dem Bilddatensatz danach auf den Surgical Segment Navigator übertragen.

Zum Seitenanfang



Personal Computer

Komponenten eines aktuellen PCs

Ein Personal Computer , kurz PC, ist ein „Einzelplatzrechner“ (Mikrocomputer), der im Gegensatz zu einem Großrechner von einer einzelnen Person bedient, genutzt und gesteuert werden kann. Der Begriff PC wird heute auch als Synonym für x86-Rechner benutzt.

Streng genommen zählen externe Peripheriegeräte wie Tastatur und Maus nicht als Komponenten des Computers.

Seit Beginn der 1970er-Jahre waren Computerbauteile so preisgünstig, dass Unternehmen mit der Entwicklung von Computern für private Zwecke begannen.

Der erste Computer, der diese Anforderungen erfüllte, war der Xerox Alto von der Firma Xerox PARC aus dem Jahr 1973. Der Xerox Alto hatte eine grafische Benutzeroberfläche (engl. graphical user interface, kurz GUI), einen vertikalen Bildschirm (höher als breit), eine 3-Tasten-Maus, eine schreibmaschinenähnliche Tastatur und ein zusätzliches kleines 5-Tasten-Eingabegerät für besondere Befehle. Der Xerox Alto war ein Prototyp und wurde nur in der Forschung eingesetzt.

Der erste für Heimanwender ausgerichtete Computer, der kommerziellen Erfolg hatte, war der noch als Bausatz vertriebene Altair 8800 aus dem Jahr 1974.

Der erste industriell hergestellte PC war der Apple II der Firma Apple. Er wurde im April 1977 in den USA vorgestellt. Bei seiner Markteinführung hatte er acht freie Steckplätze des 8-Bit-Apple-Bus-Systems, mit denen er durch Einsetzen der entsprechenden Erweiterungskarte für unterschiedliche Anwendungen (z. B. Textverarbeitung, Spiele, Steuerungstechnik) genutzt werden konnte. Ein Computer, der durch Steckplätze individuell an die Wünsche des Konsumenten angepasst werden kann, gilt heute als PC, es ist ein offenes System. Außerdem konnten mit diesem Computer bereits Farben dargestellt und Töne wiedergegeben werden.

Etwa zur gleichen Zeit, 1977, wurden auch die ersten Heimcomputer, der Commodore PET 2001 und der Tandy TRS 80 Model 1, vorgestellt. Von den Leistungsdaten her waren diese Rechner dem Apple II ähnlich, hatten aber keine Steckplätze für Erweiterungskarten, keine Farbdarstellung und keine Tonausgabe. Der PET verfügte allerdings über den in der professionellen Messtechnik verbreiteten (parallelen) IEC-Bus, was zur Folge hatte, dass dieses Gerät in diversen Anwendungen in der Industriefertigung und Universitätsforschung Verbreitung fand.

Nach dem Verkaufserfolg des Apple II in den späten 1970er-Jahren begann auch IBM, der damalige Marktführer für Datenverarbeitungsanlagen, mit der Entwicklung eigener Personal Computer.

Am 12. August 1981 wurde der erste IBM-PC vorgestellt. Er verfügte über ein 8-Bit-ISA-Bussystem und konnte Töne produzieren. Um den Rechner von den billigeren Heimcomputern abgrenzen zu können, wurde der Begriff des „Personal-Computers“ von der Werbeabteilung von IBM für die Öffentlichkeit so aufbereitet, dass er bis in die heutige Zeit mit der Marke IBM in Verbindung gebracht wird.

IBM hatte seinen ersten IBM-PC mit dem Intel-8088-Prozessor ausgestattet. Auch die folgenden Modelle wurden mit Prozessoren der Firma Intel ausgerüstet. Der bereits ein Jahr vor dem 8088-Prozessor (4,77–9,5 MHz Takt; CPU-Bus 16 Bit; System-Bus 8 Bit) von Intel vorgestellte 8086-Prozessor (6–12 MHz Takt; CPU-Bus 16 Bit; System-Bus 16 Bit) sorgte dafür, dass sich für die Serie die Abkürzung „x86-Architektur“ etablierte. Der IBM-PC wurde von 1985 bis 1995 ausschließlich mit dem Betriebssystem von IBM, PC-DOS, vertrieben, das von Microsoft an IBM lizenziert worden war. Die 1981 begonnene Zusammenarbeit der Firmen endete 1985. Beide Unternehmen entwickelten danach ihre Betriebssysteme getrennt weiter. Das Betriebssystem MS-DOS von Microsoft befindet sich seitdem nur auf Computern, die in der Bauweise jenen von IBM entsprechen, den IBM-PC-kompatiblen Computern.

Erweitert um einen TV-Ausgang und Tonausgabe, kamen ab den 1980er-Jahren weitere Geräte als sogenannte Heimcomputer auf den Markt. Die meistverkauften Modelle waren der Commodore C64 und die Geräte der Amiga-Reihe, wie auch verschiedene Ausführungen des Atari ST.

Der IBM-PC wurde ursprünglich zu recht hohen Preisen verkauft. Da IBM kein Monopol auf die verwendeten Komponenten hatte (mit Ausnahme des BIOS), konnte Compaq 1983 den ersten zum IBM-PC kompatiblen Computer auf den Markt bringen. Vor allem auch in Ostasien schufen Unternehmen eine Reihe von Nachbauten. Der sich so entwickelnde Markt führte durch den Konkurrenzkampf zu sinkenden Preisen und verstärkter Innovation.

Auch Apple-Computer wurden teils nachgebaut, aber das Unternehmen konnte sich, mit deutlich geschrumpftem Marktanteil, behaupten. Die Apple-II-Linie wurde Anfang der 1990er-Jahre eingestellt. Heute wird nur noch die Macintosh-Reihe hergestellt. Apple und Sun (Unix) sind die beiden einzigen Hersteller, die Hardware und Software (Betriebssystem und Anwenderprogramme) selbst entwickeln und auch zusammen vermarkten.

Die meisten anderen Hersteller, wie etwa Commodore und Schneider, verschwanden Anfang der 1990er-Jahre weitgehend vom Markt oder wandten sich wieder anderen Geschäftsfeldern zu (Atari). Die aktuelleren PC-Modelle von IBM, wie der PC 300GL, blieben weitgehend unbekannt und gingen auf dem Markt neben den Produkten anderer Hersteller unter. Ähnlich erging es dem Versuch von IBM, den Markt mit der Personal System/2-Reihe und dem Betriebssystem OS/2 zurückzuerobern.

Im Privatbereich wurden Heimcomputer und PC zunächst zum Experimentieren, Lernen und Spielen benutzt. Zunehmend wurden sie auch in Bereichen wie Textverarbeitung, Datenbanken und Tabellenkalkulation eingesetzt und fanden so Eingang in den betrieblichen Alltag.

Die Leistungsmerkmale von Personal Computern nehmen seit ihrer Entstehung stetig zu. Neben den Aufgaben der Textverarbeitung und Tabellenkalkulation wurde der Multimedia-Bereich zu einem der Hauptanwendungsgebiete. Zumeist kommen dabei IBM-kompatible Computer auf x86-Basis zum Einsatz. Von den anderen Computerarchitekturen für Einzelplatzrechner ist im Jahr 2006 lediglich jene von Apple noch in größerem Umfang auf dem Markt vertreten.

Heute werden neben dem Betriebssystem des Marktführers Windows von Microsoft noch andere Systeme auf den Klonen eingesetzt. Diese Betriebssysteme kommen meist aus dem Unix- bzw. Linux-Umfeld. Auch das Apple-Betriebssystem ist seit der Version Mac OS X im Kern eine Unix-Variante (siehe auch Liste der Betriebssysteme).

Gemäß Eurostat verfügten 2006 in Dänemark 85 % der Haushalte über einen Personal Computer. Unter den EU-Mitgliedsländern folgten dahinter Schweden mit 82 % und die Niederlande mit 80 %. Deutschland lag mit 77 % an vierter Stelle, Österreich mit 67 % an achter Stelle und nahe dem EU-Durchschnitt von 62 % . In den USA ist in etwa 71 % aller Haushalte ein Computer vorhanden . Nach etwas älteren Zahlen (2005) war in der Schweiz in 77 % der Haushalte mindestens ein PC zu finden .

Deutlich geringer ist die Verbreitung von Personal Computern in Schwellen- und Entwicklungsländern, wo oft deutlich weniger als 10 % der Bevölkerung Zugang zu modernen Technologien und Kommunikationsmitteln haben (siehe dazu Digitale Kluft, 100-Dollar-Laptop).

51 Prozent der in der EU Beschäftigten sitzen mindestens einmal pro Woche am Computer. In Deutschland arbeiteten 2007 61 Prozent aller Arbeitnehmer am Computer. Der Durchschnittswert in den 27 EU-Mitgliedsstaaten lag 2007 bei 50 Prozent.

Einer Studie aus dem Jahr 2004 zufolge braucht man für die Herstellung eines Computers samt 17-Zoll-Röhrenmonitor 240 Liter fossile Brennstoffe. Geht man bei einem Gesamtgewicht des Systems – inklusive Röhrenmonitor – von rund 24 Kilogramm aus, ist das das Zehnfache seines Eigengewichts. Zusätzlich werden rund 22 kg Chemikalien und 1.500 kg Wasser benötigt – in der Summe also rund 1,9 Tonnen Rohstoffe.

Ein einzelner PC in Desktop-Ausführung brauchte über lange Zeit weitgehend konstant um die 50 W an elektrischer Leistung. Dieser Wert hielt sich etwa bis zur Einführung des Intel-Pentium-III-Prozessors Ende der 1990er Jahre. In der Folgezeit stiegen diese Werte rapide auf weit über 100 W alleine für den Prozessor und teilweise über 200 W für den kompletten Rechner an. Eine Trendwende gab es 2004, als der Prozessorhersteller AMD für seinen AMD Athlon 64 erstmals bisher nur bei Notebooks eingesetzte Funktionen zur dynamischen Änderung des Prozessortaktes einsetzte. Durch diese heute in sämtlichen Prozessoren verfügbare Funktion ist der Stromverbrauch zumindest ohne eine dedizierte Grafikkarte und ohne aufwändige Berechnungen wieder auf die traditionellen 50 W gefallen; in einigen speziellen Konstruktionen gar darunter.

Deutliche Abweichungen hiervon ergeben sich jedoch zum einen, wenn der Prozessor tatsächlich ausgelastet wird, und noch wesentlich mehr bei der Verwendung einer dedizierten Grafikkarte, die – auch wenn nur ein normaler Desktop darzustellen ist – bereits zwischen 10 und 80 W benötigt; bei 3D-Berechnungen steigen diese Werte je nach Modell auf bis zu 300 W. Leistungsstarke PCs mit sehr schnellen Prozessoren und mehreren Grafikkarten können so unter Last theoretisch auf weit über 500 W kommen. Die Nennleistungen moderner PC-Netzteile weichen dabei immer mehr von dem tatsächlichen Verbrauch der Rechner ab, so dass um das zwei- bis dreifache überdimensionierte Netzteile den Stromverbrauch zusätzlich erhöhen.

Laptops und Notebooks, die mobil sein sollen und auf Akkubetrieb ausgelegt sind, versuchen, möglichst sparsam mit der elektrischen Energie umzugehen, um möglichst lange Akkulaufzeiten zu erreichen, hier werden je nach Geschwindigkeitsanforderung und Auslastung zwischen ca. 10 W und (z. B. für mobile 3D-Grafik) deutlich über 60 W erreicht. Die Werte sind über die Zeit weitgehend konstant; Verbesserungen bei der Akkutechnik werden hauptsächlich in eine Verkleinerung der Gehäuse und nur zu kleinen Teilen in eine Verlängerung der Laufzeit gesteckt. Auch Industrie-PCs verwenden oft Laptop-Technik, dies jedoch weniger aufgrund des Stromverbrauchs, als um auf bewegliche Teile in Gestalt von Lüftern verzichten zu können und so ihre mechanische Robustheit zu erhöhen.

Die noch kleineren UMPCs oder Netbooks verbrauchen noch weniger Strom, weit unter 10 W, wobei hier dann sehr deutliche Zugeständnisse bei Funktionsumfang und Rechenleistung erforderlich sind.

Um gegenwärtig (Stand 2009) seinen PC möglichst sparsam betreiben zu können, empfiehlt sich die Beachtung gewisser Normen der Industrie.

Für Netzteile ist dies die 80-PLUS-Zertifizierung in Bronze, Silber oder Gold, nach der ENERGY-STAR-Richtlinie der US-Umweltbehörde EPA. Einige Mainboards bieten zudem auch eine Energieverwaltung an, für die PC-Komponenten mit dem höchsten Stromverbrauch, sowie eine Kontrolle der Lüftersteuerung. Hier besitzt der Hersteller ASUS mit dem EPU-6-Energiemanagement eine gewisse Marktführerschaft.

Personal Computer sind Elektronikkomponenten. Sie werden in Deutschland nach der Elektronikschrottverordnung von den Herstellern über Erfassungsstrukturen zurückgenommen. Besitzer sind verpflichtet, die Geräte getrennt vom Restmüll den Erfassungsstellen zuzuführen. Die Rücknahme ist in Deutschland kostenfrei. Veraltete, noch funktionsfähige PC können auch an Bastler oder Bedürftige weitergegeben werden – z. B. im Rahmen des Projektes linux4afrika.

Zum Seitenanfang



Source : Wikipedia