DE_flag

Seite 1 -5

Bernd’s Homepage

BuiltByNOF

Geschichte und Entwicklung der Datenverarbeitung

tontafel-ca3000v-chrTontafel mit Keilschrift ca. 3000 v. Chr

Wann die Menschheit begann, Dinge zu zählen, weiß man nicht. Die ältesten Zeugnisse legen Ton- oder Steintafeln mit Einritzungen ab. In nahezu allen antiken Hochkulturen entwickelten sich Zahlensysteme, die meist mit einem Strich für die Eins, zweien für die Zwei usw. begannen. Ab der Fünf gab es dann normalerweise weitere Symbole zur Abkürzung bis hin zur Zehn. Größere Zahlen wurden aus diesen und weiteren höherwertigen Symbolen zusammengesetzt. Erst im 8. Jhdt. nach Christus erfanden die Inder die Null, die Werte der Zahlsymbole wurden nicht mehr einfach addiert sondern die Ziffern gemäß ihrer Position in der Zahl gewichtet. Dieses System kam dann über Arabien und Spanien nach Europa, wo es ab dem 16. Jhdt. seinen Siegeszug antrat.

Entwicklung der arabischen Zahlen

Ziffern von 0 bis 9, die zu Zahlen aneinander gereiht werden, deren rechteste Stelle einfach zählt, die entwicklung arabischen zahlenzweite von rechts zehnfach, die dritte von rechts hundertfach und so weiter. Was uns so selbstverständlich erscheint, war eine der genialsten Erfindungen des Altertums. Die wahre Potenz dieses Zahlensystems zeigt sich erst beim Rechnen. Allein der Versuch, mit römischen Zahlen eine Multiplikation zu bewerkstelligen, ist abenteuerlich, mit arabischen Zahlen hingegen kein Problem.

Die wahren Urheber des Systems waren allerdings keineswegs Araber. Die Wiege unseres Zahlensystems stand in Indien. Von dort aus kam es in die Arabische Welt, von wo aus es über Spanien nach Europa gelangte. Zunächst wurde es als heidnische Hervorbringung verboten, setzte sich dann aber - nicht zuletzt durch die Werke Adam Rieses - langsam auch hier durch.

 

 Griechische Ziffern und Ihre Wertigkeit

Eher unspektakulär ist das Zahlensystem der Griechen. Es basiert wie das römische auf Buchstabensymbolen für die Ziffern, allerdings verzichtet es auf Ausnahmen. Die Ziffern werden in absteigender Wertigkeit von links nach rechts geschrieben

griech-zahlen

Römische Ziffern und ihre Wertigkeit

Eines der verworrensten Zahlensysteme haben die Römer erfunden. Die Ziffern werden hier nicht einfach gemäss ihrer Wertigkeit addiert, sondern je nach ihrer Stellung in der Zahl addiert oder abgezogen. Die Regel ist einfach: Normalerweise stehen die Ziffern in absteigender Wertigkeit da. Dann werden Sie einfach addiert. Bei den Zahlen 4, 9, 40, 90, 400 und 900 und allen daraus zusammengesetzten Zahlen wird jedoch eine Abkürzung verwendet: Die Vier wird als IV geschrieben, was als 5 (V) minus 1 (I) zu verstehen ist. Durch die Stellung der Eins links der höher wertigen Fünf wird sie also abgezogen.

röm-zahlen

 

17 = XVII = 10 + 5 + 2

839 = DCCCXXXIX = 500 + 300 + 30 - 1 + 10

1999 = MCMXCIX = 1000 - 100 + 1000 - 10 + 100 - 1 + 10

 

Rechenhilfen

    Zahlen wurden mit Hilfe von Steinen, Perlen oder ähnlichem dargestellt. Auf der Grundlage des Zehnersystems konnten die Zählelemente addiert und der Übertrag auf die nächste "Steinchenreihe" übertragen werden.

Mechanische Rechenmaschinen (das Grundprinzip "Eingabe-Verarbeitung-Ausgabe")

    Zahlen wurden mit Hilfe mechanisch arbeitenden Zahnrädern dargestellt. Neben den zehn Zähnen auf einem Zahlenrad sorgte ein Zusatzzahn für den selbständigen "Zehnerübertrag".

    1623: Wilhelm Schickard (Professor für Mathematik, Astrologie und hebräische Sprache) baute eine "Zwei-Spezies-Maschine" zur Addition und Subtraktion.

    1642:   Blais Pascal (Mathematiker und Philosoph) konstruierte eine Additionsmaschine.

    1674: Gottfried Wilhelm von Leibniz (Mathematiker und Philosoph) später entwickelte man die erste " Vierspezies-Maschine"

    Fast alle mechanischen Rechenmaschinen haben den gleichen Ansatz: Man kann einen Summanden über Einstellrädchen vorwählen, stellt auf irgendeine Art und Weise den zweiten Summanden ein und beide werden dann über eine trickreiche Mechanik zusammengezählt.

    Das Hauptproblem bei allen Lösungsansätzen ist der Übertrag der Zehnerstelle ("behalte eins"). Was heute beim Zählwerk z.B. eines Kassettenrekorders so mühelos gelingt, trieb vor 350 Jahren ob der beschränkten mechanischen Mittel selbst ein Genie wie Leibnitz in die Verzweiflung.

    Ist dieses Problem erst einmal zuverlässig gelöst, ist es nur noch ein kleinerer Schritt, die halbschriftliche Multiplikation oder Division durch gegeneinander verschiebbare Addierwerke zu realisieren. So entstanden Mitte des 18. Jahrhunderts erste Rechenmaschinen für alle vier Grundrechenarten, sogenannte Vier-Spezies-Maschinen.

     

    rechenhilfe Leibnitz-Rechenmaschine, um 1700

Die Programmsteuerung

    Der Jaquard-Webstuhl

    Während die bisherigen Rechenmaschinen manuell oder nach einem festen Schema ihre Arbeit verrichteten, entwickelte der Franzose Falcon 1728 einen lochkartengesteuerten Webstuhl. Sein Landsmann Joseph Marie Jaquard verbesserte die Maschine ca. 80 Jahre später und gab dem Prinzip seinen Namen. In die Lochkarten wurde ein dem Stoffmuster entsprechendes Lochmuster gelocht - das Webprogramm. 

                                            
masch

Rechenmaschine von Braun & Vayringe, um 1735

 

Schleifengesteuerte Automaten und Roboter

    trompete
    Der automatische Trompeter von Friedrich Kaufmann aus dem Jahr 1810 und die Uhren aus dem 16. und 17. Jahrhundert mit Schlag oder Bewegungswerken funktionieren alle über eine starre scheifenförmige Ablaufsteuerung. Zur Verdeutlichung des Prinzips ist ein moderner elektronischer Taschenrechner mit einer einprogrammierten endlosen Doppelschleife zur Berechnung der Quadrat und Kubikzahlen gegenübergestellt. Elektronische Prozeßrechner und ein einarmiger Industrieroboter stehen für die heutigen Möglichkeiten des als Robotik bezeichneten Gebiets.

    Der Mechanische Trompeter von Friedrich Kaufmann, 1810 Die gespielten Trompetensignale sind auf einer Stiftwalze programmiert. Von da werden über ein Hebelsystem Ventile gesteuert, die den Spielwind von zwei Blasbälgen zu 12 aufschlagenden Zungen gelangen lassen. Der Klang der Zungen wird durch die angesetzte Trompete zum Trompetenton moduliert. Stiftwalze und Blasbälge werden durch ein Federwerk angetrieben.

 

Elektromechanische Rechenmaschinen

    1886:  Hermann Hollerith (Bergwerksingenieur in den Vereinigten Staaten) entwickelte und konstruierte eine elektromechanische Lochkartenapparatur zur Auswertung der 11. Volkszählung. Schreibmaschinenähnliche Stanzer lochten sämtliche statistischen Merkmale in Karten. Aus der von Hollerith gegründeten Gesellschaft ging später die Firma IBM hervorbinärsystem

    Es wäre sehr aufwendig, einen Computer zu bauen, der im Dezimalsystem rechnet. Für jede Stelle einer Zahl gäbe es 10 Zustände, die durch verschiedene Spannungswerte repräsentiert werden müssten. Die Addition oder Subtraktion solcher Spannungswerte wäre zwar problemlos zu lösen, bereits bei der Behandlung des Überlaufs ("behalte Eins") oder auch nur der Speicherung solcher Zahlen ergäben sich hingegen ungeheuere Hindernisse.

    Es erwies sich als wesentlich einfacher, für interne Berechnungen das Binärsystem zu verwenden, auch wenn bei Ein- und Ausgabe von Zahlen dann immer eine Umwandlung erfolgen muß. Das Binärsystem kennt nur zwei Zustände, 1 und 0, darzustellen als Spannung ein oder Spannung aus beziehungsweise Strom fließt oder Strom fließt nicht.

 

     

    Denn die Grundlage aller Berechnungen mit elektronischen Bauteilen ist die Boolesche Algebra. Dabei handelt es sich um eine Mathematik, die nicht mit Zahlen, sondern mit Wahrheitszuständen umgeht. Trotzdem kann man "wahr" gleichsetzen mit "1" und "unwahr" mit "0" und erreicht so einen Bezug zur Zahlenmathematik.

    Anstelle der Grundrechenarten kennt die Boolesche Algebra Operationen, die zwei Wahrheitszustände als Eingangswerte miteinander verknüpfen und als Ergebnis wiederum einen Wahrheitszustand ergeben. Die wichtigsten Operationen sind "UND" (das Ergebnis ist wahr, wenn beide Eingangswerte wahr sind), "ODER" (das Ergebnis ist wahr, wenn mindestens einer der Eingangswerte wahr ist) und "EXKLUSIV ODER" (das Ergebnis ist wahr, wenn genau einer der Eingangswerte wahr ist, aber nicht beide). Eine weitere Operation beeinflußt nur einen Eingangswert. Sie kehrt dessen Wahrheitswert um und heißt deswegen Negation oder "NICHT".
    erech1

    hier sehen Sie die Operationen und ihre Ergebnisse als Tabelle

    In jeder Spalte wird eine der möglichen Kombinationen von Wahrheitswerten von A und B durchgespielt. Sie sehen die Ergebnisse für die UND-, ODER- und EXKLUSIV ODER- Verknüpfung beider Werte und die Negationen von A und B.

    Denn erst durch diese Operationsschaltungen sowie der Transistoren war es möglich Computer mit Komplexen Systemen zu bauen. Die ersten Transistoren wurden Ca. im Jahre 1958 erfundenen gebaut bzw. die ersten Halbleiter. Aber das Binärprinzip wurde 1938 schon angewandt

Z1 bis Z4 die erste Datenverarbeitungsanlage mit Programmsteuerung

    In den Jahren bis 1938 baute Konrad Zuse eine noch rein mechanisch arbeitende Rechenmaschine. Neben der Programmsteuerung war die Anwendung des Binärprinzips das hervorstehende Merkmal.

    Denn der Übergang von mechanischen Rechnern zum Elektronengehirn vollzog sich über einen längeren Zeitraum. In dieser Zeit wurden etliche kuriose Entwicklungen gemacht, die durchaus als Geburtswehen der Computertechnik gelten können.

    Recht naheliegend war die Idee, klassische Vier-Spezies-Rechenmaschinen anstelle der Kurbel mit einem Elektromotor auszustatten. Ende der fünfziger Jahre entstanden so wahre mechanische Wunderwerke, die in einem kompakten Tischgehäuse eine Tastatur, einen Drucker, den Elektromotor und das Rechenwerk unterbrachten.

    Auch Konrad Zuse versuchte es ersteinmal mit Mechanik. Seine Z1 arbeitete allerdings bereits mit dem Binärsystem und war frei programmierbar - genauer: Sie arbeitete nicht, denn die komplexe Mechanik wollte nie so richtig funktionieren. Der Durchbruch kam erst mit der relaisbasierten Z2 und deren Nachfolgern Z3 und Z4. Trotzdem gilt die Z1 heute als der erste frei programmierbare Computer der Welt. Aber noch ohne Transistoren nur als komplexe Röhren gerät

    Nach einer Vorstudie, Z2 genannt, baute Konrad Zuse einen Rechner nach dem gleichen Funktionsprinzip wie die Z1, allerdings auf Basis von Relais. Die Z3 wurde 1941 vollendet und war damit der erste elektrische, programmierbare Computer der Welt. Leider wurde das Gerät 1943 bei einem Bombenangriff zerstört. Zuse baute 1960 eine Replik, die heute im Deutschen Museum in München steht.

    Das Prinzipschaltbild zeigt die wesentlichen Konstruktionsmerkmale der Zuserechner: Der Programmablauf ist auf Lochstreifen gespeichert und wird von dort Schritt für Schritt eingelesen. Das Programm kann nur linear ablaufen, Sprünge sind nicht möglich. Schleifen können realisiert werden, indem die Enden des Lochstreifens zu einem Ring zusammengeklebt werden

     

     

z1_1
Konrad Zuses Z1 in der Wohnung seiner Eltern, um 1939

z1_2
Der Erfinder zusammen mit seinem Nachbau der Z1, 1989

 

zuse  Ausschnitt aus einem Relaisrahmen des programmgesteuerten Rechners ZUSE Z4 1942-45

Die erste Computergeneration (Relais und Röhren; die Speicherprogrammierung)

    Die rein mechanische Übertragung von Signalen arbeitete viel zu langsam, weshalb in den Folgerechnern Z2 und Z3 Relais als Schaltglieder dienten. Schalt- und Speicherelemente waren 2600 elektromagnetische Relais; eine Multiplikation dauerte bis zu 6 Sekunden. Als erster Rechner mit Elektronenröhren nahm 1946 ENIAC an der Universität von Pennsylvanien seine Arbeit auf. 18.000 Röhren erhöhten die Rechengeschwindigkeit um das 1000-Fache.                                   Leider arbeitete auch ENIAC nur zu 50% fehlerfrei.

    Eniac war noch deutlich größer als Mark I. Neben 1500 Relais kamen auch noch 18000 Röhren zum Einsatz. Damit war der Rechner 20 Tonnen schwer und konsumierte 140 kW elektrischer Leistung. Er ging 1946 in Betrieb. Die Kosten von ca. 3 Millionen Dollar trug die US Army. Die wesentlichen Entwickler waren John Mauchly (1907-1980) und John Presper Eckert (1919-1995) von der University of Pennsylvania.

    Aufgrund der geringeren Schaltzeiten von Elektronenröhren war Eniac bis zu 1000 mal schneller als Mark I. Der Takt betrug 3 kHz und ermöglichte ca. 1000 Rechenoperationen pro Sekunde

    Die meisten der ersten Röhrencomputer hatten gewaltige quecksilbergefüllte Glaskolbenqueck als Speicher – etwa 1m lang und 30 cm dick. Am einen Ende war ein Lautsprecher, am anderen ein Mikrofon montiert. Nun konnten Bits als Schallwellen ausgesandt werden und am anderen Ende wieder empfangen werden. Das Mikrofonsignal wurde verstärkt und wieder auf den Lautsprecher geschickt. Die Daten liefen somit immer im Kreis und die Kapazität des Speichers ergab sich durch die Laufzeit des Schalls in der Röhre und damit die Anzahl von Bits, die gleichzeitig „unterwegs“ waren. Ein weiterer Effekt war der sequenzielle Zugriff: Will man ein bestimmtes Bit aus dem Speicher auslesen, muss man warten, bis es vorbeikommt. Ein direkter Zugriff ist nicht möglich

     

    Rechner mit Elektronenröhren

ipm
UNIVAC I 1956

Rechner mit Elektronen röhren sind die IBM 650 und die Zuse Z22. Eindrucksvoll ist die Grösse des UNIVAC FACTRONIC der Firma Remmington- Rand, der durch eine Tür bestiegen werden konnte.

    Zu der technischen Entwicklung kam die logische Konzeption: John von Neumann hatte die Idee, das Arbeitsprogramm nicht mehr fest zu verdrahten oder auf Programmtafeln zu stecken, sondern als Information codiert in den Hauptspeicher des Automaten zu speichern. Dies erlaubte das Abarbeiten von Programmwiederholungen und die Programmierung von bedingten Befehlen.

Kryptologische Maschinen gehörten auch zu der Computerentwicklung

krypto
Chiffrier- und Dechiffriermaschine ENIGMA, um 1940, Marine- Ausführung mit vier Chiffrierwalzen  Spezialrechners COLOSSUS

Nachfolger der gefährlichen Quecksilberröhren wurde der Magnetkernspeicher (auch Ringkernspeicher genannt). Es handelt sich dabei um ein Speicherverfahren, das sich die Magnetisierung winziger Ferritkerne durch Stromimpulse zunutze macht. Die Ferritkerne sind matrixförmig angeordnet, wobei durch jeden Kern ein horizontaler, ein vertikaler und ein diagonaler Draht verläuft. Wird gleichzeitig ein Stromstoß durch einen der horizontalen und einen der vertikalen Drähte geschickt, wird der Kern am Kreuzungspunkt magnetisiert - und zwar abhängig von der Stromrichtung in die eine oder andere Richtung. Die übrigen Kerne bleiben unbeeinflusst.
Um einen Kern auszulesen, wird er testweise in einer bestimmten Richtung (also wahlweise mit "0" oder "1") beschrieben. Hatte er bereits diesen Inhalt, so geschieht nichts. War er umgekehrt beschrieben, so entsteht durch die Ummagnetisierung des Ferritkerns ein Stromstoß im diagonal verlaufenden Draht. Magnet- Kernspeicher wurden von Hand gefädelt. Eine automatisierte Fertigung war mit den damaligen Mitteln noch nicht machbar. Durch den extremen Arbeitszeitaufwand waren Magnetkernspeicher ausgesprochen teuer. 
Sie waren ab Mitte der 50er Jahre etwa 20 Jahre lang populär. In den 70er Jahren war dann schließlich die Fertigungstechnik für integrierte Schaltkreise so weit, dass mehrere hundert Bit zu einem Bruchteil des Preises auf einem Chip untergebracht werden konnten. Damit starben die Magnetkernspeicher nahezu schlagartig aus.


kernspeicher2
Dieses 4 KB große Speicherfeld besteht aus ca. 36000 Ferritkernen auf 9 x 12 cm2

Bereits mit Relais ist eine Schaltung realisierbar, die „bistabiler Multivibrator“ genannt wird oder kurz „Flip-Flop“. Mit Logik-Gattern aufgebaut, sieht ein Flipflop wie im Bild rechts aus.

Die beiden Eingänge „Setzen“ und „Löschen“ sind normalerweise beide „0“. Wird „Setzen“ auf „1“ gelegt, wird der Ausgang ebenfalls „1“. Dies bleibt auch so, wenn der „Setzen“-Eingang wieder auf „0“ gebracht wird. Umgekehrt führt eine „1“ am „Löschen“-Eingang dazu, dass der Ausgang auf „0“ springt und diesen Zustand behält, wenn beide Eingänge wieder „0“ sind. Beide Eingänge auf „1“ ist nicht erlaubt. Über die beiden Eingänge kann also eine Information in das Flip-Flop geschrieben werden und diese dann jederzeit am Ausgang abgerufen werden. Es ist also ein Speicher für ein einzelnes Bit.

Ein Flip-Flop hält das gespeicherte Bit, solange die Gatter mit Strom versorgt werden. Aus diesem Grund werden aus Flip-Flops aufgebaute Speicherbausteine "statisch" genannt. Beim Einschalten der Versorgungsspannung ist der Zustand des Flip-Flops unbestimmt – es wird sich zufällig für „0“ oder „1“ entscheiden.
ram

Ein Flip-Flop ist zwar sehr einfach in der Ansteuerung aber auch sehr aufwendig aufgebaut. Bei der Suche nach preiswerteren Alternativen entdeckte man Kondensatoren als Informationsspeicher. Ein Kondensator ist ein Ladungsspeicher. Man kann ihn sich als kleinen Akku vorstellen, den man auf- und entladen kann. Somit ist der rechts abgebildete Aubau denkbar.

Der obere Transistor wird leitend, wenn der „Setzen“-Eingang auf „1“ gelegt wird. Dadurch wird der Kondensator über den oberen Widerstand mit +5V verbunden und lädt sich auf.

Wird hingegen der „Löschen“-Eingang mit einer „1“ belegt, schaltet der untere Transistor auf Durchgang und der Kondensator wird über den unteren Widerstand mit Masse verbunden. Dabei wird er entladen.

Solange beide Eingänge auf „0“ stehen, sind beide Transistoren gesperrt und der Kondensatorinhalt ändert sich nicht – zumindest theoretisch. Leider sind auch gesperrte Transistoren nie hundertprozentig „dicht“ und auch der Kondensator selbst verliert seine Ladung mit der Zeit. Bereits das Auslesen über den Ausgang führt zu einem Stromfluss und damit zur Löschung der Speicherzelle. Deswegen muss sie in regelmäßigen Abständen und nach jedem Auslesevorgang neu beschrieben werden. Diesen Vorgang nennt man Auffrischung („refresh“).
ram1
Aufgrund dieses Unterschieds in der Handhabung nennt man Speicherbausteine auf Basis von Kondensatoren „dynamische Speicher“. Der Arbeitsspeicher heutiger Computer besteht immer aus dynamischen Speicherchips. Statische Speicher finden sich als Caches oder als Arbeitsspeicher in Steuerungen oder mobilen Geräten

Die zweite Computergeneration (Transistoren)

    Das zugrunde liegende berühmt-berüchtigte Kilby-Patent 320 275 (kurz 275 genannt) feiert in 1998 seinen 40sten Geburtstag. Am 12. September 1958 erfand der Texas Instruments(TI)-Ingenieur Jack St. Clair Kilby die integrierte Schaltung (aus Germanium, siehe rechts) kurz bevor die Fairchild- Konkurrenz unter der Leitung von Robert Noyce ähnliches beim Patent Office einreichte. Fairchild brachte dann allerdings lange vor TI die integrierten Schaltungen lauffähig auf den Markt. Ein zehnjähriger Patentrechtsstreit zwischen Fairchild und TI endete mit einem Vergleich.

    Anschließend machte sich Noyce zusammen mit einem weiteren Fairchild-Mitarbeiter namens Gordon Moore auf, um Integrated Electronics, kurz INTEL genannt, zu gründen. Andrew Groves - der Mann des Jahres 1997 (laut Times) - kam ebenfalls von Fairchild und wurde als 'Director of Operations" eingestellt.

    Dank des Golddukatenesels Kilby konnte sich TI in der Folgezeit auf milliardenschweren Lizenz-Tantiemen ausruhen, und so wird der Geburtstag von TI sicherlich mehr mit einem weinenden denn mit einem lachenden Auge gefeiert: schließlich läuft das Patent weltweit allmählich aus. In Japan kann TI allerdings noch bis Ende 2001 abkassieren, da das Patent erst 1989 anerkannt wurde

    Ein Einblick im ersten Schaltkreis für den später entwickelten Transistors

    schaltkreis

    In einem Prozessor sind durch die extrem kompakte Bauweise viele Schaltkreise enthalten, dies wird als integrierter Schaltkreis bezeichnet -auch "IC" (Integrated Circuit). Die integrierten Schaltkreise werden nach ihrer

    Packdichte unterschieden. Es gibt Schaltkreise, die mehrere Millionen Schaltfunktionen beinhalten

    Gegen Ende der fünfziger Jahre wurden dann die ersten Rechner mit Transistoren gebaut. Seine Vorteile: geringeres Gewicht, kein Vorheizen, kaum Störungen.

Die dritte Computergeneration (integrierte Schaltkreise)

    Ende der sechziger Jahre: Bauelemente sind nicht mehr einzelne Transistoren, sondern es werden viele Transistoren zusammen mit anderen Bauelementen in dünnen Siliziumscheibchen gemeinsam erzeugt und in der erforderlichen Weise elektrisch verbunden. Die Schaltungsdichte verringert die Herstellungskosten und erhöht die Ausführungsgeschwindigkeit pro Schaltung.

Die vierte Computergeneration (Mikroprozessoren, hochintegrierte Schaltkreise)

    Die Entwicklung blieb nicht bei der einfachen Schaltung stehen. 1971 wurde in den USA der erste Mikroprozessor entwickelt, das heißt ein zentrales Rechenwerk (CPU), mit dem logische und arithmetische Operationen auf einem einzigen Siliziumscheibchen (Chip) durchgeführt werden konnten (der 4004, ein 4-Bit- Mikroprozessor der Firma Intel®).

    Während integrierte Schaltkreise ca. 1000 Schaltelemente pro cm² aufwiesen, gelang es in den siebziger Jahren die Miniaturisierung auf 1.000.000 Schaltelemente pro cm² zu steigern. Damit stieg auch die Ausführungsgeschwindigkeit von ca. 10 Operationen pro Sekunde bei einem Relais auf über 100.000.000 Operationen pro Sekunde bei hochintegrierten Schaltkreisen. Aber auch die Prozessoren Intel® 8086, 8088, gehören dazu, den Berühmten Coprozessor 8087 der auch an dieser Stelle erwähnt werden muss darf nicht vergessen werden, oder der Motorola- 68000 Prozessor im Atari. Die im Jahre 1972 gebauten Prozessoren der 8080 von Intel®, sowie der 6800 der Firma Motorola und der Z80 der Firma Zilog gehörten auch dazu.

    Anfang der 80er Jahre wurde für einen Computer des Herstellers IBM ein Betriebssystem benötigt. Dieses sollte dann der 24 Jährige Bill Gates liefern, aus einem eingekauften Produkt entwickelte, bestand aus 4000 Zeilen Assemblercode und stellte die Bassisfunktiom für die Dateiverwaltung. Gates kaufte die Rechte an diesem System QDOS, bearbeiteten es, benannten es um in MS-DOS und mit der Einführung von IBM-PC schlug die Geburtsstunde von MS-DOS. Ab da ging es Steil auf mit dem Homecomputer, der kurze Zeit später immer stärker im privaten Bereich Einzug erhielt. Mit einem 8800, 8086 oder 8088 Prozessor, wurden die erste XT Serie gebaut das waren alles 8-Bit Prozessoren von Intel®.

    Ein Großrechner mit Halbleiterbauelementen

    gray-1
    Die ersten von den Firmen Siemens und Telefunken entwickelten Rechenanlagen vom Typ 2002 und TR4 sind mit Schaltungen aus einzelnen Transistoren aufgebaut. Ebenfalls gezeigt werden die Rechner 7074 und 36020 der Firma IBM. Einen Höhepunkt der Entwicklung von Großrechnern stellt der Höchstgeschwindigkeitsrechner CRAY1 aus dem Jahr 1983 dar.

    Ende 88 Anfang 89 folgten die ersten Legendären ATs die hier die XT gehäuse ablösten. Hier fand ein Gehäusewechsel statt, mit 16 Bit Prozessoren 80286, der eine Geschwindigkeit von 4,78 bis 12 MHz hatte. Dennoch wurden Mitte des Jahres 89 Rechner mit einem 8088-1 und einer Geschwindigkeit von 9,54 MHz angeboten und verkauft. Denn die ersten 80286. Rechner waren noch sehr hoch in den Anschaffungskosten. Das ganze war nicht von großer Dauer, denn Ende 1985 Anfang 1990 wurden schon die ersten 80386 SX Prozessoren Angeboten und verkauft.

    Im Jahr 1985 galt der 80386 als relativ gewöhnlicher Mikroprozessor und als logische Fortführung der PC-Prozessoren (8088, 8086, 80286) von Intel. Er kostet anfangs etwa $300, enthält 275000 Transistoren und läuft mit 16 MHz Takt (zum Vergleich: Ein moderner Pentium D enthält 170 Mio. Transistoren und arbeitet mit über 3 GHz). Gegenüber seinen Vorgängern arbeitet der 80386 mit 32 Bit Busbreite und schafft damit einen großen Leistungssprung - der zunächst aber nur extrem teuren High-End-PCs zugute kommt
    386

    Die Tragweite der Entwicklung zeigt sich erst im Rückblick: Mit dem 80386 schuf Intel eine Architektur, die bis heute die Basis aller PC-Prozessoren blieb. Abgesehen von verschiedenen Erweiterungen ist ein moderner Pentium 4-Chip nichts weiter als ein sehr, sehr schneller 386er.

    Mit einer Geschwindigkeit bis 50 MHz. Auch hier gab es ein Coprozessor 80387, dieser Prozessoren wurde 92-93 abgelöst von dem 80484 Prozessor in SX und DX bis 100 MHz. Ausführungen. Es gab aber nicht nur die Intel® Prozessoren sonder auch den Cyrix von IBM ( International Business Maschines Corporation USA ) oder den AMD (von Advanced Micro Devices) die auch als 80386 oder 80486 verkauft wurden es waren schon starke Leistungsunterschiede. festzustellen. Um Verwechslungen zu vermeiden wurde der nächste Prozessor namentlich geschützt. Die nun folgende Baureihe kam nicht wie erwartet als 80585 auf dem Markt sondern bekam einen Namen, es war somit der Erste Pentium geboren. Am Anfang mit einer Geschwindigkeit bis 60 MHz und nachher bis 166 MHz in den Rechnern eingebaut wurde, so das sie den Markt beherrschten. Als nächstes folgte der Pentium MMX™ mit 166 MHz und 200 MHz. Aber auch hier wurden von der Kokurenz AMD und IBM die Gegenstücke gebaut. Das war alles sehr schnelllebig und man wusste nicht mehr, ob der MMX™ ein Top oder Flop war. Denn der MHz-Rausch geht weiter: Etwa Ende 95 Anfang 96, gehörten Prozessoren mit 100 MHz- Takt zu den schnellsten ihrer Art. Die Entwicklung ist nicht stehengeblieben. Die 200- MHz Grenze ist auch im Heimbereich längst gesprengt. In den Entwicklungslabors wurde zu der Zeit (7/97) ein Pentium II mit Wasserkühlung getestet! der die 400 MHz Grenze überschritten haben soll (Bericht PC- Go 6/97).pentiumii-1199-220

     Kurz darauf, im ersten Quartal 1997 kam der Pentium II, er erscheint in einer völlig neuen Gehäuseform. Die Anschlusspins wurden zu Gunsten eines Platinensteckers eingespart. Das Hollogramm auf dem Prozessor soll den Pentium gegen Fälschungen schützen. Hier wurden Geschwindigkeiten freigesetzt bis zu 266 MHz.

    Der Pentium II mit 400 MHz. Prozessor wurde verstärkt bis Mitte 98 in den PCs eingebaut und angeboten natürlich ohne Wasserkühlung. Ab Mitte 99 gab es dann schon wieder eine Erweiterung bzw. Neuigkeit, der Pentium III kam auf den Markt, der heute bis zu einer Geschwindigkeit von 700 MHz gebaut wird.

    Anzumerken wäre noch das ab dem Pentium II wieder ein Gehäusewechsel statt fand, nicht nur am Prozessor sondern auch der PC da der Pentium II ein anderes Mainboard benötigte. Die RAM- bausteine bzw. deren Bauart wechselten auch während der einzelnen Generationen. Hatte man noch bei dem 8086 DIP Bausteine waren ab den 80286 SIP Bausteine mit Beinchen, oder SIMM Bausteine ohne Beinchen mit Steckkontakten, ab den 80386 wurden nur noch SIMM Bausteine verwendet. Den nächste Wechsel gab es bei den 80486, da wurden dann die EDO, FPM sowie die PS/2 Module benötigt, gefolgt von den heutigen SDRAM oder SDRAMM II Modulen. Auch hier wurde mit verschiedenen Geschwindigkeiten gerechnet 50 - 70 Nanosekunden aber auch nach MHz ausgelegt zu erhalten sind sie mit 66, 100, oder sogar 120 MHz..

Willamette mit 1,5 GHz

    Mit Stolz präsentierte Intels Senior President Andrew Greve im Aprill 2000 den mit 1,5 GHz getakteten Willamatte-Prozessor der Fachmesse in Palm Springs.

    Die Willamette- CPU ist eine neue entwickelte 32 Bit- CPU, welche wie der Pentium- Coopermine auch im 0,18 Mikron gefertigt wird. Neu jedoch ist die Busbreite von 64-Bit womit eine theoretische Bandbreite von 3,2 GByte/s erreicht werden kann. Dies entspricht etwa dem Dreifachen einer Pentium III-CPU. Als Bus Protokoll wird weiterhin das P6-Protokoll eingesetzt, welches schon ab Pentium- Pro Prozessoren (1995) verwendet wurde

  • (Ende 1999) Intel und Hewlett-Packard arbeiten gemeinsam an einer neuen CPU: Codename Merced. Der 64-Bit-Prozessor; auch P7 genannt, soll mit 500 MHz takten und - wie der Pentium Pro - einen integrierten Second-Level-Cache besitzen. Fachkreise vermuten aber, daß der Umstieg auf die nächste CPU-Generation nicht vor dem Jahr 2002 möglich sein wird. Die komplexe 64-Bit-Struktur ist aufwendig zu produzieren und macht den Prozessor anfälliger für Fehler. Hinzu kommt, daß noch nicht einmal der Sprung auf die 32- Bit-Ebene gelungen ist - zahlreiche Anwender arbeiten noch immer mit 16-Bit-Programmen. Intel plant ferner einen Pentium-Pro-Overdrive, einen Pentium-II-Prozessor für Sockel 8, mit dem sich Pentium-Pro-Server aufrüsten lassen.
     
  • 2005
  • Microsoft bringt ein 64 Bit Windows für AMD und Intel heraus - Intel hat erstmals von AMD die 64 Bit Technologie lizenziert. Erste Mehrkernprozessoren erscheinen.
  • Im jahre 2006 will Intel eine CPU präsentieren, die etwa 350 Millionen Transistoren besitzt (der Pentium II hat etwa 7,5 Millionen). Der DUO Prozessor ist geboren.

    Nur zwei Sockel sind zukunftssicher
    Wer heute ein neues PC-System anschafft, sollte bei Intel zu Mainboards mit Sockel-775 greifen, bei AMD fahren Sie mit einem Sockel-939-Board am längsten. Für alle anderen Sockel wird es bald keine neuen Prozessoren mehr geben. Das gleiche gilt für die Chipsätze auf der Hauptplatine: Nur auf aktuellen Platinen sitzen Chipsätze, die moderne Schnittstellen wie Serial-ATA für Laufwerke oder PCI-Express für Grafikkarten zur Verfügung stellen.

    Im Jahr 2011 Soll der Intel- Prozessor der Zukunft taktet mit 10 GHz und verfügt über eine Milliarde Transistoren. Möglich wird dies durch eine Reduzierung der Halbleiterstrukturen auf 0,1 oder sogar 0,07 Mikron. Damit sich der Prozessor nicht überhitzt, muß die Spannung bei weniger als 1 Volt liegen. Nach der heutigen Forschung sind mehr als 2 GHz physikalisch jedoch nicht machbar. Die Halbleiterindustrie muß daher noch sehr viel Geld in die Grundlagenforschung stecken, um ihre hochfliegenden Pläne zu realisieren.

    Was jetzt gerade als Computer vor ihnen steht ist das Ergebnis jahrzehntelanger Forschung und Entwicklung. Ohne die visionäre Kraft von hunderten begabter Ingenieure und Techniker und ohne den Mut vieler Dutzend Firmen wäre es nie so weit gekommen. Die folgenden Seiten sollen die Geschichte der Computer chronologisch erfassen. Dabei handelt es sich um ein Mammutprojekt, das noch in den Anfängen steckt und permanent erweitert werden muss.

    Falls Sie also noch was vermissen - nicht nörgeln, Sie sind herzlich zum Mithelfen eingeladen...


  • (Bilder und grün geschriebene Texte aus dem Deutschen Museum München) ein Teil der Berichten aus dem Internet von Autor: Boris Jakubaschk und von Bernd Leitenberger

 

Computer Geschichte(n) sehr Ausführlich beschrieben auf nachfolgender WEB Seite

von Bernd Leitenberger noch

Ausschweifender Nachzulesen

WEB - Seiten         Thema

Die Geschichtedes PC Teil 1 (1971-1981)

Teil 1 der Geschichte des PC : Vom Mikroprozessor zum Heimcomputer .

PC Geschichte Teil 2 (1982-2002)

Teil 2 : IBM betritt das Parkett. Wintel dominiert den Markt

PC Geschichte Teil 3 Peripherie

Wie entwickelten sich Drucker und Monitore, seit wann gibt es Festplatten und Mäuse ?

Ausführliche Chronologie

Die Geschichte des PC als Zeitlinie

Crays Supercomputer

Die wohl berühmtesten Supercomputer der Welt.

Geschichtedes Computers Teil 1 : Technik

Wie der Computer durch technische Entwicklungen immer leistungsfähiger wurde..

Geschichte des Computers Teil 2 : Die Programmiersprachen

Die Entwicklung der Programmiersprachen von Maschinensprache zu Java

Geschichte des Computers Teil 3 :Vom Großrechner zum Handheld

Zuerst gab es nur den Großrechner, inzwischen gibt es Computer jeder Größe. Dies ist ihre Geschichte.

Heimcomputer
und der PC

Triftige Gründe warum mein derzeitiger PC nur eine "Kiste" ist und mein alter 8 Bit Rechner noch ein echter "Compi".

20 Jahre PC
ist nun alles besser geworden ?

Ein kritischer Blick auf die letzten 20 Jahre PC Geschichte. Ist wirklich alles besser geworden ?

Die Intel Story

Eine kleine Firmengeschichte von Intel 1968-2006

Navigation

redright