Dienstag, 3. März 2015

Geschichte des PCs

Die Geschichte des PCs begann als es für jedermann möglich wurde sich einen Computer zu kaufen. Wann der PC genau entstand ist noch heute unter Experten umstritten. Voraussetzung dafür war der Mikroprozessor der von Texas Instruments erfunden, aber von Intel zuerst kommerziell angeboten wurde. Der folgende Artikel schildert nun die wesentlichen Stationen der Geschichte des PC, der im Jahre 2000 erst 25 wurde.
Intel rühmt sich selbst den Mikroprozessor erfunden zu haben, doch es stimmt nicht. Der Mikroprozessor wurde 1968 von einem Ingenieur bei Texas Instruments erfunden, allerdings hatte er kein Glück dabei, seine Vorgesetzte von der Bedeutung der Erfindung zu überzeugen. Auf einer Messe fragte ihn ein IBM Manager "Interessante Sache... Aber wozu ist sie gut?"... So wurde 3 Jahre später der Mikroprozessor erneut erfunden.
Da heute jeder PC mindestens einen Mikroprozessor beinhaltet, fällt es schwer sich vorzustellen wie es davor war. Damals bestand ein Prozessor (oder CPU) nicht aus einem Chip sondern vielen Hunderten, denn die normalen Computer waren Großrechner. Einen Mikroprozessor macht aber nicht nur die Kleinheit aus (irgendwann hätte man auch einen Großrechner auf einem Chip unterbringen können), sondern der Mikrocode. Damit ist folgendes gemeint: Bisher waren bei Großrechnern die logischen Funktionen fest verdrahtet. Jeder Chip machte eine einfache Operation und durch das Zusammenwirken ergaben sich komplexe Operationen. Hätte man den Befehlssatz geändert so hätte man die gesamte Verdrahtung ändern müssen. Ein Mikroprozessor ersetzte dies durch ein flexibleres Konzept: Der Code ist gespeichert auf dem Chip, kann aber geändert werden, bei heutigen Prozessoren sogar durch Software, in den Anfängen, natürlich nur bei Änderung der Maske bei der Fertigung.
Intel entdeckte den Nutzen des Mikrocodes mehr durch Zufall: Die Firma sollte die Elektronik für einen Tischrechner (einen Taschenrechner mit Drucker) fertigen. Man erkannte das eine feste Verdrahtung (Wenn man Auf Taste X drückt passiert folgendes in der Elektronik) mit der zur Verfügung stehenden Technik, nicht auf einem Chip unterzubringen war. Es war einfach zu komplex. Man entschied sich daher auf eine andere Lösung. Ein Tastendruck löste das Absenden mehrerer einfacher Befehlsfolgen aus, die wiederum einfach genug waren um vom Chip verarbeitet zu werden. Überdies ähnelten sich auch viele Aufgaben. Bei den Ziffertasten 0..9 musste man zuerst nur eine Zahl abspeichern und ausgeben, zwar jedes Mal eine andere, aber sonst war die Aufgabe gleich.
Was Intel damit geschaffen hatte merkten Sie erst, als der Auftrag storniert wurde - Sie mussten nun nach einer anderen Verwendung suchen. Und sie entdeckten, das Sie keinen Tischrechnerchip geschaffen hatten, sondern einen Chip, der so tat als wäre er ein Tischrechner. Mit einem anderen Programm hätte er eine Ampel steuern können oder andere Dinge erledigen können.
Doch bis zum PC sollten noch 3 Jahre vergehen, denn Intels Erstling - Der 4004 war ein 4 Bit Prozessor mit max. 4096 Byte Adressraum. Zuwenig um selbst einfachste Gemüter zufrieden zu stellen. Erst mit dem zweiten 8 Bitter von Intel, dem 8080 begann die richtige Revolution.

Die Anfänge....

Der erste kommerzielle " PC " war der Altair 8800 der Firma MITS von Ed Roberts. 1974 stellte Intel den 8080 Prozessor vor. Es war der erste vollwertige 8 Bit Mikroprozessor. Ed Roberts war damals kurz vor der Pleite. Sein Firma produzierte Taschenrechner und war im Konkurrenzkampf an den Rand des Konkurses gekommen. Er erkannte die Möglichkeiten die in einem Computer lagen und bekam von der Bank einen letzten Kredit über 65000 Dollar. Damit konstruierte er um den 8080 Prozessor einen sehr einfachen Computer, den Altair 8800. Das Gerät wurde im Januar 1975 angekündigt und schlug ein wie eine Bombe. Innerhalb eines Monats konnte Ed Roberts aus 400,000 USD Schulden 250.000 Dollar Gewinn machen.
Dabei war der Altair 8800 durchaus kein berauschendes Gerät. In der Grundausführung hatte er nur 256 Bytes (Nicht Megabytes!) Speicher. Das Gerät verfügte über keinen Bildschirm oder eine Tastatur. Daten wurden über Kippschalter eingegeben und die Ergebnisse an Leuchtdioden abgelesen. Acht Leuchtdioden ergaben ein Byte. Acht Kippschalter waren nötig um ein Byte einzugehen. Man klopfte damit Byte für Byte Maschinensprache in den Computer.
Aber der Altair 8800 hatten einen entscheidenden Vorteil: Er verfügte über Erweiterungssteckplätze, durch die das Gerät erweiterbar war. Sehr bald entwickelten Bastler Zusatz Geräte: Lochkartenleser, Bildschirmanschlüsse, Tastatur, Speichererweiterungen. Zudem war er sehr preiswert, weniger als 400 USD für einen Bausatz und 600 USD für ein Fertiggerät.
Die damals frisch gegründete Firma Microsoft programmierte BASIC für den Altair. Damit begann der Aufstieg von Bill Gates, auch wenn sein Erstlings-Werk nicht erfolgreich war: Bei der Vorführung wurde der Lochstreifen, auf dem das Programm gespeichert war "ausgeliehen " und Bill musste sich keine Mühe mehr machen das Programm zu verbreiten, denn jeder Mann hatte es schon als Raubkopie. In dieser Zeit entstanden zahlreiche Selbstbaucomputer wie den KIM. Alle waren mehr oder weniger für ambitionierte Bastler oder Elektronik Fans gedacht. Man lötete sich den Computer selbst zusammen und schrieb die Software selbst.
Sehr bald gestellte sich zu MITS weitere Firmen. Sie alle begriffen recht schnell, dass man mit diesen Hobby-Geräten auch Geld verdienen kann. Die Geräte wurden anspruchsvoller, die Zubehör Teile reichhaltiger. Schon ein Jahr nach dem Altair war mit dem Sol der erste PC verfügbar der wie heute über eine Tastatur und einen Bildschirmanschluss (Fernseher) sowie einen Massenspeicher (Kassettenrecorder) verfügte.

Intel bekommt Konkurrenz...

Noch war Intel als Hersteller des Mikroprozessors allein auf weiter Flur. Doch schon ein Jahr später stellte MOS Industries Ihren 6502 Prozessor und Motorola den 6800 vor. Der MOS 6502 wurde für 25 Dollar angeboten, damals kostete der Intel 8080 Prozessor noch 179 Dollar. Der erste Preiskampf begann. Verantwortlich dafür war ein Mann der noch Computer Geschichte machen würde: Chuck Peddle. Der 6502 Prozessor war sehr viel einfacher als der Intel Prozessor gebaut, dadurch konnte er billiger produziert werden. Er wurde zur Grundlage des Apple und des C 64. Auch andere Heimcomputer verwendeten diesen Prozessor. Der Motorola 6800 dagegen fristete immer ein Schattendasein, ist heute allerdings noch als Embedded Controller für einfache Geräte auf dem Markt. (Nebenbei: Es gibt von den alten 8 Bittern noch heute mehr Exemplare als von den modernsten Prozessoren. Als Mikrocontroller steuern Sie Telefone, Waschmaschinen, Mikrowellengeräte, Unterhaltungselektronik, sie stecken in Gameboys etc. Da es von diesen Geräten weitaus mehr gibt, als Computer auf der Welt haben alte 8 Bitter wie die 6800 Serie von Motorola inzwischen Stückzahlen im Milliardenbereich erreicht.)
 
Die größte Konkurrenz bekam Intel 1976 aber von der Firma Zilog, die ein ehemaliger Intel Mitarbeiter begründet hatte. Er erweiterte den 8080 Prozessor um weitere Befehle und Register und integrierte die Logik zur Ansteuerung der Speicherbausteine in den Prozessor. Dadurch konnte ein Hersteller sich einen Baustein beim Computerbau einsparen, und ein System wurde billiger. Sehr bald verkaufte Intel kaum noch 8080 Prozessoren und der Z 80 wurde zum erfolgreichsten acht Bit Prozessor. Noch heute, nach 24 Jahren wird er eingesetzt: in den Gameboys. Eine fortgeschrittene Version ist inzwischen bei 50 MHz und 16 MB Speicher angelangt und als Webserver auf einem Chip verfügbar.

Die ersten PCs die man nicht selbst zusammenbauen musste

Die ersten Computer wurden hauptsächlich von Bastlern gekauft, die in einer Person zugleich Software-Entwickler wie Hardware-Bauer waren. 1976 entwickelten Steve Jobs (links) und Steven Wozniak den Apple I, ein typischer Selbstbau Computer, bei dem allerdings schon alle Bauteile beim Bausatz dabei waren. Besser verkaufte er sich aber als Fertiggerät, obwohl die Besitzer nur eine nackte Platine ohne Tastatur oder Bildschirm oder Gehäuse erwarben. Steve Jobs erkannte bald, dass auf einen Bastler Hunderte von potentiellen Käufer kamen die nicht Ihren Computer zusammen bauen wollten, aber auch einen Rechner haben wollten.
Er bekam genügend Gründungskapital zusammen, um den Apple II zu bauen. Er erschien 1977 gleichzeitig mit zwei anderen Computern: dem Commodore PET und dem Tandy TRS 80. Der Apple hatte einen Vorteil gegen über den anderen beiden Computern: er war erweiterbar und seine Architektur war dokumentiert, so dass andere Firmen Erweiterungsplatinen für diesen Computer bauen konnten.
Apple bot auch als erste Firma zu dem Computer ein Floppy Disc Laufwerk an. Dies geschah schon 1978. Sehr bald gab es sowohl offizielle wie auch "inoffizielle" Nachbauten des Apple II. Dieser lebte - mit besserem 16 Bit Prozessor und mehr Speicher ab Mitte der achtziger Jahre als Apple II GS wieder auf und die Produktion wurde erst 1993 nach 5 Millionen Exemplaren eingestellt.
Heute weitgehend vergessen war der Tandy TRS-80 vor allem in den USA bis 1981 erfolgreicher als alle anderen Marken zusammen. Tandy Radios Shack (TRS) war eine große Ladenketten mit angeschlossenem Versandhandel. Man befand 1977, dass ein Computer das eigene Sortiment gut ergänzen würde und eine Eigenproduktion erheblich höhere Verdienstspannen (von 50% anstatt 33%) eröffnen würde. So wurde ein sehr preiswerter Rechner konstruiert, der im Verkauf nur 399 Dollar ohne und 599 Dollar mit Fernseher kostete. (weniger als die Hälfte eines Apple II ohne Fernseher).  Das Propblem des Gerätes war eine sehr schlechte Verarbeitung und Einsparungen an den falschen Stellen, so konnte es nur Großbuchstaben darstellen. 1980 musste wegen Verstoßes gegen die FCC Richtlinien das Modell I eingestellt werden. Weitere Versionen (Modell 2-4) folgten bis 1983.
Der PET war der erste Computer der Firma Commodore. Diese Firma wurde von Jack Tramiel gegründet mit dem PET kam noch nicht der große Erfolg. Für den Apple sprach nicht nur seine Erweiterungsfähigkeit sondern auch die Verfügbarkeit einer Tabellenkalkulation: VisiCalc. Durch dieses Programm war der Apple ein eine erhebliche Arbeitserleichterung für alle, die Buchhaltung oder ähnliche wiederkehrende Berechnungen machen mussten. Damit zog auch der PC in Firmen ein, das war völlig neu und überraschte auch Apple, die ihren PC als Computer für Leute sahen, die selbst programmieren wollten.
Commodore konzentrierte sich auf den Heimcomputer Markt. Jack Tramiel sagte sich: " wenn Leute Hunderte von Mark für eine Spielkonsole ausgeben, so muss sich ein vollwertiger Computer, mit dem man zudem noch spielen kann, verkaufen wie nichts". Er brachte zuerst den VC 20 mit 5 KByte Speicher, (erweiterbar auf 32 KByte) auf den Markt, der große Erfolg kam aber mit dem C 64 (Bild). Das Gerät war vielen Konkurrenzprodukten technisch oder in der Leistungsfähigkeit unterlegen, wurde jedoch konkurrenzlos preiswert angeboten und setzte sich so auf dem Markt durch.
So spaltete sich Anfang der achtziger Jahre der Computer Markt in zwei unterschiedliche Richtungen auf: einen Markt für geschäftlich benutzte Computern und die Heimcomputer. Letztere konnte man einfach an den Fernseher anschließen und ihre Ausbaufähigkeit war gegenüber den Business Computern beschränkt.
Auf dem Markt der Business Computer dominierte Apple, daneben gab es viele Computer auf Basis des Z 80 Prozessors, unter dem Betriebssystem CP/M entwickelt von Gary Kildall. CP/M war das erste Betriebssystem, welches auf unterschiedlichen Rechnern mit dem selben Prozessor lief. Ursprünglich geschrieben für den 8080 Prozessor, lief es jedoch meistens auf Z 80 Maschinen. Der Hersteller musste nur die elementare Funktionen für den Zugriff auf die Disc und den Bildschirm und Tastatur anpassen. CP/M wurde bald zu dem Standard bei 8 Bit Computer. Selbst für den Apple wurde eine Zusatzkarte angeboten damit auf diesem Rechner CP/M laufen konnte. Populäre Programme auf CP/M waren die Textverarbeitung WordStar (1979) und die Datenbank DBase (1980). Mit diesen Programmen konnte man schon viel Arbeit einem Computer übertragen wie Serienbriefe schreiben oder Kundendaten verwalten. Anders als bei MS-DOS war es bei CP/M der Softwarestandard der verschiedene Geräte verband. Dies bedeutet, dass es außer den Anforderungen des Betriebssystems keinerlei Ähnlichkeiten zwischen den Computern geben musste. Mit CP/M liefen sowohl Computer wie der Schneider CPC 664 - mit 64 K Hauptspeicher, Grafikausgabe und einer 180 K 3" Floppy (Preis 900 Mark) wie auch ein Epson QX-10 mit 256 MB RAM, zwei 5.25" Laufwerken à 320 K und Textausgabe für 5000 Mark. Es war im Gegensatz zum IBM Standard also ein Softwarestandard der verschiedene Hardwarearchitekturen ermöglichte. Gerade dadurch wurde CP/M so erfolgreich. Jeder Hersteller konnte seine eigenen Ideen umsetzen und trotzdem ein großes Softwarereservoir anbieten, indem er nur die elementaren Funktionen von CP/M anpasste. 1982 lief CP/M daher auf nicht weniger als 3000 verschiedenen Konfigurationen.
Bei den Heimcomputern entwickelten sich bis Mitte der achtziger Jahre immer mehr Geräte. Alle aufzuzählen fällt schwer, doch rückblickend bemerkenswert ist das jedes Gerät seine Vorteile hatte. Da gab es den Schneider CPC, für den es hier eigene Seiten gibt. Ein Gerät mit 64 und später 128 KByte Speicher, einem Monitor und einem Kassettenrekorder und später einem Diskettenlaufwerk als Datenspeicher - alles schon integriert. Mit ihm konnte man spielen und arbeiten. Sir Clive Sinclair baute Computer die konkurrenzlos billig waren. Allerdings musste man auf eine gute Tastatur dabei verzichten. Zuerst gab es den ZX-81, einen Z80 Rechner mit 1 KByte Speicher, der erste Rechner für unter 200 Mark, dann der Sinclair Spektrum: Mit 16 bzw. 48 KByte RAM und Farbgrafik, zuletzt der Sinclair QL, ein Rechner mit dem MC 68008 16 Bit Prozessor. Leider verzichtete man auf eine Floppy Disk, ohne die der Computer keine Chance im geschäftlichen Umfeld hatte. Atari brachte den 400 und 800 heraus, die Geräte, beworben als Spielkonsole der Extraklasse waren aber zu teuer. Mit dem 600 und 800 XL wollte man 1984 wieder in die Gewinnzone kommen, doch es war zu spät, trotzdem sollte Atari noch eine wichtige Rolle spielen...
Eine tragische Rolle spielte der Ti 99/4A von Texas Instruments. Ti nutzte für dieses Gerät einen eigenen Prozessor vom TI, den TMS 9900, einen der ersten 16 Bit Prozessoren, der auch in größeren Rechnern der Firma zum Einsatz kam. Der Ti 99 war schon frühzeitig auf den Markt gekommen und enorm erweiterungsfähig - mit einer Box für Steckkarten. Aber in dem Preiskampf von 1982-1983 (Vom August 1982 bis Weihnachten 1983 sank der Preis von 999 auf 275 Mark) machte die Firma so große Verluste, das sie aus dem Markt ausstieg.
10 Jahre nach dem ersten Mikroprozessor war eine neue Industrie entstanden: 1981 gab es schon zwei Marktsegmente: geschäftlich genutzte Computer und Heimcomputer. Workstations und tragbare Computer standen vor der Markteinführung. Es gab eine Softwarebranche und die wichtigsten Anwendungsprogramme waren verfügbar. Obgleich zum Programmieren gedacht waren die kleinen Computer in die Büros eingezogen. Doch eines war auffällig - Keine der Firmen die große Rechner bauten wie DEC, Hewlett-Packard, NCR und besonders IBM hatte sich in dem Markt engagiert.

IBM betritt das Parkett

1981 war der Computer Markt beherrscht von 8 Bit Rechner. Zwar gab es seit 1978 die ersten 16 Bit Prozessoren, jedoch waren Maschinen auf Basis dieser Prozessoren noch zu teuer, und mit den verfügbaren 16 Kilobit RAMs benötigte man schon 32 Bausteine um den Arbeitsspeicher eines acht Bit Rechners abzudecken, daher waren acht Bit Rechner die günstigere Wahl. Die leistungsfähigen 16 Bit Prozessoren, vor allem der 68000 waren aber Basis für eine neue Klasse von Geräten: Workstations, Rechner die leistungsmäßig und preislich zwischen den PCs und den schrankgroßen Minicomputern lagen. Die Firmen, Sun , Apollo , Silicon Graphics und HP waren Führer bei diesen Rechnern.
Auf dem Markt fehlten jedoch die Firmen die sonst größere Rechner anboten. Besonders vermisst wurde der Branchenführer IBM. IBM ignorierte lange Zeit den expandierenden Computer Markt. Bis immer mehr IBM Vertreter von Ihren Kunden hörten, dass Sie einfachere Tätigkeiten auf PCs ausführten. Dies bewog IBM zum Handeln, man rekrutierte ein junges Team, welches einen preiswerten PC entwickeln sollte. Das Ergebnis war total IBM untypisch: Der IBM PC enthielt keinerlei IBM Bausteine, verwendete keine IBM Software, wurde nicht vom IBM Service gewartet. Stattdessen griff man auf handelsübliche Bausteine die auch andere Hersteller benutzten zurück.
Als Prozessor verwendete man den 8088 Prozessor. Dieser war ein "beschnittener" 8086 Prozessor. Damit man die weit verbreiteten 8 Bit Bausteine verwenden konnte, hatte der 8088 nur einen 8 Bit Datenbus anstatt eines 16 Bit Datenbusses. Der 8086 Prozessor selbst war schon kein sehr leistungsfähiger Prozessor. Er konnte nur ein MByte RAM adressieren, und dies nur in Segmenten von 64 KB Größe. Dagegen konnte der Konkurrenz Prozessor MC 68000 von Motorola 16 MB direkt adressieren und verfügte über 32 Bit breite Register. Er war erheblich schneller als der 8086 Prozessor. Heute erscheint die Wahl von IBM kurzfristig, auch verschiedene Probleme die heute noch den PC verlangsamen haben ihre Ursache in der 8086 Architektur. Als der IBM PC vorgestellt wurde, war er jedoch äußerst fortschrittlich: Er war bis zu einem Megabyte ausbaubar (die ersten IBM PCs kamen mit 64 Kilobyte), war ein 16 Bit Gerät und er war natürlich von IBM.
Wahrscheinlich hat nicht einmal IBM vorausgesehen, wie erfolgreich dieser Computer werden sollte und wie schwer es sein würde den Standard zu erweitern. Allein der Name IBM bürgte bei vielen Geschäftsleuten für Qualität. Im Nu hatte IBM einen erheblichen Marktanteil am Computergeschäft. Als ich 1982 meinen ersten Computer - einen Ti 99/4A - kaufte, wollte ein "Business Man" - im weisen Hemd mit Krawatte - mal so eben einen IBM PC kaufen - für 11700 Mark. Dabei war bei IBM der PC ursprünglich nicht als eigenständiges Produkt gedacht, sondern als Ergänzung zum Großrechner. Man wollte den PC mit den Großrechner vernetzen, und so war die erste Zusatzkarte für den IBM PC, eine Emulation eines Großrechner Terminals.
Als man für den IBM PC ein Betriebssystem suchte, wandte man sich zuerst an Microsoft. Microsoft war damals führend bei den Programmiersprachen. Das führende Betriebssystem sowohl bei 8 wie auch 16 Bit Rechnern war jedoch CP/M. Als die IBM Manager bei Digital Research auftauchten, war der Firmengründer Gary Kildall jedoch nicht da und so kam es zu keinem Abschluss. Microsoft witterte ihre Chance und bot IBM an das Betriebssystem zu stellen. Nun war Eile geboten Microsoft kaufte kurzerhand die Rechte an einem rudimentären Betriebssystem, dass sein Entwickler schmerzhaft QDOS (für Quick and Dirty Operation System) getauft hatte für 50.000 Dollar auf und an IBM weiter. Microsoft taufte dieses CP/M nachempfundene Betriebssystem PC-DOS. Als IBM mitbekamen, dass sie einen Klone von CP/M gekauft hatten zahlten sie Digital Research 800.000 Dollar, mehr als die vierfache Summe die Microsoft erhielt nur damit diese IBM nicht verklagten.
Mit den Mängeln dieses zusammen geschusterten Betriebssystems hat auch heute noch der Anwender zu kämpfen. Bis zur Version 2.11 die 1982 erschienen war das Betriebssystem unvollständig und fehlerhaft.

Der Mac - der erste grafische PC

Sehr bald kamen die ersten Klones des IBM PC auf den Markt. Die ersten Rechner waren nur MS-DOS kompatibel, viele Programme die, auf den Bildspeicher oder das BIOS direkt zugriffen liefen auf diesen nicht. Compaq ließ das IBM BIOS nachprogrammieren und brachte den ersten portablen Klone auf den Markt. Danach kamen in rascher Folge immer mehr kompatible Maschinen auf den Markt. Zum Erfolg von IBM trugen diese Kompatiblen auch bei, denn es gab dadurch eine viel größere Basis für Software Entwickler. IBM sah die Klones ähnlich wie Apple aber nur als unliebsame Konkurrenz an.
Apple verlor massiv an Marktanteilen. Der Nachfolger des Apple 2, der Apple 3 speziell als Geschäfts-PC konstruiert war ein Flop. Man erkannte das man um den IBM PC begegnen zu können einen erheblich moderneren PC anbieten musste. Man entwickelte einen PC mit grafischer Benutzeroberfläche. Die Grundlagen dafür wurden schon in den siebziger Jahren im Forschungspark von Xerox entwickelt, die jedoch die Möglichkeiten nicht erkannten. Steve Jobs erkannte jedoch die Chance und warb zahlreiche Leute von Xerox ab. Die Lisa 1983 vorgestellt war der erste PC der auch eine Maus verwendete. Der Lisa getaufte Rechner war aber viel zu teuer. Daher begann man eine Spar-Version der Lisa zu entwickeln. Den Macintosh - benannt nach einer in den USA populären Apfelsorte. Basierend auf dem schnellen 68000 Prozessor war der Macintosh mit einer grafischen Benutzer Oberfläche ausgestattet.
Der Macintosh hatte aber zwei Mängel: zuerst gab es für ihn zu wenig Software, zum anderen aber wollte Steve Jobs diesmal alleine das Geschäft machen. Er startete den Macintosh nicht mit Erweiterungssteckplätzen aus. Das ROM war so geschützt dass man es nicht kopieren konnte. Dagegen gab es sehr viele IBM kompatible Clones. Diese Rechner steigerten den Umsatz an Software für den PC und festigen den Marktanteil von IBM. Später wurde der Macintosh geändert, so dass er erweitert werden konnte.
Für den Apple Macintosh entwickelte Microsoft die Software. Dies war Microsofts Einstieg in die Software-Programmierung. Gleichzeitig erkannte Microsoft den Nutzen einer grafischen Benutzeroberfläche. Diese Entwicklung von Windows begann. Die ersten Versionen waren nichts anderes als ein Aufsatz auf DOS, es gab zu wenige verfügbare Programme und ein offensichtlicher Nutzen war nicht erkennbar. Auf den PCs erfreute sich das Konkurrenzprodukt von Digital Research GEM einer wesentlich höheren Beliebtheit, da es im Gegensatz zu Windows auch auf kleineren Rechnern lief auch auf den Atari ST lief eine GEM Version. Erst mit der Version 3.0, 1990 nach 5 Jahren war Windows so weit entwickelt dass der kommerzielle Durchbruch kam. Zwischen Apple und Microsoft entbrannte Ende der achtziger Jahre ein Prozessstreit, weil offensichtlich war, das Windows nur eine schlechte Mac OS Kopie war. Letztlich war Apple aber nicht erfolgreich, das Gericht beschied, man könnte das "Look and Feel" nicht patentieren lassen. Zum zweiten mal war Microsoft mit einer Kopie erfolgreich....
In den achtziger Jahren jedoch florierte zuerst der Heimcomputer Markt, obwohl immer weniger Geräte auf dem Markt erschienen stieg die Leistungsfähigkeit dieser jedoch enorm an. Diese Entwicklung ging wieder von Jack Tramiel aus. Nachdem er sich mit dem Management von Commodore überworfen hatte, kaufte er kurzerhand die Firma ATARI, die er vorher als Chef von Commodore fast an den Ruin getrieben hatte, auf. Er entwickelte innerhalb von wenigen Monaten einen Rechner auf Basis des 68000 Prozessors, den ATARI ST. Das Team war das gleiche das schon den C64 entwickelte. Er war grafisch wie der Mac. Dieser wurde zu einem enorm niedrigen Preis angeboten. Die ersten Geräte kosteten mit 1600 Mark nur ein Viertel eines gleichwertigen Macintosh oder PCs. Dabei bekam man einen Rechner dessen Prozessor auch in Workstations verbaut wurde und der erheblich leistungsfähiger als IBM PC war.
Commodore kam dadurch in Bedrängnis. Man entwarf einen Konkurrenz Rechner zum ATARI, den Amiga, ebenfalls auf Basis des MC 68000 Prozessors und ebenfalls grafisch. Doch der Erfolg des C64 ließ sich nicht wiederholen. Beide Firmen konnten allerdings es nicht schaffen zum kommerziellen Geschäft aufzuschließen, obwohl die Rechner in ihrer Leistungsfähigkeit einen PC schlugen. Die Stärke des Ataris war sein guter S/W Monitor, die grafische Benutzeroberfläche GEM war auch lange Zeit auf PCs erfolgreicher als Windows. Darüber hinaus verfügte der Atari ST über eine MIDI Schnittstelle, durch die er in Musikstudios einzog, als erster Rechner hatte der ST ein CD-ROM und auch ein preiswerter Laserdrucker war verfügbar.
Der Amiga war dagegen leichter zu erweitern mit Steckplätzen und seine Stärke lag in der Videobearbeitung, so nutzten ihn viele für den Videoschnitt oder für Titel oder einfache Effekte. Beide Geräte waren im Vergleich zu einem PC leistungsfähiger und bedienungsfreundlicher, doch bald zählte nur eines : Komptabilität. Nur noch IBM kompatible Geräte hatten Erfolg. So aber ließen sich die Kosten für die Weiterentwicklung der Ataris und Amigas nicht wieder hereinholen. Zudem begann Motorola die Entwicklung des MC 68000 Prozessor einzustellen zugunsten des Power PCs. Schlussendlich gingen beide Firmen Anfang der 90er Jahre Konkurs.
In dieser Zeit verdrängte der PC auch den restlichen Heimcomputer Markt. Die Vorteile eines Heimcomputer: geringe Kosten, Spielefähigkeit, großes Angebot an Spielen, wurden durch billige Farbmonitore und die ersten Soundkarten vom PC übernommen, obgleich man heute nicht für 500-1000 Mark einen PC erhält - das war Mitte der achtziger Jahre der Preis eines 8 Bit Heimcomputers.
Heute sind von der Vielfalt an Geräten nur noch zwei Architekturen übrig geblieben. Die Apples und die PCs. Die Rechner werden sich immer ähnlicher, selbst bei den PCs sind besondere Ausstattungen wie der berührungsintensive Bildschirm des HP 150 oder die wechselbare Festplatte des Tandom PAC , oder auch nur einen besonderes Design nicht mehr vorhanden. Es sind austauschbare "Kisten" geworden.
Bei der Rechner Architektur gab es innerhalb der letzten zwanzig Jahre zwar erhebliche Fortschritte, jedoch basieren auch heute noch die PCs auf der uralten 8086 Architektur. Die erste Erweiterung war der 80286 Prozessor, der ein vollwertiger 16 Bit Prozessor war. Er konnte 16 MB RAM direkt ansprechen, und war erheblich schneller als der 8086 Prozessor. Doch das Wechseln des Prozessors alleine verbesserte die Software nicht. Um den zusätzlichen Speicher ansprechen zu können und gleichzeitig kompatibel zum alten Prozessor zu sein entwickelte Intel einen zweiten Betriebsmodus. Zwischen diesen beiden Modi muss das Anwendungsprogramm wechseln. Allerdings ist ein rückwechseln vom Real (8086) in den Protected Modus (80286) nicht möglich. Auch DOS blieb so auf 1 MB Speicher beschränkt.
Mit dem 80386 Prozessor gab es 1986 eine Wende auf dem PC Markt. Zum ersten Mal wurde ein PC mit dem neuen Prozessor nicht von IBM sondern von Compaq vorgestellt. Der 80386 Prozessor war der erste vollwertiger 32 Bit Prozessor von Intel. Inzwischen hatte aber Intel unliebsame Konkurrenz. Als das Geschäft in den siebziger Jahren noch nicht so gut lief hatte man von anderen Firmen Patente gegen Patente an der 8080 ff. Technologie getauscht. Nun begannen diese Firmen ihre 8086 und 80286 Nachbauten legal zu bauen, nahmen damit aber Intel Marktanteile weg.
Zum Verkauf Schlager wurde daher die 386 SX Variante: der Datenbus war nur 16 Bit breit, so dass die Bausteine für den 80286 Prozessor weiter verwendet werden konnten. Beim 8086 hieß der entsprechende Schmalspurprozessor noch 8088, nun aber änderte man aus Marketinggründen den Namen nicht, und als überzeugende Botschaft fungierte der Slogan "3 ist mehr als 2". Das leuchtete ein und 1989 verdrängten billige 386 SX Rechner die 80286 Nachbauten vom Markt.
Der 486 Prozessor der 1989 erschienen war zuerst kein Renner. Die 386 er Bausteine von AMD erfreuten sich größerer Beliebtheit. Grund dafür war, das zwar der Prozessor schnell war, jedoch man noch immer noch unter DOS arbeitete. Dafür reichte der AMD 386 aus. Nun zeigte sich zum wiederholten Maße die Allianz von Intel und Microsoft: durch den Erfolg von Windows 3.1 1992 benötigte der PC mehr Arbeitsspeicher, größere Festplatten, und einen schnelleren Prozessor. Auch hier gab es eine billigere Variante, den 486 SX: Es war ein 486 ohne Fliesskommaprozessor. Auch er schaffte es die 386 CPUs von AMD aus dem Markt zu verdrängen. Ähnlich wie bei Windows 3.1 kurbelte Microsoft den Umsatz an Pentium Prozessoren 1995 an, als Windows 95 erschien.
Immer dann wenn Clones Intel zu nahe rückten hat Intel seitdem einen Trumpf im Ärmel. Zuerst versuchte man die Konkurrenz mit neuer Hardware abzuhängen. Man Integrierte 1995 MMX - die parallele Verarbeitung von mehreren Integer Befehlen - und pries es als die Beschleunigung für Multimedia. Auch wenn es kaum Software gab die es unterstützte und der Gewinn doch eher klein war. Hauptsache der unwissende Verbraucher merkt sich "MMX brauch ich ". Doch schon 1999 klappte das Spiel mit ISSE - einem wesentlich weitergehenden Konzept - nicht mehr, obgleich nun wirklich Geschwindigkeit herauskam, denn schon ein Jahr früher hatte AMD mit 3D Now eine einfachere Erweiterung vorgestellt, die Intel die Schau stahl.
Inzwischen verlegt sich Intel mehr auf Druck auf die Motherboard Produzenten (Sie stellen auch die Chipsätze für die Prozessoren her, die man für ein Motherboard braucht) und wechselt alle Naselang den Prozessorsockel, inzwischen auch gleich das RAM. So gibt es für den 1997 vorgestellten Pentium II/III inzwischen 4 Sockel für Platinen und 3 für Chips ( Celeron , Pentium, FPGA), in der gleichen Zeit wurde das RAM auch mehrfach gewechselt (von SIMM über DIMM über SD-RAM DIMM, über 100 und 133 MHz SDRAM DIMM zu RAMBUS DIMM), so das man viel Glück braucht um nur einen ein Jahre alten Rechner aufzurüsten. Natürlich steigt auch die Performance - aber man hat mehr das Gefühl, das man sich so die Konkurrenz vom Hals halten will.
So ist es nur logisch, das AMD - der einzige von ehemals vier Intel Nachbauern, der noch mithalten kann - für den Athlon Prozessor sich einen eignen Sockel und eigenen Chipsatz ausdachte. Und da der Prozessor erstmals schneller als ein Pentium III ist, sogar damit Erfolg hat.

Power PC: Der Sieg von RISC

Motorola die immer vor Intel einen Prozessor mit einer neuen Architektur entwickelten, erkannten Anfang der neunziger Jahre, dass die alte 68000 Architektur nicht zukunftssicher ist. Sie entwickelten zusammen mit IBM und Apple einen neuen Prozessor, der zwar den alten Code des 68K verarbeiten sollte jedoch auch neue Instruktionen beinhalten sollte dieser Chip sollte ein RISC Prozessor sein.
Während der achtziger Jahre zeigte sich immer mehr, dass das bisherige Prozessor Design: der Prozessor verwendet immer mehr und komplexe Befehle, von Anwendungen nicht genutzt wurde. 20 Prozent der Befehle wurden nur 80 % des Codes benutzt. Warum sollte man also nicht einen schnelleren Prozessor mit nur 20 Prozent der Befehle entwickeln? Dieser könnte diese schneller durchführen und billiger produziert werden. Diese Architektur nennt man RISC. Der Power PC Prozessor von Motorola ist kein echter RISC Prozessor, da er noch die alten 68 Codes mit ausführen muss. Jedoch benötigt ein Power PC Prozessor für dieselbe Rechenleistung wie ein Intel Prozessor nur ein Drittel der Transistoren und bis zum G3 keinen Kühlkörper, da der Stromverbrauch geringer ist. Noch stärker am RISC Design orientiert ist der Alpha Prozessor von DEC (heute HP). Bei ähnlichen Transistorzahlen wie ein Pentium II arbeitet er bei über größeren Taktfrequenzen, besitzt mehr Register und hat zudem noch den L2 Cache integriert. Er ist fast doppelt so schnell wie ein Pentium Prozessor gleicher Taktfrequenz.
Auch Intel hat seit dem Pentium keinen 8086 Kern im Prozessor mehr. Stattdessen führen kleinere RISC Unterprozessoren parallel Befehle aus. Eine spezielle Logik zerlegt die 8086 Befehle in kleinere RISC Prozessor Befehle. Ein Pentium III ist eigentlich eine Art 8086 Emulator.
Nachdem schon seit 1991 in Workstations 64 Bit Prozessoren verbreitet sind, gibt es ab 2001 auch von Intel solche Rechner. Der als " Itanium " bezeichnete erste 64 Bit Prozessor von Intel verwendet eine neue Architektur die erheblich näher an RISC ist. Die erste Generation hat zwar teilweise beeindruckende Werte, ist insgesamt aber noch nicht der große Wurf. Ab Ende 2002 soll die zweite Version des Itanium dies ändern. Gleichzeitig wird AMDs erster 64 Bit Prozessor auf den Markt kommen, der anders als der Itanium kompatible zu der x86 Serie ist und "nur" einen zusätzlichen 64 Bit Modus enthält.
Intel wird den Übergang sicher wie Microsoft bei Windows langsam vollführen. Schon zwei mal musste die Firma erleben, dass das abweichen von Standards riskant ist. Der Erste Versuch war Ende der achtziger Jahre der Intel 860. Ein 32 Bit RISC Prozessor, der in Geschwindigkeit die x86 Linie in den Schatten stellte - aber eben nicht kompatibel war. Heut fristet er sein Brot als Mikrocontroller z.B. in Laserdruckern. 1994/5 kam dann der Reinfall mit dem Pentium Pro. Der Pentium pro integrierte auf dem Chip den L2 Cache der mit voller Taktgeschwindigkeit lief. Die Herstellung war aber dadurch zum einen teuer (hoher Ausschuss bei den Caches) und zum anderen war er nur mit 32 Bit Befehlen wirklich schnell. Bei 16 Bit Befehlen dagegen langsamer als ein Pentium. Vielleicht hatte sich Intel auch zu sehr auf Microsoft verlassen, in dem Glauben Windows 95 würde ein 32 Bit Betriebssystem werden. Tatsächlich waren aber viele Systemtreiber noch in 16 Bit Programmiert und unter Windows 95 hängte ein Pentium 120 den wesentlich teureren Pentium Pro mit 150 MHz ab. Selbst die neueste Windows ME Version besitzt immer noch 16 Bit Treiber..

OS/2 - der vergebliche Versuch die Clones abzuwürgen

Mitte der achtziger Jahre gab es noch einen zweiten wichtigen Einschnitt: IBM wollte unabhängig von den Klone Herstellern werden, und konzipierte eine neue Rechner Architektur. Ähnlich wie bei Apple ging dies jedoch schief. Die Kunden bevorzugten lieber die Kompatiblen Geräte der Konkurrenz. Die MCA Architektur war richtungweisend indem Sie viele der alten 86 Standards über Bord kippte und auf der moderneren 286 Architektur basierte. Aber die Slots waren geschützt und damit gab es keine Clones nur Rechner von IBM. Seit Mitte der achtziger Jahre hat IBM dadurch auch die Macht verloren Standards zu kreieren die sich als Industriestandart allgemein durchsetzen. So ist heute noch der letzte gemeinsame Standard für Grafikkarten die VGA Auflösung und für Diskettenlaufwerke das 1.44 MB Format.
Dabei hatte IBM doch schon den Prestigeerfolg auf seiner Seite. Obgleich ein IBM PC deutlich teurer als ein anderer Marken PC (etwa von Compaq, Apricot, Commodore oder Schneider) war und man für einen Taiwan Clone nur ein Drittel eines IBM AT zahlen musste (welche Verdienstspanne...) war IBM Marktführer, denn bei Preisen von 7.000-20.0000 DM gingen die PCs noch Ende der achtziger Jahre noch vornehmlich an Geschäftskunden.
Auch im Software Bereich wollte IBM neue Wege gehen. Gemeinsam mit Microsoft schrieben sie ab 1987 das Betriebssystem OS/2. OS/2 hatte jedoch zuerst keine grafischen Benutzeroberfläche, lange Zeit war ihm kein Erfolg beschieden, weil die Hardwareansprüche zu hoch waren und es zuwenig Software gab. Gleiches galt auch für Windows bis zur Version 3.0 die mit TrueType Fonts und erstem Multitasking erfolgreich wurde. Im Gegensatz zu OS/2 ersetzt Windows aber nicht das DOS sondern sitzt auf ihn auf. Das gilt auch noch für Windows ME. Gerade das aber machte den Verkaufserfolg von Windows aus: Es saß auf dem DOS auf und wer Probleme mit ihm hatte, arbeitete einfach weiter unter DOS. Man holte den Verbraucher bei dem ab was er schon kannte. OS/2 war das was bei Microsoft Windows NT war - ein echtes 32 Bit Betriebssystem, stabil aber es stellte auch große Ansprüche an die Hardware. OS/2 wurde zu spät grafisch und blieb in den Hardwareansprüchen immer zu hoch. Erst als Windows 3.1 schon fest im Markt etabliert war, wurde mit OS/2 V3 Warp eine Version herausgebracht die etwas moderatere Ansprüche an die Hardware hatte und auf den Endanwender zugeschnitten war. Es war jedoch zu spät, viele Anwender nutzten nun Windows und wollten nicht mehr umsteigen.
Seit seiner Urversion 1991 hat sich Linux zu einem sehr interessanten Betriebssystem gemausert. Inzwischen kann man mit ihm genauso wie mit Windows arbeiten. Der eigentliche Erfolg ist aber der das dies alles ohne kommerzielle Interessen erfolgte. Es ist erstaunlich das die Zusammenarbeit von Programmierern in der ganzen Welt inzwischen zu einem Betriebssystem geführt hat, das den wesentlich älteren Produkten Windows oder Mac OS in nichts nachsteht. Schuld daran ist auch das Internet , das ich seit Anfang der neunziger Jahre zuerst langsam, dann seit 1994/95 explosionsartig entwickelte. Übrigens eine Entwicklung die Microsoft verschlafen hatte. Man setzte mehr auf das hauseigene MSN Netzwerk

Die Zukunft

...kennt noch niemand. Jedoch kann man schon Aussagen über Trends machen. So starb DOS endgültig mit Windows XP. Die Firma setzt inzwischen voll darauf durch ihre Marktmacht auch in andere Bereiche einzubrechen und dort die Standards zu setzen. So schreibt Windows CE den Prozessor vor und mit der .NET Initiative will man eine Konkurrenz zu Java schaffen.
Intel steht heute an denselben Problemen wie schon Motorola Anfang der neunziger Jahre. Eine Weiterentwicklung der 86er Architektur dringt immer kleinere Geschwindigkeitsvorteile und erzeugt immer komplexe Prozessoren. Der Itanium soll diese langsam ablösen.
Es ist ein Anachronismus wenn in einer so schnelllebigen Branche der Code der meisten Programme auf dem des 386 er basieren. Dieser wurde schon vor mehr als 15 Jahren eingeführt. Bestimmte Teile der Consumer Variante von Windows basieren sogar noch auf 16 Bit Code. Leicht erkennbar an der DOS-Box welche Sie begrüßt mit:
Da 1986 die erste Version von Windows erschien, zeigt diese Meldung deutlich das Windows bis zur XP Version noch immer auf dem 16 Bit DOS von 1981 basiert.
Heute verbraucht ein PC die meiste Rechenleistung für Spiele. Schon heute sitzen auf 3D Grafikkarten Grafikprozessoren die eine größere Rechenleistung als der eigentliche Prozessor besitzen. Intel wollte dieser Konkurrenz durch Eingliederung von speziellen Befehlen für Grafikoperationen den Garaus machen. Doch eigene Grafikcontroller von Intel konnten sich auf dem Markt nicht durchsetzen. Es ist aber er anzunehmen, dass in Zukunft zu dem eigentlichen Prozessor weitere Signalprozessoren sich gesellen. Sei es für die Verarbeitung von komplizierten Videosignalen oder für die Berechnung von Echtzeit Grafiken. Natürlich könnten auch ganz neue Hauptprozessoren mit speziellen Befehlen für die Signalverarbeitung die heutigen Prozessoren ablösen. Denn für die tägliche Arbeit reicht die Rechenleistung schon heute mehr als aus.
Die heutigen Prozessoren haben viele Architekturmerkmale von Großrechnern übernommen. So die Staffelung der Caches, die Kühlung der Chips, die Verwendung von immer mehr Bits (64 sind heute Standard) sowie die Verarbeitung von mehreren Daten mit einem Befehl. Wenn dieser Trend weiter anhält so muss man nur ansehen welche Architektur die heute schnellsten Rechner haben: es sind Parallelrechner bestehend aus Tausenden von PC Prozessoren mit eigenem Speicher. Eine Übertragung des Konzeptes auf einen Chip hätte auch den Vorteil dass die Signale kleinere Strecken zurücklegen müssten, da auf einem Chip mehrere Prozessoren sich befinden und die Signale zumeist nur innerhalb eines Subprozessors laufen. Für die heute rechenintensivste Anwendungen (Grafik und Multimedia) wäre ein solches Konzept sogar ideal geeignet, denn man könnte z.B. ein Bild in 4, 8, 16... Unterbilder zulegen die separat berechnet werden können. So gewinnt z.B. der Athlon gegenüber dem Pentium III an Geschwindigkeit weil er mehr Rechenwerke intern beschäftigen kann, also prinzipiell mehrere kleine Prozessoren parallel in einem Chip beinhaltet.
Der Multimedia Trend wird dafür sorgen, das auch in Zukunft immer leistungsfähigere Rechner verlangt werden. War Multimedia vor einigen Jahren noch das Abspielen von Musik zu Computergrafiken, so ist es heute das Dekodieren von MPEG Videos und realitätsnahen 3D Grafiken für Spiele, und in Zukunft vielleicht das Erschaffen von virtuellen Welten. Der Flaschenhals ist derzeit noch die Internetanbindung für den Privatmann. Denn die Multimedia Fähigkeiten fordern viel Bandbreite. Schon bei den MP3 Files, deren Raubkopieren so oft beklagt wird, sieht man das Dilemma. Für das Laden einer CD (74 min), benötigt ein analoges Modem für 74 Min. Ca. 4 Std.
Von der Software der Zukunft können wir nur hoffen dass Sie noch bedienungsfreundlicher und Anwendertoleranter (früher sagte man fehlertoleranter) meist wird sie aber nur umfangreicher.
Inzwischen hat auch der PC Konkurrenz bekommen. Der PC war und ist in seiner Auslegung eine Alleskönnermaschine. Doch schon in den achtziger Jahren waren Heimcomputer, mit denen man gut spielen konnte, wenn auch nur bei einigen Geräten arbeiten, sehr erfolgreich. Heute sind dies Spielkonsolen. Durch geschickter Kombination der Hardware und kein 300 MB Betriebssystem welches Rechenleistung frisst ist es möglich bei einer Spielkonsole zu einem Bruchteil des Preises mit einem PC gleichzuziehen. Neuere Geräte haben auch die Möglichkeit im Internet zu surfen und machen dafür einen PC überflüssig. Nicht umsonst kommt inzwischen sogar von Microsoft eine Spielkonsole: Die X-BOX. Allerdings basierend auf herkömmlicher PC Technologie.
Fürs Internet prädestiniert - ein Medium zur Informationsbeschaffung - wären Web Pads - DIN A4 große TFT Displays mit einem Stift zum Anklicken. Die könnte man wie Bücher benutzen, gemütlich im Sessel lümmeln, anstatt vor einem Monitor zu sitzen. Derzeit gibt es davon nur Prototypen, doch das Marktpotential ist enorm: Es wollen viele ins Internet, aber nur wenige wollen dafür einen umständlichen PC der noch dazu 2000 Mark kostet. Wenn es da eine bequemere und billigere Alternative gibt, so könnten diese Geräte dem PC Marktanteile abnehmen. Schlussendlich sollte man sich eines vergegenwärtigen: Auch wenn die PC-Prozessoren von Intel, AMD & Co als das Maß der Dinge erscheinen, so machten sie 1999 nur 2% des Gesamtmarktes an Prozessoren in Stückzahlen aus. Da von 1981 bis 1999 aber der Preis eines PCs von 11700 DM auf rund 2000 DM sank, im gleichen Zeitraum aber der Preis für den Prozessor von 100 auf 400 DM stieg, macht Intel mit seinen 2 % Marktanteil 50 % des Gesamtumsatzes beim Prozessormarkt - Dies könnte sich mit kleineren spezialisierten Lösungen ändern. Doch dazu müssten die Kosten für LCD Panels erheblich sinken und vor allem auch eine Handschriftenerkennung weitgehend fehlerfrei sein

27 Jahre PC

Teilt man die Zeit seit Januar 1975 als der Altair 8800 angekündigt wurde in 3 Perioden von 9 Jahren so stimmen diese recht gut mit wichtigen Meilensteinen in der Entwicklung des PCs überein.

1975-1984: Der PC wird erwachsen

Den 1975 erschienen Altair 8800 würde man nach heutigen Maßstäben allerhöchstens als Elektronikbauskasten bezeichnen. Ausgabe über Leuchtdioden, Eingabe über Kippschalter, User Interface war Maschinensprache, in Binärschreibweise einzuklopfen. Doch schon 1978 gab es Rechner die nur Leute ansprachen die nichts mit Elektronik am Hut hatten. Der Apple II hatte eine echte Tastatur, Bildschirm, Floppys und einen BASIC Interpreter als User Interface. Anfang der achtziger Jahre gab es die ersten Anwendungsprogramme die Datenbanken, Tabellenkalkulation und Textverarbeitung und man konnte am Rechner im Prinzip alle Büroaufgaben meistern, nur natürlich mit einem nach heutigen Maßstäben primitiven User Interface. Dies änderten die 1983 erschienene LISA und der 1984 erschienene Macintosh. Damit verfügte im Prinzip schon 1984 die Rechner über alle technologischen Errungenschaften die sich auch heute in den Rechner finden.

1984-1993: Der PC setzt sich in der Arbeitswelt durch

Prägend in dieser Epoche war weniger, das viel neues erfunden wurde. Vielmehr wurden grafische Oberflächen verbessert und setzten sich ab 1990 auch auf der Intel Welt durch. Ähnlich erging es textorientierten Oberflächen. Diese wurden perfektioniert. Gleichzeitig sanken aber die Preise für einen PC rapide. Der PC setzte sich gerade weil sich nicht so viel tat, in der Bürowelt durch. Schlussendlich ist es schon teuer Mitarbeiter an neue Arbeitsmittel zu gewöhnen, auch ohne das jede Softwareversion mit neuen Features aufwartet.
In der gleichen Zeit verdrängte die Intel Architektur alle anderen PCs die auf dem Markt waren, seien sie nun von Atari, Commodore oder Arm. Am Ende blieb nur noch Apple übrig so das man seither von einem Mac oder einem PC spricht und damit entweder einen Rechner von Apple oder einen auf Basis eines Intel/Windows Systems meint.

1993-2002: Der PC zieht in die Wohnzimmer ein

Realistisch betrachtet stimmt immer noch die Aussage des DEC Chefs von 1977, das es keinen Grund gibt für eine Privatperson einen PC zu kaufen. Ist man ehrlich, so rechtfertigen einige Briefe die man damit tippen kann, oder die einmal im Jahr anfallende Steuererklärung kein 2000 DM Gerät mit monatelanger Einarbeitungszeit. Trotzdem setzte sich in dieser Zeit der PC im Wohnzimmer durch: Dank Internet und Spielen. Internet ist eine Kommunikationsmittel, das wenn es dies nicht gäbe, erfunden werden muss. Auch wenn der objektive Nutzen eher gering ist spricht es doch Grundbedürfnisse des Menschen nach Information und Kommunikation an. Sehr bald gehörte man zum Abseits wenn man noch nicht "surfte". Gerade Eltern sind in der Wohlstandsgesellschaft auch froh wenn die Kinder am Computer spielen - leider eine traurige Tatsache.
Propagiert wird seit Jahren der PC als Zentrale für die Elektronik im Haus, seien es Unterhaltungsgeräte wie Videorecorder und DVD Spieler, wie auch für Überwachungsausgaben. Fehlend sind bislang Standards sowie Vernetzungsmöglichkeiten. Schlussendlich ist ein PC heute zu laut, zu komplex und zu umständlich zu bedienen. Stattdessen beobachtet man einen eher umgekehrten Trend: Es gibt immer mehr neue elektronische Geräte: MP3 Player, DVD Spieler, Set-Top Boxen für Internet oder Webpads, Videorecorder mit kleinem PC. Auch so ist der Umsatz der Hardwarehersteller gesichert. Nur der Firma Microsoft nicht, die deswegen an einem Standard für derartige Geräte arbeitet. Es wird spannend wie sich der PC in den nächsten 10 Jahren weiterentwickeln wird...

2002 -: Die Krise und evt. ein neuer Anfang?

Im Jahr 2001/2002 bröckeln die Umsätze nahezu aller Computerfirmen, schuld daran ist ein stagnierender Markt. Warum sollte man sich auch heute einen neuen PC kaufen? Ein 200-300 MHz Rechner recht für viele aus. Man kann damit die Arbeit erledigen (und geschäftlich genutzte PCs machen noch die meisten Verkäufe aus) im Internet surfen und auch spielen. Natürlich gibt es immer Nischen wo man nie genug Rechenleistung haben kann: Bei den neuesten Spielen, Videoschnitt oder bei Servern. Doch der normale Nutzer gibt nicht 1000 € für ein neues Gerät aus, wenn er mit seinem alten zufrieden ist.
Es ist allerdings auch nicht zu übersehen, das der Computer in den nächsten 20 Jahren weniger frei sein wird als bisher. Schon gibt es CDs mit Kopierschutz - nicht für Software sondern für Lieder, damit man sie nicht am Computer kopieren kann. MP3 Sites werden reihenweise von der Musikindustrie mit Prozessen überzogen. Bei Scannern ist eine Urheberrechtsabgabe fällig wie bei Kopierern. Im September 2003 wurde das Urheberrecht so geändert, dass das Recht der Privatkopie bei Musik nur noch auf dem Papier steht. Da man keine Kopierschutzsperren umgehen darf, darf man im Prinzip nicht mehr kopieren ohne sich strafbar zu machen.
Es gibt nur noch Windows mit persönlicher Registrierung und Hardwareverdongelung. Am Horizont zeichnet sich TCPA ab - eine Initiative die nur noch zertifizierte Programme zulässt. Das mag auch ein Schutz vor Viren sein, jedoch auch eine Möglichkeit Monopole die heute schon existieren noch mehr vor Mitbewerbern abzuschotten. Die nächste Windows Version wird wahrscheinlich nur noch "Sichere" Programme ausführen können. Nein, das sind nicht Windows Anwendungen die nicht mehr abstürzen, sondern Programme die von Microsoft als sicher zertifiziert wurden. Ist dies nicht der Fall, so wird man diese weder installieren noch ausführen können. Es steht zu erwarten, dass Microsoft dies nach der Salamitaktik einführt, bis keiner mehr daran vorbeikommt. Dann wird es nach dem Sterben von alternativen Hardwareansätzen und Betriebssystemen für einen PC auch noch das große Softwaresterben geben, denn nur die größten dürften sich noch eine MS Zerfizierung leisten können.

Die ersten 64 Bit PCs - Nichts dazugelernt?

Nachdem es schon seit langem bei anderen Plattformen 64 Bit Prozessoren gibt, zieht der PC Markt Mitte 2003 nach: Der Athlon 64 erscheint vom AMD. Dies ist ein 64 Bit Prozessor, der aber auch noch die bisherigen 32 Bit Programme ausführen kann, und dies bei einer sehr guten Performance. Das Erscheinen ist keine Überraschung, denn der Prozessor ist sein 2001 angekündigt. Doch wie sieht es mit der Unterstützung aus? Wo sind 64 Bit Programme und 64 Bit Betriebssysteme? Nur wer Linux einsetzt kann 64 Bit Programme ausführen. Windows bietet noch keine 64 Bit Unterstützung. Dabei gibt es ein 64 Bit Windows, aber nur für den Intel Itanium Prozessor, einen sündteuren Server Prozessor. Erst Mitte 2005 erscheint auch ein 64 Bit Windows - Allerdings setzt nun auch Intel die 64 Bit Erweiterung von AMD ein (zum ersten Mal nutzt Intel eine Technologie eines Mitbewerbers).
Es scheint als würde sich die Geschichte wie beim Intel 386 wiederholen, auch dieser erschien 1986 und es dauerte 10 Jahre bis 1995 auch Windows für den Privatverbraucher 32 bittig war. (Bis die letzten 16 Bit Altlasten aus dem System flogen dauerte es sogar bis Windows XP, 2001). Die enge Beziehung zu Intel hat auch bei Microsoft Tradition.

Das Ende der Fahnenstange ?

Waren PC Käufer in den letzten 25 Jahren gewohnt immer mehr Leistung für ihr Geld zu erhalten, so hat sich dies zumindest bei dem Anstieg der Taktfrequenz geändert. Ende 2002 hatte Intel die 3 GHz Marke überschritten und 3 Jahre später lag die Marke bei 3.8 GHz - Ein magerer Anstieg um 23 % in 3 Jahren, während sich sonst die Taktfrequenz in dieser Zeit verdoppelte. Bei AMD war der Abfall nicht so drastisch, doch auch spürbar. Dies liegt daran, dass die Athlon Prozessoren noch niedriger getaktet sind. Die Angabe "Athlon 4000" bedeutet nur, dass er in etwa so schnell sein soll wie ein Pentium 4 mit 4000 MHz, in Wirklichkeit läuft er mit 2400 MHz.
Experten sind sich einig : Die Taktfrequenzen werden nun langsamer ansteigen, vor allem weil die Leckströme und damit der Stromverbrauch bei höheren Taktfrequenzen rapide ansteigen. Stattdessen kündigen alle Hersteller Multiprozessor Cores an. Das sind im Prinzip mehrere CPUs auf einem Prozessor, allerdings zuerst niedriger getaktet als ein einzelner Prozessor. Ohne Software die diese Architektur ausnützt bringt dies keinen Zuwachs an Geschwindigkeit. Es ist daher noch nicht sicher ob sich diese Architektur durchsetzen wird, wenn sie ab 2006 auf dem Markt verfügbar ist. Schlussendlich nutzt auch heute Software viele der seit 1995 neu hinzugekommenen Funktionseinheiten wie MMX, 3Dnow!, SSE, SSE2,SSE3 und HT nicht aus.
Der PC Markt ist in den letzten Jahren abgeflaut. Zwar wächst er immer noch besser als die meisten anderen Branchen doch nicht mehr so stark wie früher. Es fehlen Gründe sich einen neuen PC anzuschaffen, zumal die Geschwindigkeit immer langsamer steigt. Die Nutzungsdauer eines PC hat sich auch in den letzten 4 Jahren von 35 auf 42 Monate erhöht - Tendenz weiter steigend.

Mehrkernprozessoren (2006-

Die "Net Burst2 Technologie des Pentium 4 erwies sich im Rückblick für Intel als teure Sackgasse. Sie basierte darauf, dass man den Takt eines Prozessors stark steigern kann und war für eine hohe Taktrate optimiert. AMD verfolgte bei seinen Athlons und Operons mehr die Strategie mehr Einheiten gleichzeitig zu betreiben. Die Verlustleistung steigt bei hohem Takt stark an und bald waren neue Prozessoren von Intel einfach am Ende der Möglichkeiten wo man sie noch kühlen konnte ohne aufwendige Systeme einzusetzen. Dadurch konnte AMD zwischen 2001 und 2006 gravierend zulegen und verkaufte in Europa teilweise mehr Prozessoren als Intel.
Intel stellte seine Produktion um und vertreibt nun Mehrkernprozessoren. 2006 sind es zwei pro Prozessor, Ende 2007 sollen 4 folgen und 2008 schon 8 Stück. Bei zwei Prozessoren ist der Gewinn vor allem in der Bequemlichkeit gegeben: Da ein Großteil der PC Software nur einen Prozessor nutzt ist immer einer frei und man muss nicht mehr warten (sofern man auf den Prozessor wartet und nicht die Festplatte oder das Netzwerk das Nadelöhr ist). Mehr und mehr wird Software auch mehrprozessorfähig sein. Der Großteil der Software welche heute viel Rechenleistung benötigt wie Videoschnitt oder Spiele ist relativ einfach anzupassen.
Mehrkernprozessoren ermöglichen viel einfacher Virtualisierung. Damit ist gemeint, dass man unter einem Betriebssystem ein anderes emuliert. Es gibt zahlreiche mögliche Anwendungen dafür auch für Normal PC Benutzer. Windows Benutzer können Linux testen und Linux Benutzer können Windows Programme ausführen die es für Linux nicht gibt. Man kann ein Programm testweise installieren ohne sein Arbeitssystem zu kompromittieren. Da jedes Betriebssystem aber Rechenleistung braucht macht dies erst bei einem Mehrkernprozessor richtig Sinn, Sonst fühlt sich das ganze "zäh" an. Man wird sehen ob immer mehr Kerne auch immer besser ausgenutzt werden. Die Mehrkernarchitektur kommt von den Großrechnern wo sie seit Jahrzehnten eingesetzt wird. Allerdings ist dort auch ein Rechner für zahlreiche Benutzer zuständig oder die Software wurde speziell dafür entwickelt.
2006 verabschiedete sich auch Apple von den Power PC Prozessoren und setzt nun auf Intel, ist damit aber erfolgreicher denn je, denn nun kann man auch Windows XP installieren, was Apple sogar unterstützt - Damit entfällt die Entscheidung Windows oder Apple.
Windows Vista kam 2007 heraus und durchlief eine enorme Wandlung im Laufe der Entwicklung die länger dauerte als bei jedem Betriebssystem zuvor. Angekündigt als Antwort auf die Sicherheitsprobleme von Windows mit einem neuen System, das nicht kompromittiert werden kann und einem Kompabilitätssystem für alte Software sollte es aufräumen mit den zahlreichen Sicherheitsupdates. Ein neues Dateisystem sollte eine sehr schnelle Suche nach Inhalten auf der Festplatte erlauben. Das am meisten kritisierteste war eine Umsetzung der Forderungen der Unterhaltungsindustrie nach einem Digital Rights Management welches es nicht erlaubt, das man hochauflösende Videos oder Material mit einem DRM Schutz einfach kopiert oder die Datenströme im System abgreift.
Was heraus kam war eine grafisch aufgepeppte Version mit dem DRM Schutz, aber nicht den anderen wirklich nützlichen Ideen. Der Sicherheitsschutz ist nach wie vor löchrig weil man permanent vom System gefragt wird ob man etwas wirklich möchte und bei der Installation von Software keine Alternative hat als dies ab zunicken. Echte Sicherheitswarnungen gehen dann irgendwann unter weil man dauernd gefragt wird.
Spielekonsolen erfreuen sich immer mehr Beliebtheit, auch weil deren Leistung in den letzten Jahren kräftig angestiegen ist. Sie können nun auch mehr als nur Spielen und sollen nach Willen der Hersteller mit Browser, Mailprogramm und ähnlichem auch teilweise den PC ersetzen.
Der Multimedia PC - lange angekündigt  als die Revolution - wird wohl nicht den Siegeszug im Wohnzimmer antreten. Vielmehr erobern kleine Clients mit dezidierten Funktionen das Wohnzimmer, wie Festplatten-Videospiele oder Festplatten Rekorder, Satelliten Receiver mit Festplatte, Streaming Clients für Audio und Video.

Die Peripherie...

Nicht ganz so spektakulär wie die Entwicklung der PCs verlief die Entwicklung der Peripheriegeräte, vor allem Monitore und Drucker hatten gute Chancen eine Computergeneration zu überleben.

Drucker

Bei den Druckern war lange Zeit Standard der Matrixdrucker. Die ersten Modelle mit 7 Nadeln, dann 8, 9 und schließlich Mitte der achtziger Jahre der 24 Nadeldrucker. Die Geschwindigkeiten stiegen nur langsam von 80 auf max. 240 Zeichen/sec. Dies ist im wesentlichen mechanisch bedingt, schlussendlich muss ein Druckkopf über ein Farbband auf das Papier hämmern. Obgleich die Nadeldrucker sehr günstig Unterhalt waren, hatten sie doch zwei Nachteile: Das nervende Arbeitsgeräusch, das an eine Kreissäge erinnert und das doch eher schlechte Schriftbild. Ab 1991 wurden sie von den immer leistungsfähigeren Tintenstrahldruckern abgelöst.
Schon Anfang der achtziger Jahre gab es die ersten Tintenstrahldrucker - Natürlich von HP erfunden. Doch erst ab 1992 begannen die Verkaufszahlen die der Matrixdrucker zu überrunden, inzwischen gab es auch mehr Hersteller. Die Auflösung wurde immer weiter gesteigert und erreicht heute Fotoqualität. Der Durchbruch des Tintenstrahlers war aber seine Farbfähigkeit. Das gab es zwar auch bei einigen Matrixdruckern, doch waren damit nur einfarbige Flächen sauber druckbar. Jeder der einen hat kennt den Nachteil: Tinte ist teuer. Bis zirka 1993 konnte man noch selbst die Tinte mixen, mittlerweile sind die Köpfe so konstruiert, das man möglichst nicht nachfüllen kann. Als Ausgleich wird der Drucker fast geschenkt.
Der Laserdrucker wurde erstmals von Apple zum Mac angeboten. Erfunden wurde er von Xerox schon anfangs der siebziger Jahre. Doch erst Mitte der achtziger Jahre kam er zum PC. Die ersten Laserdrucker gab es für den Mac. Doch durch die Wahl auf Postscript von Adobe als Seitenbeschreibungssprache waren die ersten Geräte erheblich teurer als ein Mac oder PC, denn die Controllerelektronik übertraf die PC Leistung bei weitem. Mit der Einführung von PCL als Beschreibungssprache durch HP wurden die Geräte bald viel billiger, doch die Massenproduktion wurde auch durch Windows unterstützt - schließlich wollte man die True Type Fonts auch zu Papier bringen. Heute sind Laser nicht viel teurer als Tintenstrahler und durch ihr sauberes Schriftbild und geringe Kosten die Wahl beim Schwarzweißdruck. Anders als Tintenstrahldrucker ist die Auflösung der Drucker nur langsam gestiegen. Schon die ersten Modelle boten 300 dpi. Die Spitze liegt heute bei 1200 dpi

Monitore und Grafik

Monitore gab es zuerst einfarbig - in grün, bernsteinfarben oder grau. Auch beim PC war der einfarbige Monitor lange Zeit der Standard und machte Herkules groß - sie hatten eine Monochromgrafikkarte entwickelt die IBMs Textlösung ziemlich alt aussehen lies. Heimcomputer wurden lange Zeit nur an den Fernseher angeschlossen - was allerdings die Auflösung so auf max. 320 × 200 beschränkte. Das war aber auch die Standardauflösung der IBM PCs für die man aber einen echten Farbmonitor brauchte. Mit Einführung von EGA (640 × 350) im Jahre 1986 und VGA (640 × 480) 1989 stieg langsam die Auflösung, während die Monitorgröße bei 12" blieb. Seitdem steigt der Durchmesser der Monitore langsam aber stetig. 1992 war der 14" Standard, 1996 der 15" und heute ist es der 17". Physikalisch ist hier eine Grenze gesetzt, denn je höher die Auflösung bei gleicher Fläche, desto kleiner die Details und desto mehr muss sich das Auge anstrengen. Auch von den Farben her ist keine weitere Steigerung zu erwarten - 16 Millionen Farben sind schon mehr als die 500.000 die das Auge auseinander halten kann. Neu sind seit 1999 die TFT Displays für Desktop Computer, die langsam im Preis sinken und eventuell den Monitor in einigen Jahren ablösen.
Grafik hatte schon 1978 der Apple 2. Die meisten Rechner und auch der CGA Standard den der IBM PC hatte beschränkten sich auf 8-16 KByte RAM (Auflösungen z.B. 320 × 200 Punkte in 4 Farben). Was heute NVida und GeForce ist war in den achtzigern der 6845 Graphikcontroller, den praktisch jeder einsetzte, der nicht einen eigenen Chip entwickelte.
Grafikkarten beschränkten sich zuerst nur auf die Anzeige der Information. Der Rechner schrieb etwas in den Grafikspeicher und der Graphikcontroller zeigte dies an. 1991 erschienen die ersten Grafikkarten die Unterstützung für die Funktionen von Windows 3.1 boten, indem Sie die Fähigkeiten hatten einfache Linien selbstständig zu Zeichnen oder Grafikbereiche im Speicher zu verschieben. Der Chip Tseng ET 4000 wurde dadurch sehr populär. Die 3D Grafikkarten sind dagegen sehr jung. Es gibt sie erst seit 1996. Hier übernimmt ein eigener Prozessor einen Großteil der Geometrie Berechnungen. Die Geschwindigkeit dieser Prozessoren ist in 5 Jahren erheblich gestiegen und der GeForce 3 erreicht bei ähnlich vielen Transistoren wie ein Pentium 4 etwa das 20 fache dessen Performance.

Massespeicher

Rasant verlief die Entwicklung bei Massespeichern. In der Frühzeit des PC wurden diese noch separat verkauft und angeschlossen. Standard bei den Selbstbaucomputern war der Kassettenrekorder , immerhin, die letzten Modelle wie im Schneider CPC 464 eingebaut konnten bis 3900 Baud übertragen. (Auch im IBM BIOS waten zuerst noch Routinen für den Kassettenrekorder, den man anschließen konnte....) Doch schon 1978 bot Apple für den Apple II ein 5.25" Diskettenlaufwerk an. Die Kapazitäten steigen langsam von 90-143 KByte über 180, 360, 720 auf 1440 Kilobyte. 3.5" Laufwerke gab es zuerst nicht für IBM PCs sondern für Heimcomputer wie Atari oder Amiga und natürlich den Mac. Erst 1987 führte IBM das 3.5" 1440 K Laufwerk ein, das heute noch Standard ist.
Festplatten wurden im Laufe der Zeit erheblich kleiner, während die Kapazität stieg. Die ersten Festplatten für den IBM PC 1982 hatten 5 und 10 MB Kapazität im 8" Format. Sie waren unerschwinglich teuer und kosteten ab 10.000 DM aufwärts - mehr als der ganze restliche Computer. Beim AT - 1984 waren es schon 20-30 MB im 5.25" Format (normale Bauhöhe also doppelt so hoch wie ein Disklaufwerk). Bis sich jeder eine Festplatte allerdings leisten konnte verging noch einige Zeit. 1986 sank der Preis für ein 30 MB Laufwerk erstmals unter die 2000 DM Grenze. Ab 1989 waren Festplatten im PC Standard. Und seitdem steigt die durchschnittliche Kapazität immer weiter: im Jahre 1989 40-60 MB, im Jahre 1991 80-120 MB, im Jahre 1993 200-250 MB, im Jahre 1995 400-500 MB, im Jahre 1997 2000-3000 MB und im Jahre 1999 6800-10000 MB. Und die Größen werden kleiner, anstatt großen 5.25" Platten werden heute flache 3.5" Laufwerke verbaut. Die Zugriffszeit sank dagegen langsamer: Sie betrug 1981 80 ms und liegt heute bei etwa 8-10 ms. Historisch interessant ist das es immer wieder Grenzen gab die von schlechter Programmierung herrührten. So war die ursprüngliche Spezifikation auf 512 MB festgelegt - 100 mal mehr als 1982 Standard war. Es dauerte immerhin 10 Jahre bis Festplatten diese Grenze knackten. Doch als man dann diese Grenze überwinden musste war es durchaus nicht so, das man daraus viel gelernt hätte. Bei jeder Kapazitätserhöhung gab es Probleme, besonders bei der 2 GB (max. Partitionsgröße beim FAT 16 Filesystem) und der 8 GB Grenze (max. Festplattengröße in vielen BIOS die noch 1997/87 erschienen. Selbst ein im Jahre 2000 erschienenes Award BIOS hat noch eine 32 GB Einschränkung.

Maus und Eingabegeräte

Sehr alt sind Joysticks. Seit ich denken kann gab es sie bei jedem Heimcomputer. Damals übrigens vor allem digitale Joysticks, während die des IBM PC analoge Joysticks sind. Anders als sonst ist analog hier besser: Digitale Joysticks gaben nur je ein Signal für jede Richtung zurück, aber nicht wie stark man diese eingeschlagen hat.
Die Maus gab es zumindest in der umgekehrten Form als Trackball auch sehr lange, im PC Bereich war der erste Rechner der sie einsetzte Apples Lisa 1983. Von Microsoft gab es eine Maus zu kaufen lange bevor es Windows gab (und auch sonst keine Anwendungen auf dem PC um sie zu benutzen). Optische Mäuse setzte der Xerox Star schon 1987 ein.

Keine Kommentare:

Kommentar veröffentlichen