Die Geschichte des PCs begann als es für
jedermann möglich wurde sich einen Computer zu kaufen. Wann der PC genau
entstand ist noch heute unter Experten umstritten. Voraussetzung dafür war der
Mikroprozessor der von Texas Instruments erfunden, aber von Intel zuerst
kommerziell angeboten wurde. Der folgende Artikel schildert nun die
wesentlichen Stationen der Geschichte des PC, der im Jahre 2000 erst 25 wurde.
Intel rühmt sich selbst den
Mikroprozessor erfunden zu haben, doch es stimmt nicht. Der Mikroprozessor
wurde 1968 von einem Ingenieur bei Texas Instruments erfunden, allerdings hatte
er kein Glück dabei, seine Vorgesetzte von der Bedeutung der Erfindung zu
überzeugen. Auf einer Messe fragte ihn ein IBM Manager "Interessante
Sache... Aber wozu ist sie gut?"... So wurde 3 Jahre später der
Mikroprozessor erneut erfunden.
Da heute jeder PC mindestens einen
Mikroprozessor beinhaltet, fällt es schwer sich vorzustellen wie es davor war.
Damals bestand ein Prozessor (oder CPU) nicht aus einem Chip sondern vielen
Hunderten, denn die normalen Computer waren Großrechner. Einen
Mikroprozessor macht aber nicht nur die Kleinheit aus (irgendwann hätte man
auch einen Großrechner auf einem Chip unterbringen können), sondern der
Mikrocode. Damit ist folgendes gemeint: Bisher waren bei Großrechnern die
logischen Funktionen fest verdrahtet. Jeder Chip machte eine einfache Operation
und durch das Zusammenwirken ergaben sich komplexe Operationen. Hätte man den
Befehlssatz geändert so hätte man die gesamte Verdrahtung ändern müssen. Ein
Mikroprozessor ersetzte dies durch ein flexibleres Konzept: Der Code ist
gespeichert auf dem Chip, kann aber geändert werden, bei heutigen Prozessoren
sogar durch Software, in den Anfängen, natürlich nur bei Änderung der Maske bei
der Fertigung.
Intel
entdeckte den Nutzen des Mikrocodes mehr durch Zufall: Die Firma sollte die
Elektronik für einen Tischrechner (einen Taschenrechner mit Drucker) fertigen.
Man erkannte das eine feste Verdrahtung (Wenn man Auf Taste X drückt passiert
folgendes in der Elektronik) mit der zur Verfügung stehenden Technik, nicht auf
einem Chip unterzubringen war. Es war einfach zu komplex. Man entschied sich
daher auf eine andere Lösung. Ein Tastendruck löste das Absenden mehrerer
einfacher Befehlsfolgen aus, die wiederum einfach genug waren um vom Chip
verarbeitet zu werden. Überdies ähnelten sich auch viele Aufgaben. Bei den
Ziffertasten 0..9 musste man zuerst nur eine Zahl abspeichern und ausgeben,
zwar jedes Mal eine andere, aber sonst war die Aufgabe gleich.
Was Intel damit geschaffen hatte merkten
Sie erst, als der Auftrag storniert wurde - Sie mussten nun nach einer anderen
Verwendung suchen. Und sie entdeckten, das Sie keinen Tischrechnerchip
geschaffen hatten, sondern einen Chip, der so tat als wäre er ein
Tischrechner. Mit einem anderen Programm hätte er eine Ampel steuern können
oder andere Dinge erledigen können.
Doch bis zum PC sollten noch 3 Jahre
vergehen, denn Intels Erstling - Der 4004 war ein
4 Bit Prozessor mit max. 4096 Byte Adressraum. Zuwenig um selbst einfachste
Gemüter zufrieden zu stellen. Erst mit dem zweiten 8 Bitter von Intel, dem 8080
begann die richtige Revolution.
Die Anfänge....
Der erste kommerzielle " PC " war der Altair 8800 der
Firma MITS von Ed Roberts. 1974
stellte Intel den 8080 Prozessor vor. Es war der erste vollwertige 8 Bit
Mikroprozessor. Ed Roberts war damals kurz vor der Pleite. Sein Firma
produzierte Taschenrechner und war im Konkurrenzkampf an den Rand des Konkurses
gekommen. Er erkannte die Möglichkeiten die in einem Computer lagen und bekam
von der Bank einen letzten Kredit über 65000 Dollar. Damit konstruierte er um
den 8080
Prozessor einen sehr einfachen Computer, den Altair 8800. Das Gerät wurde im
Januar 1975 angekündigt und schlug ein wie eine Bombe. Innerhalb eines Monats
konnte Ed Roberts aus 400,000 USD Schulden 250.000 Dollar Gewinn machen.
Dabei war der Altair 8800 durchaus kein
berauschendes Gerät. In der Grundausführung hatte er nur 256 Bytes (Nicht
Megabytes!) Speicher. Das Gerät verfügte über keinen Bildschirm oder eine
Tastatur. Daten wurden über Kippschalter eingegeben und die Ergebnisse an
Leuchtdioden abgelesen. Acht Leuchtdioden ergaben ein Byte. Acht Kippschalter
waren nötig um ein Byte einzugehen. Man klopfte damit Byte für Byte Maschinensprache in den
Computer.
Aber der Altair 8800 hatten einen
entscheidenden Vorteil: Er verfügte über Erweiterungssteckplätze, durch die das
Gerät erweiterbar war. Sehr bald entwickelten Bastler Zusatz Geräte:
Lochkartenleser, Bildschirmanschlüsse, Tastatur, Speichererweiterungen. Zudem
war er sehr preiswert, weniger als 400 USD für einen Bausatz und 600 USD für
ein Fertiggerät.
Die
damals frisch gegründete Firma Microsoft programmierte BASIC für den Altair.
Damit begann der Aufstieg von Bill
Gates, auch wenn sein Erstlings-Werk nicht erfolgreich war:
Bei der Vorführung wurde der Lochstreifen, auf dem das Programm gespeichert war
"ausgeliehen " und Bill musste sich keine Mühe mehr machen das
Programm zu verbreiten, denn jeder Mann hatte es schon als Raubkopie. In dieser
Zeit entstanden zahlreiche Selbstbaucomputer wie den KIM. Alle waren mehr oder
weniger für ambitionierte Bastler oder Elektronik Fans gedacht. Man lötete sich
den Computer selbst zusammen und schrieb die Software selbst.
Sehr bald gestellte sich zu MITS weitere
Firmen. Sie alle begriffen recht schnell, dass man mit diesen Hobby-Geräten
auch Geld verdienen kann. Die Geräte wurden anspruchsvoller, die Zubehör Teile
reichhaltiger. Schon ein Jahr nach dem Altair war mit dem Sol der erste PC
verfügbar der wie heute über eine Tastatur und einen Bildschirmanschluss
(Fernseher) sowie einen Massenspeicher (Kassettenrecorder) verfügte.
Intel bekommt Konkurrenz...
Noch war Intel als Hersteller des
Mikroprozessors allein auf weiter Flur. Doch schon ein Jahr später stellte MOS
Industries Ihren 6502 Prozessor und Motorola den 6800 vor. Der MOS 6502 wurde
für 25 Dollar angeboten, damals kostete der Intel 8080
Prozessor noch 179 Dollar. Der erste Preiskampf begann. Verantwortlich dafür
war ein Mann der noch Computer Geschichte machen würde: Chuck
Peddle. Der 6502 Prozessor war sehr viel einfacher als der
Intel Prozessor gebaut, dadurch konnte er billiger produziert werden. Er wurde
zur Grundlage des Apple und des C 64. Auch andere Heimcomputer verwendeten
diesen Prozessor. Der Motorola 6800 dagegen fristete immer ein Schattendasein,
ist heute allerdings noch als Embedded Controller für einfache Geräte auf dem
Markt. (Nebenbei: Es gibt von den alten 8 Bittern noch heute mehr Exemplare als
von den modernsten Prozessoren. Als Mikrocontroller steuern Sie Telefone,
Waschmaschinen, Mikrowellengeräte, Unterhaltungselektronik, sie stecken in
Gameboys etc. Da es von diesen Geräten weitaus mehr gibt, als Computer auf der
Welt haben alte 8 Bitter wie die 6800 Serie von Motorola inzwischen Stückzahlen
im Milliardenbereich erreicht.)
Die größte Konkurrenz bekam Intel 1976
aber von der Firma Zilog, die ein ehemaliger Intel Mitarbeiter begründet hatte.
Er erweiterte den 8080 Prozessor um weitere Befehle und Register und
integrierte die Logik zur Ansteuerung der Speicherbausteine in den Prozessor.
Dadurch konnte ein Hersteller sich einen Baustein beim Computerbau einsparen,
und ein System wurde billiger. Sehr bald verkaufte Intel kaum noch 8080
Prozessoren und der Z 80 wurde
zum erfolgreichsten acht Bit Prozessor. Noch heute, nach 24 Jahren wird er
eingesetzt: in den Gameboys. Eine fortgeschrittene Version ist inzwischen bei
50 MHz und 16 MB Speicher angelangt und als Webserver auf einem Chip verfügbar.
Die ersten PCs die man nicht selbst zusammenbauen
musste
Die
ersten Computer wurden hauptsächlich von Bastlern gekauft, die in einer Person
zugleich Software-Entwickler wie Hardware-Bauer waren. 1976 entwickelten Steve Jobs (links) und Steven Wozniak den
Apple I, ein typischer Selbstbau Computer, bei dem allerdings schon alle
Bauteile beim Bausatz dabei waren. Besser verkaufte er sich aber als
Fertiggerät, obwohl die Besitzer nur eine nackte Platine ohne Tastatur oder
Bildschirm oder Gehäuse erwarben. Steve Jobs erkannte bald, dass auf einen Bastler
Hunderte von potentiellen Käufer kamen die nicht Ihren Computer zusammen bauen
wollten, aber auch einen Rechner haben wollten.
Er bekam genügend Gründungskapital
zusammen, um den Apple II zu
bauen. Er erschien 1977 gleichzeitig mit zwei anderen Computern: dem Commodore
PET und dem Tandy TRS 80. Der Apple hatte einen Vorteil gegen über den anderen
beiden Computern: er war erweiterbar und seine Architektur war dokumentiert, so
dass andere Firmen Erweiterungsplatinen für diesen Computer bauen konnten.
Apple
bot auch als erste Firma zu dem Computer ein Floppy Disc Laufwerk an. Dies
geschah schon 1978. Sehr bald gab es sowohl offizielle wie auch
"inoffizielle" Nachbauten des Apple II. Dieser lebte - mit besserem
16 Bit Prozessor und mehr Speicher ab Mitte der achtziger Jahre als Apple II GS
wieder auf und die Produktion wurde erst 1993 nach 5 Millionen Exemplaren
eingestellt.
Heute weitgehend vergessen war der Tandy
TRS-80 vor allem in den USA bis 1981 erfolgreicher als alle anderen Marken
zusammen. Tandy Radios Shack (TRS) war eine große Ladenketten mit
angeschlossenem Versandhandel. Man befand 1977, dass ein Computer das eigene
Sortiment gut ergänzen würde und eine Eigenproduktion erheblich höhere
Verdienstspannen (von 50% anstatt 33%) eröffnen würde. So wurde ein sehr
preiswerter Rechner konstruiert, der im Verkauf nur 399 Dollar ohne und 599
Dollar mit Fernseher kostete. (weniger als die Hälfte eines Apple II ohne
Fernseher). Das Propblem des Gerätes war eine sehr schlechte Verarbeitung
und Einsparungen an den falschen Stellen, so konnte es nur Großbuchstaben
darstellen. 1980 musste wegen Verstoßes gegen die FCC Richtlinien das Modell I
eingestellt werden. Weitere Versionen (Modell 2-4) folgten bis 1983.
Der PET war der erste Computer der Firma
Commodore. Diese Firma wurde von Jack Tramiel
gegründet mit dem PET kam noch nicht der große Erfolg. Für den Apple sprach
nicht nur seine Erweiterungsfähigkeit sondern auch die Verfügbarkeit einer
Tabellenkalkulation: VisiCalc. Durch dieses Programm war der Apple ein eine
erhebliche Arbeitserleichterung für alle, die Buchhaltung oder ähnliche
wiederkehrende Berechnungen machen mussten. Damit zog auch der PC in Firmen
ein, das war völlig neu und überraschte auch Apple, die ihren PC als Computer
für Leute sahen, die selbst programmieren wollten.
Commodore
konzentrierte sich auf den Heimcomputer Markt. Jack Tramiel sagte sich: "
wenn Leute Hunderte von Mark für eine Spielkonsole ausgeben, so muss sich ein
vollwertiger Computer, mit dem man zudem noch spielen kann, verkaufen wie
nichts". Er brachte zuerst den VC 20 mit 5 KByte Speicher, (erweiterbar
auf 32 KByte) auf den Markt, der große Erfolg kam aber mit dem C
64 (Bild). Das Gerät war vielen Konkurrenzprodukten technisch
oder in der Leistungsfähigkeit unterlegen, wurde jedoch konkurrenzlos preiswert
angeboten und setzte sich so auf dem Markt durch.
So spaltete sich Anfang der achtziger
Jahre der Computer Markt in zwei unterschiedliche Richtungen auf: einen Markt
für geschäftlich benutzte Computern und die Heimcomputer. Letztere konnte man
einfach an den Fernseher anschließen und ihre Ausbaufähigkeit war gegenüber den
Business Computern beschränkt.
Auf dem
Markt der Business Computer dominierte Apple, daneben gab es viele Computer auf
Basis des Z 80 Prozessors, unter dem Betriebssystem CP/M entwickelt von Gary Kildall. CP/M
war das erste Betriebssystem, welches auf unterschiedlichen Rechnern mit dem
selben Prozessor lief. Ursprünglich geschrieben für den 8080 Prozessor, lief es
jedoch meistens auf Z 80 Maschinen. Der Hersteller musste nur die elementare
Funktionen für den Zugriff auf die Disc und den Bildschirm und Tastatur
anpassen. CP/M wurde bald zu dem Standard bei 8 Bit Computer. Selbst für den
Apple wurde eine Zusatzkarte angeboten damit auf diesem Rechner CP/M laufen
konnte. Populäre Programme auf CP/M waren die Textverarbeitung WordStar (1979)
und die Datenbank DBase (1980). Mit diesen Programmen konnte man schon viel
Arbeit einem Computer übertragen wie Serienbriefe schreiben oder Kundendaten
verwalten. Anders als bei MS-DOS war es bei CP/M der Softwarestandard der
verschiedene Geräte verband. Dies bedeutet, dass es außer den Anforderungen des
Betriebssystems keinerlei Ähnlichkeiten zwischen den Computern geben musste.
Mit CP/M liefen sowohl Computer wie der Schneider
CPC 664 - mit 64 K Hauptspeicher, Grafikausgabe und einer 180
K 3" Floppy (Preis 900 Mark) wie auch ein Epson QX-10 mit 256 MB RAM, zwei
5.25" Laufwerken à 320 K und Textausgabe für 5000 Mark. Es war im
Gegensatz zum IBM Standard also ein Softwarestandard der verschiedene
Hardwarearchitekturen ermöglichte. Gerade dadurch wurde CP/M so erfolgreich.
Jeder Hersteller konnte seine eigenen Ideen umsetzen und trotzdem ein großes
Softwarereservoir anbieten, indem er nur die elementaren Funktionen von CP/M
anpasste. 1982 lief CP/M daher auf nicht weniger als 3000 verschiedenen
Konfigurationen.
Bei den Heimcomputern entwickelten sich
bis Mitte der achtziger Jahre immer mehr Geräte. Alle aufzuzählen fällt schwer,
doch rückblickend bemerkenswert ist das jedes Gerät seine Vorteile hatte. Da
gab es den Schneider CPC, für den es hier eigene Seiten gibt.
Ein Gerät mit 64 und später 128 KByte Speicher, einem Monitor und einem
Kassettenrekorder und später einem Diskettenlaufwerk als Datenspeicher - alles
schon integriert. Mit ihm konnte man spielen und arbeiten. Sir Clive Sinclair baute
Computer die konkurrenzlos billig waren. Allerdings musste man auf eine gute
Tastatur dabei verzichten. Zuerst gab es den ZX-81, einen Z80 Rechner mit 1
KByte Speicher, der erste Rechner für unter 200 Mark, dann der Sinclair
Spektrum: Mit 16 bzw. 48 KByte RAM und Farbgrafik, zuletzt der Sinclair QL, ein
Rechner mit dem MC 68008 16 Bit Prozessor. Leider verzichtete man auf eine
Floppy Disk, ohne die der Computer keine Chance im geschäftlichen Umfeld hatte.
Atari brachte den 400 und 800 heraus, die Geräte, beworben als Spielkonsole der
Extraklasse waren aber zu teuer. Mit dem 600 und 800 XL wollte man 1984 wieder
in die Gewinnzone kommen, doch es war zu spät, trotzdem sollte Atari noch eine
wichtige Rolle spielen...
Eine
tragische Rolle spielte der Ti
99/4A von Texas Instruments. Ti nutzte für dieses Gerät
einen eigenen Prozessor vom TI, den TMS 9900, einen der ersten 16 Bit
Prozessoren, der auch in größeren Rechnern der Firma zum Einsatz kam. Der Ti 99
war schon frühzeitig auf den Markt gekommen und enorm erweiterungsfähig - mit
einer Box für Steckkarten. Aber in dem Preiskampf von 1982-1983 (Vom August
1982 bis Weihnachten 1983 sank der Preis von 999 auf 275 Mark) machte die Firma
so große Verluste, das sie aus dem Markt ausstieg.
10 Jahre nach dem ersten Mikroprozessor
war eine neue Industrie entstanden: 1981 gab es schon zwei Marktsegmente:
geschäftlich genutzte Computer und Heimcomputer. Workstations und tragbare Computer
standen vor der Markteinführung. Es gab eine Softwarebranche und die
wichtigsten Anwendungsprogramme waren verfügbar. Obgleich zum Programmieren
gedacht waren die kleinen Computer in die Büros eingezogen. Doch eines war
auffällig - Keine der Firmen die große Rechner bauten wie DEC, Hewlett-Packard,
NCR und besonders IBM hatte sich in dem Markt engagiert.
IBM betritt das Parkett
1981 war der Computer Markt beherrscht
von 8 Bit Rechner. Zwar gab es seit 1978 die ersten 16 Bit Prozessoren, jedoch
waren Maschinen auf Basis dieser Prozessoren noch zu teuer, und mit den
verfügbaren 16 Kilobit RAMs benötigte man schon 32 Bausteine um den
Arbeitsspeicher eines acht Bit Rechners abzudecken, daher waren acht Bit
Rechner die günstigere Wahl. Die leistungsfähigen 16 Bit Prozessoren, vor allem
der 68000 waren aber Basis für eine neue Klasse von Geräten: Workstations,
Rechner die leistungsmäßig und preislich zwischen den PCs und den schrankgroßen
Minicomputern lagen. Die Firmen, Sun , Apollo , Silicon Graphics und HP waren
Führer bei diesen Rechnern.
Auf dem
Markt fehlten jedoch die Firmen die sonst größere Rechner anboten. Besonders
vermisst wurde der Branchenführer IBM. IBM ignorierte lange Zeit den
expandierenden Computer Markt. Bis immer mehr IBM Vertreter von Ihren Kunden
hörten, dass Sie einfachere Tätigkeiten auf PCs ausführten. Dies bewog IBM zum
Handeln, man rekrutierte ein junges Team, welches einen preiswerten PC
entwickeln sollte. Das Ergebnis war total IBM untypisch: Der IBM PC enthielt
keinerlei IBM Bausteine, verwendete keine IBM Software, wurde nicht vom IBM
Service gewartet. Stattdessen griff man auf handelsübliche Bausteine die auch
andere Hersteller benutzten zurück.
Als Prozessor verwendete man den 8088
Prozessor. Dieser war ein "beschnittener" 8086
Prozessor. Damit man die weit verbreiteten 8 Bit Bausteine verwenden konnte,
hatte der 8088 nur einen 8 Bit Datenbus anstatt eines 16 Bit Datenbusses. Der
8086 Prozessor selbst war schon kein sehr leistungsfähiger Prozessor. Er konnte
nur ein MByte RAM adressieren, und dies nur in Segmenten von 64 KB Größe. Dagegen
konnte der Konkurrenz Prozessor MC 68000 von Motorola 16 MB direkt adressieren
und verfügte über 32 Bit breite Register. Er war erheblich schneller als der
8086 Prozessor. Heute erscheint die Wahl von IBM kurzfristig, auch verschiedene
Probleme die heute noch den PC verlangsamen haben ihre Ursache in der 8086
Architektur. Als der IBM PC vorgestellt wurde, war er jedoch äußerst
fortschrittlich: Er war bis zu einem Megabyte ausbaubar (die ersten IBM PCs
kamen mit 64 Kilobyte), war ein 16 Bit Gerät und er war natürlich von IBM.
Wahrscheinlich hat nicht einmal IBM
vorausgesehen, wie erfolgreich dieser Computer werden sollte und wie schwer es
sein würde den Standard zu erweitern. Allein der Name IBM bürgte bei vielen
Geschäftsleuten für Qualität. Im Nu hatte IBM einen erheblichen Marktanteil am
Computergeschäft. Als ich 1982 meinen ersten Computer - einen Ti 99/4A -
kaufte, wollte ein "Business Man" - im weisen Hemd mit Krawatte - mal
so eben einen IBM PC kaufen - für 11700 Mark. Dabei war bei IBM der PC ursprünglich
nicht als eigenständiges Produkt gedacht, sondern als Ergänzung zum
Großrechner. Man wollte den PC mit den Großrechner vernetzen, und so war die
erste Zusatzkarte für den IBM PC, eine Emulation eines Großrechner Terminals.
Als man für den IBM PC ein
Betriebssystem suchte, wandte man sich zuerst an Microsoft. Microsoft war
damals führend bei den Programmiersprachen. Das führende Betriebssystem sowohl
bei 8 wie auch 16 Bit Rechnern war jedoch CP/M. Als die IBM Manager bei
Digital Research auftauchten, war der Firmengründer Gary Kildall jedoch
nicht da und so kam es zu keinem Abschluss. Microsoft witterte ihre Chance und
bot IBM an das Betriebssystem zu stellen. Nun war Eile geboten Microsoft kaufte
kurzerhand die Rechte an einem rudimentären Betriebssystem, dass sein
Entwickler schmerzhaft QDOS (für
Quick and Dirty Operation System) getauft hatte für 50.000 Dollar auf und an
IBM weiter. Microsoft taufte dieses CP/M nachempfundene Betriebssystem PC-DOS.
Als IBM mitbekamen, dass sie einen Klone von CP/M gekauft hatten zahlten sie
Digital Research 800.000 Dollar, mehr als die vierfache Summe die Microsoft
erhielt nur damit diese IBM nicht verklagten.
Mit den Mängeln dieses zusammen
geschusterten Betriebssystems hat auch heute noch der Anwender zu kämpfen. Bis
zur Version 2.11 die 1982 erschienen war das Betriebssystem unvollständig und
fehlerhaft.
Der Mac - der erste grafische PC
Sehr bald kamen die ersten Klones des
IBM PC auf den Markt. Die ersten Rechner waren nur MS-DOS kompatibel, viele
Programme die, auf den Bildspeicher oder das BIOS direkt zugriffen liefen auf
diesen nicht. Compaq ließ
das IBM BIOS nachprogrammieren und brachte den ersten portablen Klone auf den
Markt. Danach kamen in rascher Folge immer mehr kompatible Maschinen auf den
Markt. Zum Erfolg von IBM trugen diese Kompatiblen auch bei, denn es gab
dadurch eine viel größere Basis für Software Entwickler. IBM sah die Klones
ähnlich wie Apple aber nur als unliebsame Konkurrenz an.
Apple
verlor massiv an Marktanteilen. Der Nachfolger des Apple 2, der Apple 3
speziell als Geschäfts-PC konstruiert war ein Flop. Man erkannte das man um den
IBM PC begegnen zu können einen erheblich moderneren PC anbieten musste. Man
entwickelte einen PC mit grafischer
Benutzeroberfläche. Die Grundlagen dafür wurden schon in den siebziger
Jahren im Forschungspark von Xerox entwickelt, die jedoch die Möglichkeiten
nicht erkannten. Steve Jobs erkannte jedoch die Chance und warb zahlreiche
Leute von Xerox ab. Die Lisa 1983 vorgestellt war der erste PC der auch eine
Maus verwendete. Der Lisa getaufte Rechner war aber viel zu teuer. Daher begann
man eine Spar-Version der Lisa zu entwickeln. Den Macintosh - benannt nach
einer in den USA populären Apfelsorte. Basierend auf dem schnellen 68000
Prozessor war der Macintosh mit einer grafischen Benutzer Oberfläche
ausgestattet.
Der
Macintosh hatte aber zwei Mängel: zuerst gab es für ihn zu wenig Software, zum
anderen aber wollte Steve Jobs diesmal alleine das Geschäft machen. Er startete
den Macintosh nicht mit Erweiterungssteckplätzen aus. Das ROM war so geschützt
dass man es nicht kopieren konnte. Dagegen gab es sehr viele IBM kompatible
Clones. Diese Rechner steigerten den Umsatz an Software für den PC und festigen
den Marktanteil von IBM. Später wurde der Macintosh geändert, so dass er
erweitert werden konnte.
Für den Apple Macintosh entwickelte
Microsoft die Software. Dies war Microsofts Einstieg in die
Software-Programmierung. Gleichzeitig erkannte Microsoft den Nutzen einer
grafischen Benutzeroberfläche. Diese Entwicklung von Windows begann. Die ersten
Versionen waren nichts anderes als ein Aufsatz auf DOS, es gab zu wenige verfügbare
Programme und ein offensichtlicher Nutzen war nicht erkennbar. Auf den PCs
erfreute sich das Konkurrenzprodukt von Digital Research GEM einer wesentlich
höheren Beliebtheit, da es im Gegensatz zu Windows auch auf kleineren Rechnern
lief auch auf den Atari ST lief eine GEM Version. Erst mit der Version 3.0,
1990 nach 5 Jahren war Windows so weit entwickelt dass der kommerzielle
Durchbruch kam. Zwischen Apple und Microsoft entbrannte Ende der achtziger
Jahre ein Prozessstreit, weil offensichtlich war, das Windows nur eine
schlechte Mac OS Kopie war. Letztlich war Apple aber nicht erfolgreich, das
Gericht beschied, man könnte das "Look and Feel" nicht patentieren
lassen. Zum zweiten mal war Microsoft mit einer Kopie erfolgreich....
In den
achtziger Jahren jedoch florierte zuerst der Heimcomputer Markt, obwohl immer
weniger Geräte auf dem Markt erschienen stieg die Leistungsfähigkeit dieser
jedoch enorm an. Diese Entwicklung ging wieder von Jack Tramiel aus. Nachdem er
sich mit dem Management von Commodore überworfen hatte, kaufte er kurzerhand
die Firma ATARI, die er vorher als Chef von Commodore fast an den Ruin
getrieben hatte, auf. Er entwickelte innerhalb von wenigen Monaten einen
Rechner auf Basis des 68000 Prozessors, den ATARI ST. Das Team war das gleiche
das schon den C64 entwickelte. Er war grafisch wie der Mac. Dieser wurde zu
einem enorm niedrigen Preis angeboten. Die ersten Geräte kosteten mit 1600 Mark
nur ein Viertel eines gleichwertigen Macintosh oder PCs. Dabei bekam man einen
Rechner dessen Prozessor auch in Workstations verbaut wurde und der erheblich
leistungsfähiger als IBM PC war.
Commodore kam dadurch in Bedrängnis. Man
entwarf einen Konkurrenz Rechner zum ATARI, den Amiga, ebenfalls auf Basis des MC 68000 Prozessors und
ebenfalls grafisch. Doch der Erfolg des C64 ließ sich nicht wiederholen. Beide
Firmen konnten allerdings es nicht schaffen zum kommerziellen Geschäft
aufzuschließen, obwohl die Rechner in ihrer Leistungsfähigkeit einen PC
schlugen. Die Stärke des Ataris war sein guter S/W Monitor, die grafische
Benutzeroberfläche GEM war auch lange Zeit auf PCs erfolgreicher als Windows.
Darüber hinaus verfügte der Atari ST über eine MIDI Schnittstelle, durch die er
in Musikstudios einzog, als erster Rechner hatte der ST ein CD-ROM und auch ein
preiswerter Laserdrucker war verfügbar.
Der
Amiga war dagegen leichter zu erweitern mit Steckplätzen und seine Stärke lag
in der Videobearbeitung, so nutzten ihn viele für den Videoschnitt oder für
Titel oder einfache Effekte. Beide Geräte waren im Vergleich zu einem PC
leistungsfähiger und bedienungsfreundlicher, doch bald zählte nur eines :
Komptabilität. Nur noch IBM kompatible Geräte hatten Erfolg. So aber ließen
sich die Kosten für die Weiterentwicklung der Ataris und Amigas nicht wieder
hereinholen. Zudem begann Motorola die Entwicklung des MC 68000 Prozessor
einzustellen zugunsten des Power PCs. Schlussendlich gingen beide Firmen Anfang
der 90er Jahre Konkurs.
In dieser Zeit verdrängte der PC auch
den restlichen Heimcomputer Markt. Die Vorteile eines Heimcomputer: geringe
Kosten, Spielefähigkeit, großes Angebot an Spielen, wurden durch billige
Farbmonitore und die ersten Soundkarten vom PC übernommen, obgleich man heute
nicht für 500-1000 Mark einen PC erhält - das war Mitte der achtziger Jahre der
Preis eines 8 Bit Heimcomputers.
Heute sind von der Vielfalt an Geräten
nur noch zwei Architekturen übrig geblieben. Die Apples und die PCs. Die
Rechner werden sich immer ähnlicher, selbst bei den PCs sind besondere
Ausstattungen wie der berührungsintensive Bildschirm des HP 150 oder die
wechselbare Festplatte des Tandom PAC , oder auch nur einen besonderes Design
nicht mehr vorhanden. Es sind austauschbare "Kisten" geworden.
Bei der
Rechner Architektur gab es innerhalb der letzten zwanzig Jahre zwar erhebliche
Fortschritte, jedoch basieren auch heute noch die PCs auf der uralten 8086
Architektur. Die erste Erweiterung war der 80286 Prozessor, der ein
vollwertiger 16 Bit Prozessor war. Er konnte 16 MB RAM direkt ansprechen, und
war erheblich schneller als der 8086 Prozessor. Doch das Wechseln des
Prozessors alleine verbesserte die Software nicht. Um den zusätzlichen Speicher
ansprechen zu können und gleichzeitig kompatibel zum alten Prozessor zu sein
entwickelte Intel einen zweiten Betriebsmodus. Zwischen diesen beiden Modi muss
das Anwendungsprogramm wechseln. Allerdings ist ein rückwechseln vom Real
(8086) in den Protected Modus (80286) nicht möglich. Auch DOS blieb so auf 1 MB
Speicher beschränkt.
Mit dem 80386 Prozessor gab es 1986 eine
Wende auf dem PC Markt. Zum ersten Mal wurde ein PC mit dem neuen Prozessor
nicht von IBM sondern von Compaq
vorgestellt. Der 80386 Prozessor war der erste vollwertiger 32 Bit Prozessor
von Intel. Inzwischen hatte aber Intel unliebsame Konkurrenz. Als das Geschäft
in den siebziger Jahren noch nicht so gut lief hatte man von anderen Firmen
Patente gegen Patente an der 8080 ff. Technologie getauscht. Nun begannen diese
Firmen ihre 8086 und 80286 Nachbauten legal zu bauen, nahmen damit aber Intel
Marktanteile weg.
Zum Verkauf Schlager wurde daher die 386
SX Variante: der Datenbus war nur 16 Bit breit, so dass die Bausteine für den
80286 Prozessor weiter verwendet werden konnten. Beim 8086 hieß der
entsprechende Schmalspurprozessor noch 8088, nun aber änderte man aus
Marketinggründen den Namen nicht, und als überzeugende Botschaft fungierte der
Slogan "3 ist mehr als 2". Das leuchtete ein und 1989 verdrängten
billige 386 SX Rechner die 80286 Nachbauten vom Markt.
Der 486 Prozessor der 1989 erschienen
war zuerst kein Renner. Die 386 er Bausteine von AMD erfreuten sich größerer
Beliebtheit. Grund dafür war, das zwar der Prozessor schnell war, jedoch man
noch immer noch unter DOS arbeitete. Dafür reichte der AMD 386 aus. Nun zeigte
sich zum wiederholten Maße die Allianz von Intel und Microsoft:
durch den Erfolg von Windows 3.1 1992 benötigte
der PC mehr Arbeitsspeicher, größere Festplatten, und einen schnelleren
Prozessor. Auch hier gab es eine billigere Variante, den 486 SX: Es war ein 486
ohne Fliesskommaprozessor. Auch er schaffte es die 386 CPUs von AMD aus dem
Markt zu verdrängen. Ähnlich wie bei Windows 3.1 kurbelte Microsoft den Umsatz
an Pentium Prozessoren 1995 an, als Windows 95 erschien.
Immer dann wenn Clones Intel zu nahe
rückten hat Intel seitdem einen Trumpf im Ärmel. Zuerst versuchte man die
Konkurrenz mit neuer Hardware abzuhängen. Man Integrierte 1995 MMX - die
parallele Verarbeitung von mehreren Integer Befehlen - und pries es als die
Beschleunigung für Multimedia. Auch wenn es kaum Software gab die es
unterstützte und der Gewinn doch eher klein war. Hauptsache der unwissende
Verbraucher merkt sich "MMX brauch ich ". Doch schon 1999 klappte das
Spiel mit ISSE - einem wesentlich weitergehenden Konzept - nicht mehr, obgleich
nun wirklich Geschwindigkeit herauskam, denn schon ein Jahr früher hatte AMD
mit 3D Now eine einfachere Erweiterung vorgestellt, die Intel die Schau stahl.
Inzwischen verlegt sich Intel mehr auf
Druck auf die Motherboard Produzenten (Sie stellen auch die Chipsätze für die
Prozessoren her, die man für ein Motherboard braucht) und wechselt alle Naselang
den Prozessorsockel, inzwischen auch gleich das RAM. So gibt es für den 1997
vorgestellten Pentium II/III inzwischen 4 Sockel für Platinen und 3 für Chips (
Celeron , Pentium, FPGA), in der gleichen Zeit wurde das RAM auch mehrfach
gewechselt (von SIMM über DIMM über SD-RAM DIMM, über 100 und 133 MHz SDRAM
DIMM zu RAMBUS DIMM), so das man viel Glück braucht um nur einen ein Jahre
alten Rechner aufzurüsten. Natürlich steigt auch die Performance - aber man hat
mehr das Gefühl, das man sich so die Konkurrenz vom Hals halten will.
So ist es nur logisch, das AMD - der
einzige von ehemals vier Intel Nachbauern, der noch mithalten kann - für den
Athlon Prozessor sich einen eignen Sockel und eigenen Chipsatz ausdachte. Und
da der Prozessor erstmals schneller als ein Pentium III ist, sogar damit Erfolg
hat.
Power PC: Der Sieg von RISC
Motorola die immer vor Intel einen
Prozessor mit einer neuen Architektur entwickelten, erkannten Anfang der
neunziger Jahre, dass die alte 68000 Architektur nicht zukunftssicher ist. Sie
entwickelten zusammen mit IBM und Apple einen neuen Prozessor, der zwar den
alten Code des 68K verarbeiten sollte jedoch auch neue Instruktionen beinhalten
sollte dieser Chip sollte ein RISC
Prozessor sein.
Während der achtziger Jahre zeigte sich
immer mehr, dass das bisherige Prozessor Design: der Prozessor verwendet immer
mehr und komplexe Befehle, von Anwendungen nicht genutzt wurde. 20 Prozent der
Befehle wurden nur 80 % des Codes benutzt. Warum sollte man also nicht einen
schnelleren Prozessor mit nur 20 Prozent der Befehle entwickeln? Dieser könnte
diese schneller durchführen und billiger produziert werden. Diese Architektur
nennt man RISC. Der Power PC Prozessor von Motorola ist kein echter RISC Prozessor,
da er noch die alten 68 Codes mit ausführen muss. Jedoch benötigt ein Power PC
Prozessor für dieselbe Rechenleistung wie ein Intel Prozessor nur ein Drittel
der Transistoren und bis zum G3 keinen Kühlkörper, da der Stromverbrauch
geringer ist. Noch stärker am RISC Design orientiert ist der Alpha Prozessor
von DEC (heute HP). Bei ähnlichen Transistorzahlen wie ein Pentium II arbeitet
er bei über größeren Taktfrequenzen, besitzt mehr Register und hat zudem noch
den L2 Cache integriert. Er ist fast doppelt so schnell wie ein Pentium
Prozessor gleicher Taktfrequenz.
Auch Intel hat seit dem Pentium keinen
8086 Kern im Prozessor mehr. Stattdessen führen kleinere RISC Unterprozessoren
parallel Befehle aus. Eine spezielle Logik zerlegt die 8086 Befehle in kleinere
RISC Prozessor Befehle. Ein Pentium III ist eigentlich eine Art 8086 Emulator.
Nachdem schon seit 1991 in Workstations
64 Bit Prozessoren verbreitet sind, gibt es ab 2001 auch von Intel solche
Rechner. Der als " Itanium "
bezeichnete erste 64 Bit Prozessor von Intel verwendet eine neue Architektur
die erheblich näher an RISC ist. Die erste Generation hat zwar teilweise
beeindruckende Werte, ist insgesamt aber noch nicht der große Wurf. Ab Ende
2002 soll die zweite Version des Itanium dies ändern. Gleichzeitig wird AMDs
erster 64 Bit Prozessor auf den Markt kommen, der anders als der Itanium
kompatible zu der x86 Serie ist und "nur" einen zusätzlichen 64 Bit
Modus enthält.
Intel wird den Übergang sicher wie
Microsoft bei Windows langsam vollführen. Schon zwei mal musste die Firma
erleben, dass das abweichen von Standards riskant ist. Der Erste Versuch war
Ende der achtziger Jahre der Intel 860. Ein 32 Bit RISC Prozessor, der in
Geschwindigkeit die x86 Linie in den Schatten stellte - aber eben nicht
kompatibel war. Heut fristet er sein Brot als Mikrocontroller z.B. in
Laserdruckern. 1994/5 kam dann der Reinfall mit dem Pentium Pro. Der Pentium
pro integrierte auf dem Chip den L2 Cache der mit voller Taktgeschwindigkeit
lief. Die Herstellung war aber dadurch zum einen teuer (hoher Ausschuss bei den
Caches) und zum anderen war er nur mit 32 Bit Befehlen wirklich schnell. Bei 16
Bit Befehlen dagegen langsamer als ein Pentium. Vielleicht hatte sich Intel
auch zu sehr auf Microsoft verlassen, in dem Glauben Windows 95 würde ein 32
Bit Betriebssystem werden. Tatsächlich waren aber viele Systemtreiber noch in
16 Bit Programmiert und unter Windows 95 hängte ein Pentium 120 den wesentlich
teureren Pentium Pro mit 150 MHz ab. Selbst die neueste Windows ME Version
besitzt immer noch 16 Bit Treiber..
OS/2 - der vergebliche Versuch die Clones abzuwürgen
Mitte der achtziger Jahre gab es noch
einen zweiten wichtigen Einschnitt: IBM wollte unabhängig von den Klone
Herstellern werden, und konzipierte eine neue Rechner Architektur. Ähnlich wie
bei Apple ging dies jedoch schief. Die Kunden bevorzugten lieber die
Kompatiblen Geräte der Konkurrenz. Die MCA Architektur war richtungweisend
indem Sie viele der alten 86 Standards über Bord kippte und auf der moderneren
286 Architektur basierte. Aber die Slots waren geschützt und damit gab es keine
Clones nur Rechner von IBM. Seit Mitte der achtziger Jahre hat IBM dadurch auch
die Macht verloren Standards zu kreieren die sich als Industriestandart allgemein
durchsetzen. So ist heute noch der letzte gemeinsame Standard für Grafikkarten
die VGA Auflösung und für Diskettenlaufwerke das 1.44 MB Format.
Dabei hatte IBM doch schon den
Prestigeerfolg auf seiner Seite. Obgleich ein IBM PC deutlich teurer als ein anderer
Marken PC (etwa von Compaq, Apricot, Commodore oder Schneider) war und man für
einen Taiwan Clone nur ein Drittel eines IBM AT zahlen musste (welche
Verdienstspanne...) war IBM Marktführer, denn bei Preisen von 7.000-20.0000 DM
gingen die PCs noch Ende der achtziger Jahre noch vornehmlich an
Geschäftskunden.
Auch im Software Bereich wollte IBM neue
Wege gehen. Gemeinsam mit Microsoft schrieben sie ab 1987 das Betriebssystem
OS/2. OS/2 hatte jedoch zuerst keine grafischen Benutzeroberfläche, lange Zeit
war ihm kein Erfolg beschieden, weil die Hardwareansprüche zu hoch waren und es
zuwenig Software gab. Gleiches galt auch für Windows bis zur Version 3.0 die
mit TrueType Fonts und erstem Multitasking erfolgreich wurde. Im Gegensatz zu
OS/2 ersetzt Windows aber nicht das DOS sondern sitzt auf ihn auf. Das gilt
auch noch für Windows ME. Gerade das aber machte den Verkaufserfolg von Windows
aus: Es saß auf dem DOS auf und wer Probleme mit ihm hatte, arbeitete einfach
weiter unter DOS. Man holte den Verbraucher bei dem ab was er schon kannte.
OS/2 war das was bei Microsoft Windows NT war - ein echtes 32 Bit
Betriebssystem, stabil aber es stellte auch große Ansprüche an die Hardware.
OS/2 wurde zu spät grafisch und blieb in den Hardwareansprüchen immer zu hoch.
Erst als Windows 3.1 schon fest im Markt etabliert war, wurde mit OS/2 V3 Warp
eine Version herausgebracht die etwas moderatere Ansprüche an die Hardware
hatte und auf den Endanwender zugeschnitten war. Es war jedoch zu spät, viele
Anwender nutzten nun Windows und wollten nicht mehr umsteigen.
Seit seiner Urversion 1991 hat sich
Linux zu einem sehr interessanten Betriebssystem gemausert. Inzwischen kann man
mit ihm genauso wie mit Windows arbeiten. Der eigentliche Erfolg ist aber der
das dies alles ohne kommerzielle Interessen erfolgte. Es ist erstaunlich das
die Zusammenarbeit von Programmierern in der ganzen Welt inzwischen zu einem
Betriebssystem geführt hat, das den wesentlich älteren Produkten Windows oder
Mac OS in nichts nachsteht. Schuld daran ist auch das Internet , das ich seit
Anfang der neunziger Jahre zuerst langsam, dann seit 1994/95 explosionsartig
entwickelte. Übrigens eine Entwicklung die Microsoft verschlafen hatte. Man
setzte mehr auf das hauseigene MSN Netzwerk
Die Zukunft
...kennt noch niemand. Jedoch kann man
schon Aussagen über Trends machen. So starb DOS endgültig mit Windows XP. Die
Firma setzt inzwischen voll darauf durch ihre Marktmacht auch in andere
Bereiche einzubrechen und dort die Standards zu setzen. So schreibt Windows CE den
Prozessor vor und mit der .NET Initiative will man eine Konkurrenz zu Java
schaffen.
Intel steht heute an denselben Problemen
wie schon Motorola Anfang der neunziger Jahre. Eine Weiterentwicklung der 86er
Architektur dringt immer kleinere Geschwindigkeitsvorteile und erzeugt immer
komplexe Prozessoren. Der Itanium soll diese langsam ablösen.
Es ist ein Anachronismus wenn in einer
so schnelllebigen Branche der Code der meisten Programme auf dem des 386 er
basieren. Dieser wurde schon vor mehr als 15 Jahren eingeführt. Bestimmte Teile
der Consumer Variante von Windows basieren sogar noch auf 16 Bit Code. Leicht
erkennbar an der DOS-Box welche Sie begrüßt mit:
Da 1986 die erste Version von Windows
erschien, zeigt diese Meldung deutlich das Windows bis zur XP Version noch
immer auf dem 16 Bit DOS von 1981 basiert.
Heute verbraucht ein PC die meiste
Rechenleistung für Spiele. Schon heute sitzen auf 3D Grafikkarten
Grafikprozessoren die eine größere Rechenleistung als der eigentliche Prozessor
besitzen. Intel wollte dieser Konkurrenz durch Eingliederung von speziellen
Befehlen für Grafikoperationen den Garaus machen. Doch eigene Grafikcontroller
von Intel konnten sich auf dem Markt nicht durchsetzen. Es ist aber er
anzunehmen, dass in Zukunft zu dem eigentlichen Prozessor weitere
Signalprozessoren sich gesellen. Sei es für die Verarbeitung von komplizierten
Videosignalen oder für die Berechnung von Echtzeit Grafiken. Natürlich könnten
auch ganz neue Hauptprozessoren mit speziellen Befehlen für die Signalverarbeitung
die heutigen Prozessoren ablösen. Denn für die tägliche Arbeit reicht die
Rechenleistung schon heute mehr als aus.
Die heutigen Prozessoren haben viele Architekturmerkmale von
Großrechnern übernommen. So die Staffelung der Caches, die Kühlung der Chips,
die Verwendung von immer mehr Bits (64 sind heute Standard) sowie die
Verarbeitung von mehreren Daten mit einem Befehl. Wenn dieser Trend weiter
anhält so muss man nur ansehen welche Architektur die heute schnellsten Rechner
haben: es sind Parallelrechner bestehend aus Tausenden von PC Prozessoren mit
eigenem Speicher. Eine Übertragung des Konzeptes auf einen Chip hätte auch den
Vorteil dass die Signale kleinere Strecken zurücklegen müssten, da auf einem
Chip mehrere Prozessoren sich befinden und die Signale zumeist nur innerhalb
eines Subprozessors laufen. Für die heute rechenintensivste Anwendungen (Grafik
und Multimedia) wäre ein solches Konzept sogar ideal geeignet, denn man könnte z.B.
ein Bild in 4, 8, 16... Unterbilder zulegen die separat berechnet werden
können. So gewinnt z.B. der Athlon gegenüber dem Pentium III an Geschwindigkeit
weil er mehr Rechenwerke intern beschäftigen kann, also prinzipiell mehrere
kleine Prozessoren parallel in einem Chip beinhaltet.
Der Multimedia Trend wird dafür sorgen,
das auch in Zukunft immer leistungsfähigere Rechner verlangt werden. War
Multimedia vor einigen Jahren noch das Abspielen von Musik zu Computergrafiken,
so ist es heute das Dekodieren von MPEG Videos und realitätsnahen 3D Grafiken
für Spiele, und in Zukunft vielleicht das Erschaffen von virtuellen Welten. Der
Flaschenhals ist derzeit noch die Internetanbindung für den Privatmann. Denn
die Multimedia Fähigkeiten fordern viel Bandbreite. Schon bei den MP3 Files,
deren Raubkopieren so oft beklagt wird, sieht man das Dilemma. Für das Laden
einer CD (74 min), benötigt ein analoges Modem für 74 Min. Ca. 4 Std.
Von der Software der Zukunft können wir
nur hoffen dass Sie noch bedienungsfreundlicher und Anwendertoleranter (früher
sagte man fehlertoleranter) meist wird sie aber nur umfangreicher.
Inzwischen hat auch der PC Konkurrenz
bekommen. Der PC war und ist in seiner Auslegung eine Alleskönnermaschine. Doch
schon in den achtziger Jahren waren Heimcomputer, mit denen man gut spielen
konnte, wenn auch nur bei einigen Geräten arbeiten, sehr erfolgreich. Heute
sind dies Spielkonsolen. Durch geschickter Kombination der Hardware und kein
300 MB Betriebssystem welches Rechenleistung frisst ist es möglich bei einer
Spielkonsole zu einem Bruchteil des Preises mit einem PC gleichzuziehen. Neuere
Geräte haben auch die Möglichkeit im Internet zu surfen und machen dafür einen
PC überflüssig. Nicht umsonst kommt inzwischen sogar von Microsoft eine
Spielkonsole: Die X-BOX. Allerdings basierend auf herkömmlicher PC Technologie.
Fürs Internet prädestiniert - ein Medium
zur Informationsbeschaffung - wären Web Pads - DIN A4 große TFT Displays mit
einem Stift zum Anklicken. Die könnte man wie Bücher benutzen, gemütlich im
Sessel lümmeln, anstatt vor einem Monitor zu sitzen. Derzeit gibt es davon nur
Prototypen, doch das Marktpotential ist enorm: Es wollen viele ins Internet,
aber nur wenige wollen dafür einen umständlichen PC der noch dazu 2000 Mark
kostet. Wenn es da eine bequemere und billigere Alternative gibt, so könnten
diese Geräte dem PC Marktanteile abnehmen. Schlussendlich sollte man sich eines
vergegenwärtigen: Auch wenn die PC-Prozessoren von Intel, AMD & Co als das
Maß der Dinge erscheinen, so machten sie 1999 nur 2% des Gesamtmarktes an
Prozessoren in Stückzahlen aus. Da von 1981 bis 1999 aber der Preis eines PCs
von 11700 DM auf rund 2000 DM sank, im gleichen Zeitraum aber der Preis für den
Prozessor von 100 auf 400 DM stieg, macht Intel mit seinen 2 % Marktanteil 50 %
des Gesamtumsatzes beim Prozessormarkt - Dies könnte sich mit kleineren
spezialisierten Lösungen ändern. Doch dazu müssten die Kosten für LCD Panels
erheblich sinken und vor allem auch eine Handschriftenerkennung weitgehend
fehlerfrei sein
27 Jahre PC
Teilt man die
Zeit seit Januar 1975 als der Altair 8800 angekündigt wurde in
3 Perioden von 9 Jahren so stimmen diese recht gut mit wichtigen Meilensteinen
in der Entwicklung des PCs überein.
1975-1984: Der PC wird erwachsen
Den 1975 erschienen Altair 8800 würde
man nach heutigen Maßstäben allerhöchstens als Elektronikbauskasten bezeichnen.
Ausgabe über Leuchtdioden, Eingabe über Kippschalter, User Interface war
Maschinensprache, in Binärschreibweise einzuklopfen. Doch schon 1978 gab es
Rechner die nur Leute ansprachen die nichts mit Elektronik am Hut hatten. Der Apple II hatte
eine echte Tastatur, Bildschirm, Floppys und einen BASIC Interpreter als User
Interface. Anfang der achtziger Jahre gab es die ersten Anwendungsprogramme die
Datenbanken, Tabellenkalkulation und Textverarbeitung und man konnte am Rechner
im Prinzip alle Büroaufgaben meistern, nur natürlich mit einem nach heutigen
Maßstäben primitiven User Interface. Dies änderten die 1983 erschienene LISA
und der 1984 erschienene Macintosh. Damit verfügte im Prinzip schon 1984 die
Rechner über alle technologischen Errungenschaften die sich auch heute in den
Rechner finden.
1984-1993: Der PC setzt sich in der Arbeitswelt durch
Prägend in dieser Epoche war weniger,
das viel neues erfunden wurde. Vielmehr wurden grafische Oberflächen verbessert
und setzten sich ab 1990 auch auf der Intel Welt durch. Ähnlich erging es
textorientierten Oberflächen. Diese wurden perfektioniert. Gleichzeitig sanken
aber die Preise für einen PC rapide. Der PC setzte sich gerade weil sich nicht
so viel tat, in der Bürowelt durch. Schlussendlich ist es schon teuer
Mitarbeiter an neue Arbeitsmittel zu gewöhnen, auch ohne das jede
Softwareversion mit neuen Features aufwartet.
In der gleichen Zeit verdrängte die
Intel Architektur alle anderen PCs die auf dem Markt waren, seien sie nun von
Atari, Commodore oder Arm. Am Ende blieb nur noch Apple übrig so das man
seither von einem Mac oder einem PC spricht und damit entweder einen Rechner
von Apple oder einen auf Basis eines Intel/Windows Systems meint.
1993-2002: Der PC zieht in die Wohnzimmer ein
Realistisch betrachtet stimmt immer noch
die Aussage des DEC Chefs von 1977, das es keinen Grund gibt für eine
Privatperson einen PC zu kaufen. Ist man ehrlich, so rechtfertigen einige
Briefe die man damit tippen kann, oder die einmal im Jahr anfallende Steuererklärung
kein 2000 DM Gerät mit monatelanger Einarbeitungszeit. Trotzdem setzte sich in
dieser Zeit der PC im Wohnzimmer durch: Dank Internet und Spielen. Internet ist
eine Kommunikationsmittel, das wenn es dies nicht gäbe, erfunden werden muss.
Auch wenn der objektive Nutzen eher gering ist spricht es doch Grundbedürfnisse
des Menschen nach Information und Kommunikation an. Sehr bald gehörte man zum
Abseits wenn man noch nicht "surfte". Gerade Eltern sind in der
Wohlstandsgesellschaft auch froh wenn die Kinder am Computer spielen - leider
eine traurige Tatsache.
Propagiert wird seit Jahren der PC als
Zentrale für die Elektronik im Haus, seien es Unterhaltungsgeräte wie
Videorecorder und DVD Spieler, wie auch für Überwachungsausgaben. Fehlend sind
bislang Standards sowie Vernetzungsmöglichkeiten. Schlussendlich ist ein PC
heute zu laut, zu komplex und zu umständlich zu bedienen. Stattdessen
beobachtet man einen eher umgekehrten Trend: Es gibt immer mehr neue
elektronische Geräte: MP3 Player, DVD Spieler, Set-Top Boxen für Internet oder
Webpads, Videorecorder mit kleinem PC. Auch so ist der Umsatz der
Hardwarehersteller gesichert. Nur der Firma Microsoft nicht, die deswegen an
einem Standard für derartige Geräte arbeitet. Es wird spannend wie sich der PC
in den nächsten 10 Jahren weiterentwickeln wird...
2002 -: Die Krise und evt. ein neuer Anfang?
Im Jahr 2001/2002 bröckeln die Umsätze
nahezu aller Computerfirmen, schuld daran ist ein stagnierender Markt. Warum
sollte man sich auch heute einen neuen PC kaufen? Ein 200-300 MHz Rechner recht
für viele aus. Man kann damit die Arbeit erledigen (und geschäftlich genutzte
PCs machen noch die meisten Verkäufe aus) im Internet surfen und auch spielen.
Natürlich gibt es immer Nischen wo man nie genug Rechenleistung haben kann: Bei
den neuesten Spielen, Videoschnitt oder bei Servern. Doch der normale Nutzer
gibt nicht 1000 € für ein neues Gerät aus, wenn er mit seinem alten zufrieden
ist.
Es ist allerdings auch nicht zu
übersehen, das der Computer in den nächsten 20 Jahren weniger frei sein wird
als bisher. Schon gibt es CDs mit Kopierschutz - nicht für Software sondern für
Lieder, damit man sie nicht am Computer kopieren kann. MP3 Sites werden
reihenweise von der Musikindustrie mit Prozessen überzogen. Bei Scannern ist
eine Urheberrechtsabgabe fällig wie bei Kopierern. Im September 2003 wurde das
Urheberrecht so geändert, dass das Recht der Privatkopie bei Musik nur noch auf
dem Papier steht. Da man keine Kopierschutzsperren umgehen darf, darf man im
Prinzip nicht mehr kopieren ohne sich strafbar zu machen.
Es gibt nur noch Windows mit
persönlicher Registrierung und Hardwareverdongelung. Am Horizont zeichnet sich
TCPA ab - eine Initiative die nur noch zertifizierte Programme zulässt. Das mag
auch ein Schutz vor Viren sein, jedoch auch eine Möglichkeit Monopole die heute
schon existieren noch mehr vor Mitbewerbern abzuschotten. Die nächste Windows
Version wird wahrscheinlich nur noch "Sichere" Programme ausführen
können. Nein, das sind nicht Windows Anwendungen die nicht mehr abstürzen,
sondern Programme die von Microsoft als sicher zertifiziert wurden. Ist dies
nicht der Fall, so wird man diese weder installieren noch ausführen können. Es
steht zu erwarten, dass Microsoft dies nach der Salamitaktik einführt, bis
keiner mehr daran vorbeikommt. Dann wird es nach dem Sterben von alternativen
Hardwareansätzen und Betriebssystemen für einen PC auch noch das große
Softwaresterben geben, denn nur die größten dürften sich noch eine MS
Zerfizierung leisten können.
Die ersten 64 Bit PCs - Nichts dazugelernt?
Nachdem es schon seit langem bei anderen
Plattformen 64 Bit Prozessoren gibt, zieht der PC Markt Mitte 2003 nach: Der
Athlon 64 erscheint vom AMD. Dies ist ein 64 Bit Prozessor, der aber auch noch
die bisherigen 32 Bit Programme ausführen kann, und dies bei einer sehr guten
Performance. Das Erscheinen ist keine Überraschung, denn der Prozessor ist sein
2001 angekündigt. Doch wie sieht es mit der Unterstützung aus? Wo sind 64 Bit
Programme und 64 Bit Betriebssysteme? Nur wer Linux einsetzt kann 64 Bit
Programme ausführen. Windows bietet noch keine 64 Bit Unterstützung. Dabei gibt
es ein 64 Bit Windows, aber nur für den Intel Itanium Prozessor, einen
sündteuren Server Prozessor. Erst Mitte 2005 erscheint auch ein 64 Bit Windows
- Allerdings setzt nun auch Intel die 64 Bit Erweiterung von AMD ein (zum
ersten Mal nutzt Intel eine Technologie eines Mitbewerbers).
Es scheint als würde sich die Geschichte
wie beim Intel 386 wiederholen, auch dieser erschien 1986 und es dauerte 10
Jahre bis 1995 auch Windows für den Privatverbraucher 32 bittig war. (Bis die
letzten 16 Bit Altlasten aus dem System flogen dauerte es sogar bis Windows XP,
2001). Die enge Beziehung zu Intel hat
auch bei Microsoft Tradition.
Das Ende der Fahnenstange ?
Waren PC Käufer in den letzten 25
Jahren gewohnt immer mehr Leistung für ihr Geld zu erhalten, so hat sich dies
zumindest bei dem Anstieg der Taktfrequenz geändert. Ende 2002 hatte Intel die
3 GHz Marke überschritten und 3 Jahre später lag die Marke bei 3.8 GHz -
Ein magerer Anstieg um 23 % in 3 Jahren, während sich sonst die Taktfrequenz in
dieser Zeit verdoppelte. Bei AMD war der Abfall nicht so drastisch, doch auch
spürbar. Dies liegt daran, dass die Athlon Prozessoren noch niedriger getaktet
sind. Die Angabe "Athlon 4000" bedeutet nur, dass er in etwa so
schnell sein soll wie ein Pentium 4 mit 4000 MHz, in Wirklichkeit läuft er mit
2400 MHz.
Experten sind sich einig : Die
Taktfrequenzen werden nun langsamer ansteigen, vor allem weil die Leckströme
und damit der Stromverbrauch bei höheren Taktfrequenzen rapide ansteigen.
Stattdessen kündigen alle Hersteller Multiprozessor Cores an. Das sind im
Prinzip mehrere CPUs auf einem Prozessor, allerdings zuerst niedriger getaktet
als ein einzelner Prozessor. Ohne Software die diese Architektur ausnützt
bringt dies keinen Zuwachs an Geschwindigkeit. Es ist daher noch nicht sicher
ob sich diese Architektur durchsetzen wird, wenn sie ab 2006 auf dem Markt
verfügbar ist. Schlussendlich nutzt auch heute Software viele der seit 1995 neu
hinzugekommenen Funktionseinheiten wie MMX, 3Dnow!, SSE, SSE2,SSE3 und HT nicht
aus.
Der PC Markt ist in den
letzten Jahren abgeflaut. Zwar wächst er immer noch besser als die meisten
anderen Branchen doch nicht mehr so stark wie früher. Es fehlen Gründe sich
einen neuen PC anzuschaffen, zumal die Geschwindigkeit immer langsamer steigt.
Die Nutzungsdauer eines PC hat sich auch in den letzten 4 Jahren von 35 auf 42
Monate erhöht - Tendenz weiter steigend.
Mehrkernprozessoren (2006-
Die "Net Burst2 Technologie des
Pentium 4 erwies sich im Rückblick für Intel als teure Sackgasse. Sie basierte
darauf, dass man den Takt eines Prozessors stark steigern kann und war für eine
hohe Taktrate optimiert. AMD verfolgte bei seinen Athlons und Operons mehr die
Strategie mehr Einheiten gleichzeitig zu betreiben. Die Verlustleistung steigt
bei hohem Takt stark an und bald waren neue Prozessoren von Intel einfach am
Ende der Möglichkeiten wo man sie noch kühlen konnte ohne aufwendige Systeme
einzusetzen. Dadurch konnte AMD zwischen 2001 und 2006 gravierend zulegen und
verkaufte in Europa teilweise mehr Prozessoren als Intel.
Intel stellte seine Produktion um und
vertreibt nun Mehrkernprozessoren. 2006 sind es zwei pro Prozessor, Ende 2007
sollen 4 folgen und 2008 schon 8 Stück. Bei zwei Prozessoren ist der Gewinn vor
allem in der Bequemlichkeit gegeben: Da ein Großteil der PC Software nur einen
Prozessor nutzt ist immer einer frei und man muss nicht mehr warten (sofern man
auf den Prozessor wartet und nicht die Festplatte oder das Netzwerk das
Nadelöhr ist). Mehr und mehr wird Software auch mehrprozessorfähig sein. Der
Großteil der Software welche heute viel Rechenleistung benötigt wie
Videoschnitt oder Spiele ist relativ einfach anzupassen.
Mehrkernprozessoren ermöglichen viel
einfacher Virtualisierung. Damit ist gemeint, dass man unter einem
Betriebssystem ein anderes emuliert. Es gibt zahlreiche mögliche Anwendungen
dafür auch für Normal PC Benutzer. Windows Benutzer können Linux testen und
Linux Benutzer können Windows Programme ausführen die es für Linux nicht gibt.
Man kann ein Programm testweise installieren ohne sein Arbeitssystem zu
kompromittieren. Da jedes Betriebssystem aber Rechenleistung braucht macht dies
erst bei einem Mehrkernprozessor richtig Sinn, Sonst fühlt sich das ganze
"zäh" an. Man wird sehen ob immer mehr Kerne auch immer besser
ausgenutzt werden. Die Mehrkernarchitektur kommt von den Großrechnern wo sie
seit Jahrzehnten eingesetzt wird. Allerdings ist dort auch ein Rechner für
zahlreiche Benutzer zuständig oder die Software wurde speziell dafür
entwickelt.
2006 verabschiedete sich auch Apple von
den Power PC Prozessoren und setzt nun auf Intel, ist damit aber erfolgreicher
denn je, denn nun kann man auch Windows XP installieren, was Apple sogar
unterstützt - Damit entfällt die Entscheidung Windows oder Apple.
Windows Vista kam 2007 heraus und
durchlief eine enorme Wandlung im Laufe der Entwicklung die länger dauerte als
bei jedem Betriebssystem zuvor. Angekündigt als Antwort auf die
Sicherheitsprobleme von Windows mit einem neuen System, das nicht
kompromittiert werden kann und einem Kompabilitätssystem für alte Software
sollte es aufräumen mit den zahlreichen Sicherheitsupdates. Ein neues
Dateisystem sollte eine sehr schnelle Suche nach Inhalten auf der Festplatte
erlauben. Das am meisten kritisierteste war eine Umsetzung der Forderungen der
Unterhaltungsindustrie nach einem Digital Rights Management welches es nicht
erlaubt, das man hochauflösende Videos oder Material mit einem DRM Schutz
einfach kopiert oder die Datenströme im System abgreift.
Was heraus kam war eine grafisch
aufgepeppte Version mit dem DRM Schutz, aber nicht den anderen wirklich
nützlichen Ideen. Der Sicherheitsschutz ist nach wie vor löchrig weil man
permanent vom System gefragt wird ob man etwas wirklich möchte und bei der
Installation von Software keine Alternative hat als dies ab zunicken. Echte
Sicherheitswarnungen gehen dann irgendwann unter weil man dauernd gefragt wird.
Spielekonsolen erfreuen sich immer mehr
Beliebtheit, auch weil deren Leistung in den letzten Jahren kräftig angestiegen
ist. Sie können nun auch mehr als nur Spielen und sollen nach Willen der
Hersteller mit Browser, Mailprogramm und ähnlichem auch teilweise den PC
ersetzen.
Der Multimedia PC - lange
angekündigt als die Revolution - wird wohl nicht den Siegeszug im
Wohnzimmer antreten. Vielmehr erobern kleine Clients mit dezidierten Funktionen
das Wohnzimmer, wie Festplatten-Videospiele oder Festplatten Rekorder,
Satelliten Receiver mit Festplatte, Streaming Clients für Audio und Video.
Die Peripherie...
Nicht ganz so spektakulär wie die
Entwicklung der PCs verlief die Entwicklung der Peripheriegeräte, vor allem
Monitore und Drucker hatten gute Chancen eine Computergeneration zu überleben.
Drucker
Bei den Druckern war lange Zeit Standard
der Matrixdrucker. Die ersten Modelle mit 7 Nadeln, dann 8, 9 und schließlich
Mitte der achtziger Jahre der 24 Nadeldrucker. Die Geschwindigkeiten stiegen
nur langsam von 80 auf max. 240 Zeichen/sec. Dies ist im wesentlichen
mechanisch bedingt, schlussendlich muss ein Druckkopf über ein Farbband auf das
Papier hämmern. Obgleich die Nadeldrucker sehr günstig Unterhalt waren, hatten
sie doch zwei Nachteile: Das nervende Arbeitsgeräusch, das an eine Kreissäge
erinnert und das doch eher schlechte Schriftbild. Ab 1991 wurden sie von den
immer leistungsfähigeren Tintenstrahldruckern abgelöst.
Schon Anfang der achtziger Jahre gab es
die ersten Tintenstrahldrucker - Natürlich von HP erfunden. Doch erst ab 1992
begannen die Verkaufszahlen die der Matrixdrucker zu überrunden, inzwischen gab
es auch mehr Hersteller. Die Auflösung wurde immer weiter gesteigert und
erreicht heute Fotoqualität. Der Durchbruch des Tintenstrahlers war aber seine
Farbfähigkeit. Das gab es zwar auch bei einigen Matrixdruckern, doch waren
damit nur einfarbige Flächen sauber druckbar. Jeder der einen hat kennt den
Nachteil: Tinte ist teuer. Bis zirka 1993 konnte man noch selbst die Tinte
mixen, mittlerweile sind die Köpfe so konstruiert, das man möglichst nicht
nachfüllen kann. Als Ausgleich wird der Drucker fast geschenkt.
Der Laserdrucker wurde erstmals von
Apple zum Mac angeboten. Erfunden wurde er von Xerox schon anfangs der
siebziger Jahre. Doch erst Mitte der achtziger Jahre kam er zum PC. Die ersten
Laserdrucker gab es für den Mac. Doch durch die Wahl auf Postscript von Adobe
als Seitenbeschreibungssprache waren die ersten Geräte erheblich teurer als ein
Mac oder PC, denn die Controllerelektronik übertraf die PC Leistung bei weitem.
Mit der Einführung von PCL als Beschreibungssprache durch HP wurden die Geräte
bald viel billiger, doch die Massenproduktion wurde auch durch Windows
unterstützt - schließlich wollte man die True Type Fonts auch zu Papier
bringen. Heute sind Laser nicht viel teurer als Tintenstrahler und durch ihr
sauberes Schriftbild und geringe Kosten die Wahl beim Schwarzweißdruck. Anders
als Tintenstrahldrucker ist die Auflösung der Drucker nur langsam gestiegen.
Schon die ersten Modelle boten 300 dpi. Die Spitze liegt heute bei 1200 dpi
Monitore und Grafik
Monitore gab es zuerst einfarbig - in
grün, bernsteinfarben oder grau. Auch beim PC war der einfarbige Monitor lange
Zeit der Standard und machte Herkules groß - sie hatten eine
Monochromgrafikkarte entwickelt die IBMs Textlösung ziemlich alt aussehen lies.
Heimcomputer wurden lange Zeit nur an den Fernseher angeschlossen - was
allerdings die Auflösung so auf max. 320 × 200 beschränkte. Das war aber auch
die Standardauflösung der IBM PCs für die man aber einen echten Farbmonitor
brauchte. Mit Einführung von EGA (640 × 350) im Jahre 1986 und VGA (640 × 480)
1989 stieg langsam die Auflösung, während die Monitorgröße bei 12" blieb.
Seitdem steigt der Durchmesser der Monitore langsam aber stetig. 1992 war der
14" Standard, 1996 der 15" und heute ist es der 17".
Physikalisch ist hier eine Grenze gesetzt, denn je höher die Auflösung bei
gleicher Fläche, desto kleiner die Details und desto mehr muss sich das Auge
anstrengen. Auch von den Farben her ist keine weitere Steigerung zu erwarten -
16 Millionen Farben sind schon mehr als die 500.000 die das Auge auseinander
halten kann. Neu sind seit 1999 die TFT Displays für Desktop Computer, die
langsam im Preis sinken und eventuell den Monitor in einigen Jahren ablösen.
Grafik hatte schon 1978 der Apple 2. Die
meisten Rechner und auch der CGA Standard den der IBM PC hatte beschränkten
sich auf 8-16 KByte RAM (Auflösungen z.B. 320 × 200 Punkte in 4 Farben). Was
heute NVida und GeForce ist war in den achtzigern der 6845 Graphikcontroller,
den praktisch jeder einsetzte, der nicht einen eigenen Chip entwickelte.
Grafikkarten beschränkten sich zuerst
nur auf die Anzeige der Information. Der Rechner schrieb etwas in den
Grafikspeicher und der Graphikcontroller zeigte dies an. 1991 erschienen die
ersten Grafikkarten die Unterstützung für die Funktionen von Windows 3.1 boten,
indem Sie die Fähigkeiten hatten einfache Linien selbstständig zu Zeichnen oder
Grafikbereiche im Speicher zu verschieben. Der Chip Tseng ET 4000 wurde dadurch
sehr populär. Die 3D Grafikkarten sind dagegen sehr jung. Es gibt sie erst seit
1996. Hier übernimmt ein eigener Prozessor einen Großteil der Geometrie
Berechnungen. Die Geschwindigkeit dieser Prozessoren ist in 5 Jahren erheblich
gestiegen und der GeForce 3 erreicht bei ähnlich vielen Transistoren wie ein
Pentium 4 etwa das 20 fache dessen Performance.
Massespeicher
Rasant verlief die Entwicklung bei
Massespeichern. In der Frühzeit des PC wurden diese noch separat verkauft und
angeschlossen. Standard bei den Selbstbaucomputern war der Kassettenrekorder ,
immerhin, die letzten Modelle wie im Schneider CPC 464 eingebaut konnten bis
3900 Baud übertragen. (Auch im IBM BIOS waten zuerst noch Routinen für den
Kassettenrekorder, den man anschließen konnte....) Doch schon 1978 bot Apple
für den Apple II ein 5.25" Diskettenlaufwerk an. Die Kapazitäten steigen
langsam von 90-143 KByte über 180, 360, 720 auf 1440 Kilobyte. 3.5"
Laufwerke gab es zuerst nicht für IBM PCs sondern für Heimcomputer wie Atari
oder Amiga und natürlich den Mac. Erst 1987 führte IBM das 3.5" 1440 K
Laufwerk ein, das heute noch Standard ist.
Festplatten wurden im Laufe der Zeit
erheblich kleiner, während die Kapazität stieg. Die ersten Festplatten für den
IBM PC 1982 hatten 5 und 10 MB Kapazität im 8" Format. Sie waren
unerschwinglich teuer und kosteten ab 10.000 DM aufwärts - mehr als der ganze
restliche Computer. Beim AT - 1984 waren es schon 20-30 MB im 5.25" Format
(normale Bauhöhe also doppelt so hoch wie ein Disklaufwerk). Bis sich jeder
eine Festplatte allerdings leisten konnte verging noch einige Zeit. 1986 sank der
Preis für ein 30 MB Laufwerk erstmals unter die 2000 DM Grenze. Ab 1989 waren
Festplatten im PC Standard. Und seitdem steigt die durchschnittliche Kapazität
immer weiter: im Jahre 1989 40-60 MB, im Jahre 1991 80-120 MB, im Jahre 1993
200-250 MB, im Jahre 1995 400-500 MB, im Jahre 1997 2000-3000 MB und im Jahre
1999 6800-10000 MB. Und die Größen werden kleiner, anstatt großen 5.25"
Platten werden heute flache 3.5" Laufwerke verbaut. Die Zugriffszeit sank
dagegen langsamer: Sie betrug 1981 80 ms und liegt heute bei etwa 8-10 ms.
Historisch interessant ist das es immer wieder Grenzen gab die von schlechter
Programmierung herrührten. So war die ursprüngliche Spezifikation auf 512 MB
festgelegt - 100 mal mehr als 1982 Standard war. Es dauerte immerhin 10 Jahre
bis Festplatten diese Grenze knackten. Doch als man dann diese Grenze
überwinden musste war es durchaus nicht so, das man daraus viel gelernt hätte.
Bei jeder Kapazitätserhöhung gab es Probleme, besonders bei der 2 GB (max.
Partitionsgröße beim FAT 16 Filesystem) und der 8 GB Grenze (max.
Festplattengröße in vielen BIOS die noch 1997/87 erschienen. Selbst ein im
Jahre 2000 erschienenes Award BIOS hat noch eine 32 GB Einschränkung.
Maus und Eingabegeräte
Sehr alt sind Joysticks. Seit ich denken
kann gab es sie bei jedem Heimcomputer. Damals übrigens vor allem digitale
Joysticks, während die des IBM PC analoge Joysticks sind. Anders als sonst ist
analog hier besser: Digitale Joysticks gaben nur je ein Signal für jede
Richtung zurück, aber nicht wie stark man diese eingeschlagen hat.
Die Maus gab es zumindest in der
umgekehrten Form als Trackball auch sehr lange, im PC Bereich war der erste
Rechner der sie einsetzte Apples Lisa 1983. Von Microsoft gab es eine Maus zu
kaufen lange bevor es Windows gab (und auch sonst keine Anwendungen auf dem PC
um sie zu benutzen). Optische Mäuse setzte der Xerox
Star schon 1987 ein.
Kommentare
Kommentar veröffentlichen