Digital Life
13.04.2015

Gordon Moore: Bedeutung des Internet hat mich überrascht

Intel-Mitbegründer und "Moore's Law"-Erfinder Gordon Moore hatte nie damit gerechnet, dass das Internet dermaßen bedeutend werden würde wie es heute ist.

Seine Prognosen waren kühn, viele trafen tatsächlich ein. Eines aber hat der Chemiker und Physiker Gordon Moore, Mitbegründer des weltgrößten Chipherstellers Intel, aber komplett unterschätzt. In seinem berühmt gewordenen Artikel in der Zeitschrift „Electronics“ aus dem Jahr 1965 habe er zum Beispiel schon den modernen Personal Computer, phasengesteuerte Radare oder auch die Computer-Uhr vorhergesagt. „Doch eine Innovation, die ich nicht vorhergesehen habe, ich glaube die eine, die mich wirklich überrascht hat, ist die Bedeutung des Internet“, sagte Moore einer Intel-Delegation, die den ehemaligen Konzernchef berfagte.

Einzigartig

„Wir wussten, dass Computer nützliche Dinge tun“, sagte Moore. Es sei ihm und seinen Kollegen klar gewesen, dass sie immer besser werden würden, sobald die Entwicklung beginnt. „Aber ich hätte niemals gedacht, wie wichtig sie einmal werden als Kommunikations-Medium, hauptsächlich gesteuert durch das Internet. Ich kenne keine andere Innovation, die vergleichbar wäre.“

Am 19. April feiert Intel den 50. Geburtstag von „Moore's Law“, einem Grundsatz, den der Weltkonzern bis heute verfolgt. Er geht auf einen Artikel Moores in der Fachzeitschrift „Electronics“ von 1965 zurück. Seither treibt der als Mooresches Gesetz berühmt gewordene Grundsatz, wonach sich etwa alle 18 Monate die Komponenten auf einem Chip verdoppeln, die Computer- und IT-Industrie weltweit an. Aus der Beobachtung wurde eine Regel für die Zukunft. Und keine Regel hat die Technologie-Entwicklung und das Computer-Zeitalter so geprägt wie „Moore's Law“. Der Siegeszug des Personal Computers in den 80er und 90er Jahren sowie heute die mobile Revolution wären möglicherweise ausgeblieben. Und ein Ende ist vorerst nicht in Sicht, auch wenn die Halbleiter-Branche langsam an die physikalischen und finanziellen Grenzen der Prozessor-Technik stößt.

Bis heute gültig

Mit der Produktion von Mikroprozessoren betrat Moore zusammen mit dem Physiker Bob Noyce und dem Chemiker Andy Grove Mitte der 60er Jahre absolutes Neuland. Etwa drei Jahre vor der Gründung des heutigen Weltkonzerns erschien in der Zeitschrift „Electronics“ am 19. April 1965 ein Fachartikel von Moore über die Chipproduktion, der das Prinzip begründete.

Dort sagte Moore eine ständige Leistungssteigerung der Microprozessoren bei sinkenden Kosten vorher. Die Prognose war zunächst gar nicht als „Gesetz“ formuliert und wurde von Moore später noch etwas verändert. Demnach verdoppelt sich die Zahl der auf einem Mikroprozessor verbauten Transistoren - und damit je nach Design auch ungefähr die Leistung eines Chips - alle anderthalb bis zwei Jahre. Und bei gleichzeitig sinkenden Preisen.

Als Faustregel hat der Grundsatz bis heute Bestand und treibt die Entwicklung immer kleinerer und leistungsfähigerer Geräte voran. Firmen wie Apple, HP und Samsung können sich bei ihren Designs darauf verlassen, dass Chips - wie einem Naturgesetz folgend - ständig keiner und leistungsfähiger werden.

Er habe eigentlich eine von ihm beobachtete Entwicklung in der Halbleiter-Produktion beschreiben wollen, dass Chips immer günstiger hergestellt werden könnten, sagte Moore unlängst einer Intel-Delegation, die den ehemaligen Konzernchef befragte. Einer seiner Kollegen habe es dann später „Moore's Law“ genannt, „ein Name, der weit hinter allem liegt, das ich damals glaubte voraussehen zu können“. Das bis heute offene Ende sei von ihm damals nicht vorstellbar gewesen.

Schrittgeber für Branche

„Und es ist auch heute nicht erkennbar, wann es zu einem Ende kommen wird.“ Mit der Zeit hätten es die verschiedenen Partner in der Computer-Industrie als einen Schrittgeber für Innovationen verstanden, den man einhalten müsse, um nicht technologisch zurückzufallen. „So entwickelte sich Moore's Law von einer Maßeinheit für das, was geschehen ist, zu etwas wie der Antrieb der Industrie.“ Über Jahrzehnte trieben Intel mit seinen Chips und Microsoft mit dem immer leistungshungrigeren Betriebssystem Windows die Leistungsspirale an. Dieses Bündnis ging unter dem Schlagwort „Wintel“ (Kunstwort aus Windows und Intel) in die Computergeschichte ein.

Bereits in den 90er Jahren wurde darüber diskutiert, wann die Entwicklung von immer kleineren Computer-Chips einmal an ihre physikalischen Grenzen gerät. Mit immer wieder verfeinerten Verfahrenstechniken und neuen Lithographie-Techniken gelang es, die Chips bis in den niedrigen Nanometer-Bereich zu schrumpfen. Bislang ist ein Ende nicht absehbar, auch wenn die Entwicklungskosten für den technischen Fortschritt ebenfalls enorm wachsen.

Tick-Tock-Produktion

Die Strukturbreiten der Chips werden heute in Nanometer gemessen - also ein Milliardstel Millimeter - und sind mit bloßem Auge nicht mehr zu erkennen. Intels aktueller Prozessor Broadwell hat zum Beispiel Strukturbreiten von 14 Nanometer und vereint rund 1,3 Milliarden Transistoren auf einer Fläche von 131 Quadratmillimetern. Der erste Intel 4004-Prozessor Anfang der 70er Jahre fasste noch 2300 Transistoren.

Später hatte Intel-Manager Pat Gelsinger die „Taktrate“ bei der Chipproduktion durch sein „Tick Tock“ genanntes Prinzip weiter in Schwung gehalten. Demnach wird abwechselnd ein bestehendes Chip-Design noch einmal geschrumpft (Tick) und erst dann eine neue Architektur entwickelt (Tock).

Gordon Moore stand von 1975 bis 1987 als Chief Executive Officer an der Spitze des Konzerns und prägte das Unternehmen maßgeblich. Er hatte wie auch die Mitgründer Grove und Noyce Ende der 60er Jahre die Firma Fairchild Semiconductor verlassen. Mit der Gründung der Firma Intel wollten die Ingenieure die Entwicklung von integrierten Schaltkreisen und Microprozessoren vorantreiben - und legten damit den Grundstein für das Computerzeitalter.

Kundenwünsche ignoriert

Der erste serienreife Chip entstand 1971. Dass er das Fundament für künftige Computer-Chips bilden sollte, war dabei nur einem Zufall geschuldet. Intel sollte für die japanische Firma Nippon Calculating Machine Corporation einen Chip für eine neue Rechenmaschine bauen. Der Auftraggeber legte gleich die Architekturpläne für die Chips mit bei. Anders, als von Nippon gewünscht, hatten zwei Intel-Ingenieure aber den Plan für einen viel leistungsfähigeren Prozessor - und realisierten ihm.

Intel kaufte später die Rechte an dem Design seinem Kunden wieder ab - sonst würde das Unternehmen aus Santa Clara in Kalifornien heute wohl kaum noch eine große Rolle spielen. Im Herbst 1971 kam schließlich Intels erster serienreifer Microprozessor 4004 heraus, der den Siegeszug des Personal Computers und der x86er Prozessoren begründen sollte, die noch immer in über 80 Prozent aller Personal Computer weltweit verbaut sind.

Den Trend zu besonders energiesparenden Chips für Smartphones und Tablet Computer hat Intel allerdings verschlafen. Hier dominiert der britische Chip-Designer ARM, nach dessen Architektur Hersteller wie Samsung, Apple und Qualcomm ihre Chips bauen.