Die Geschichte von Intel 50 Jahre Intel - die 68er-Revolution in der IT-Welt

Autor: Klaus Länger

Auch Intel gehört zu den 68ern: Am 18. Juli 1968 wurde der Chiphersteller gegründet, dessen Prozessoren die IT-Welt, so wie wir sie heute kennen, entscheidend geprägt haben. Denn von Intel kam nicht nur der erste serienreife Mikroprozessor der Welt, sondern mit der x86er-Technologie auch die Basis für den Siegeszug des PC.

Firmen zum Thema

Der SRAM-Chip 1101 war 1969 das zweite Produkt der jungen Firma Intel. Mit seiner MOS-Technik war er zukunftsweisend.
Der SRAM-Chip 1101 war 1969 das zweite Produkt der jungen Firma Intel. Mit seiner MOS-Technik war er zukunftsweisend.
(Bild: Intel)

Am Anfang stand Fairchild Semiconductor. Die Firma wurde 1957 von acht Ingenieuren gegründet, die zuvor an William B. Shockleys Shockley Semiconductor Laboratory gearbeitet hatten. Zu dieser Gruppe zählten Victor Grinich, Eugene Kleiner, Julius Blank, Sheldon Roberts, Jean Hoerni, Jay Last und die späteren Intel-Gründer Robert Noyce und Gordon Moore. Sherman Mills Fairchild, dessen Firmen Flugzeuge und Kameras für Luftaufnahmen herstellten, finanzierte die Firmengründung der acht Männer 1,5 Millionen US-Dollar und zahlte sie vertragsgemäß später mit jeweils 300.000 US-Dollar aus, seinerzeit eine erhebliche Summe. 1959 entwickelte Robert Noyce, am MIT promovierter Physiker, bei Fairchild den ersten monolithisch gefertigten integrierten Schaltkreis und wurde damit zu einer der einflussreichsten Persönlichkeiten der Branche. Zwar hatte Jack Kilby bei Texas Instruments bereits 1958 einen integrierten Schaltkreis gebaut und Anfang 1959 patentiert. Kilbys Implementierung war aber weniger praktikabel und wurde daher zunächst auch nicht kommerziell genutzt.

Bildergalerie
Bildergalerie mit 33 Bildern

Mit der Zeit verließen die meisten der acht Gründer Fairchild Semiconductor, meist um selbst eigene Firmen zu gründen. Zu dieser Zeit schossen Halbleiter-Startups geradezu aus dem Boden. Daher wurde der Landstrich auch „Silicon Valley“ genannt. 1968 schlugen schließlich auch Robert Noyce, seinerzeit Geschäftsführer bei Fairchild und der Chemiker Gordon Moore, der Forschungsleiter der Firma, diesen Weg ein. Moore war durch das 1965 formulierte Moore’sche Gesetz bekannt geworden, das eine Verdopplung der Komplexität integrierter Schaltkreise alle 18 bis 24 Monate postuliert.

Noyce und Moore bekamen das für die Firmengründung nötige Geld mit Hilfe des Investors Arthur Rock innerhalb kürzester Zeit zusammen und hoben am 18. Juli 1968 die Firma N M Electronics aus der Taufe. Ende Juli 1968 erfolgte die Umbenennung in den Namen „Intel“, eine Abkürzung für Integrated Electronic und zunächst mit tiefgestelltem „e“ geschrieben. Der dritte Mann bei Intel wurde der gebürtige Ungar Andrew S. Grove. Bei Fairchild war er der Stellvertreter von Gordon Moore. Auch Lez Vadász, der vierte Intel-Angestellte, war gebürtiger Ungar und ehemaliger Fairchild-Mann.

Der dritte Mann: Andy Grove

Robert Noyce und Gordon Moore waren zwar die Gründer von Intel, am Erfolg der Firma hatte aber Andy Grove mit Sicherheit einen ebenso hohen Anteil. Noyce war der Visionär, dessen Charisma Kunden und Angestellte mitreißen konnte, Moore der Chef der Forschungsabteilung, der neue Projekte beurteilen und vorantreiben konnte. Aber Andy Grove war der Mann bei Intel, der als Director of Operations den Laden am Laufen hielt. Er war zwar auch Ingenieur und konnte so beurteilen, welche Entwicklungen Erfolg versprachen und wo es Probleme gab, aber er prägte vor allem die Managementstrukturen bei Intel. Die ließen sich in den frühen Jahren von Intel mit dem Terminus „Konstruktive Konfrontation” zusammenfassen. Grove hatte nichts dagegen, wenn sich die Teilnehmer an Meetings anschrien, und auch er war da nicht tabu. Aber letztlich musste dabei ein brauchbares Ergebnis erzielt werden. Zudem hatte der dritte Mann bei Intel die Maxime, dass ein Unternehmen sich nie selbstgefällig auf seinen Lorbeeren ausruhen darf. Der Titel seines 1996 erschienenen Management-Handbuchs trägt daher auch den Titel „Nur die Paranoiden überleben”. Andy Grove wurde schließlich nach Robert Noyce (1968 – 1975) und Gordon Moore (1975 – 1987) der dritte Intel-CEO und behielt die Position bis 1998. Präsident der Firma war er bereits seit 1979.

Intels Ursprünge als Speicherhersteller

Das erste Produkt von Intel war im April 1969 der in Bipolar-Technik hergestellte 64-Bit-SRAM-Chip 3101. Damit hatte der seinerzeit noch kleine Hersteller die Entwicklung des Chips und dessen Produktionsstart in Rekordzeit gestemmt. Im selben Jahr folgte mit dem SRAM-Chip 1101 der erste in Großserie hergestellte MOS-Speicherbaustein mit Silizium-Gates. Mit der Entwicklung des Intel 1101 ist auch eine weitere, für die IT-Geschichte wichtige Entwicklung verknüpft: der EPROM. Der Intel-Entwickler Dov Frohman sollte Probleme bei der Zuverlässigkeit des 1101 untersuchen. Frohman entdeckte nicht nur die Ursache für den Fehler, sondern entwickelte daraus auch noch die Idee für einen Speicherbaustein, der Informationen dauerhaft halten konnte wie ein ROM-Chip, sich aber mittels UV-Licht löschen und dann neu programmieren ließ: der 1971 eingeführte EPROM-Chip. Mit ihm konnte nicht nur die Entwicklung neuer Chips beschleunigt werden, er diente auch als Speicher für die Firmware in frühen PCs. Weiterentwicklungen durch andere Hersteller waren das elektrisch löschbare EEPROM und schließlich der Flash-Speicher.

Mit dem 1103 stellte Intel 1970 einen der ersten DRAM-Chips vor. DRAMs benötigten zwar einen regelmäßigen Refresh, kamen aber mit deutlich weniger Transistoren pro Speicherzelle aus als SRAMs, was günstigere Preise und höhere Kapazitäten ermöglichte. Intel verkaufte den Kilobit-Chip 1103 nach anfänglichen Problemen mit dem Yield schließlich für einen Cent pro Bit, also für 10,24 US-Dollar. Damit waren DRAMs günstig genug, um die vorherrschenden Magnetkern-Speicher als Hauptspeicher von Computern und Rechenmaschinen abzulösen.

Revolution auf Umwegen: Der erste Microprozessor

Entwickelt hatte das im Intel 1101 und den folgenden Chips verwendete Silizium-Gate im Jahr 1968 der italienische Physiker Federico Faggin – und zwar auch bei Fairchild. 1970 wechselte Faggin zu Intel und wurde dort Projektleiter für die MCS-4-Familie und damit auch den ersten Microprozessor Intel 4004. Der basierte auf einer Idee des Intel-Ingenieurs Ted Hoff, der bereits die Grundlagen für den 1103 geschaffen hatte. Busicom, ein japanischer Hersteller von Tischrechenmaschinen, hatte bei Intel eine Reihe von Logikchips bestellt, die in Zusammenarbeit mit Intel entwickelt wurden. Allerdings kam Hoff, der sich ausgiebig mit den ersten Minirechnern wie dem DEC PDP-8 beschäftigt hatte – wobei diese Minirechner nur im Vergleich zu Mainframes klein waren und immer noch aus mehreren Schränken bestanden – auf die Idee, statt mehrerer spezialisierter Chips einen einzigen programmierbaren Prozessor zu verwenden. Hoff ging mit seiner Idee direkt zu Robert Noyce und konnte sie so gegen interne Widerstände durchsetzen und auch Busicom überzeugen. Allerdings musste sich Hoff dann Problemen mit dem 1103 widmen und das Projekt für Busicom geriet ins Stocken. Verwirklicht wurde es schließlich durch Faggin, den Software-Ingenieur Stan Mazor und Masatoshi Shima, der von Busicom zu Intel geschickt wurde, um an dem neuen Prozessor zu arbeiten. Im November 1971 war der MCS-4-Chipsatz fertig. Er bestand aus dem 4-Bit-Prozessor 4004, dem ROM-Chip 4001, dem RAM-Baustein 4002 und dem Shift-Register 4003. Busicom war inzwischen in finanzielle Turbulenzen geraten und konnte den vereinbarten Preis für die Chips nicht bezahlen. Intel gewährte einen Nachlass, sicherte sich aber im Gegenzug das Recht zu, den MCS-4-Chipsatz auch an andere Kunden verkaufen zu können. Nur Hersteller von Rechenmaschinen waren ausgenommen. Ohne den Deal hätte Busicom die Exklusivrechte am ersten Microprozessor behalten. Für Intel war der Verkaufsstart des 4004 inzwischen höchste Zeit. Denn auch Texas Instruments hatte mit dem TMS1000 einen Microprozessor fertig.

Das Hauptgeschäft machte Intel aber zunächst noch mit RAM-Chips, die an große Kunden aus der Computerindustrie geliefert wurden. Der 4004 ging eher an kleine, unbekannte Firmen. Als nächster Schritt folgten der wenig erfolgreiche 8-Bit-Prozessor 8008, und dessen Nachfolger Intel 8080, den wieder das Trio Faggin, Mazor sowie der zu Intel gewechselte Shima entworfen hatte und der 1974 auf den Markt kam. Er wurde unter anderem in den ersten Personal-Computern wie dem Altair 8800 eingesetzt, für den Bill Gates und Paul Allen einen BASIC-Interpreter schrieben. Intel war inzwischen zu einer Firma mit mehr als 3.000 Angestellten gewachsen.

Intel 8086: Der Lückenbüßer wird zum Star

Im Jahr 1974 verließ Federico Faggin Intel, um gemeinsam mit seinem ehemaligen Intel-Kollegen Ralph Ungermann den Prozessorhersteller Zilog zu gründen. 1975 folgte auch Shima zu Zilog. Mit dem Z80 hatte Zilog schon bald einen Prozessor im Programm, der softwarekompatibel zu Intels 8080 war, aber viel schneller und mit doppelt so vielen Registern ausgestattet. In der Folgezeit wurde der Z80 in vielen Homecomputern und Spielekonsolen verwendet. Weitere Konkurrenzprodukte waren der Motorola 6800 und der MOS 6502, der beispielsweise im Apple II und den ersten Commodore-Rechnern eingesetzt wurde. Intel konterte mit dem 8085, einer stärkeren Weiterentwicklung des 8080. Um bei den Prozessoren einen großen Vorsprung zu erringen, startete Intel das Projekt 8800, ein hochkomplexer 32-Bit-„Micromainframe“ bestehend aus drei Chips. Letztlich sollte die Fertigstellung des inzwischen iAXP 432 genannten Prozessors bis 1981 dauern. Der Prozessor mit eigenem iMAX-432-Betriebssystem war ein Flop und wurde 1986 eingestellt.

Da sich bereits 1976 abzeichnete, dass sich der 8800 immer weiter verzögerte und gleichzeitig Gerüchte über kommende 16-Bit-Prozessoren von Zilog und Motorola die Runde machten, beauftragte Intel ein zweites kleines Team mit der Entwicklung eines Lückenbüßers, des Intel 8086. Der Softwareingenieur Stephen Morse, der zuvor einen kritischen Bericht über den 8800 verfasst hatte, wurde mit der Entwicklung der Architektur des 8086 beauftragt. Seine Aufgabe: Der neue 16-Bit-Prozessor sollte deutlich schneller als der 8080, aber trotzdem zu dessen 8-Bit-Software kompatibel sein. Morse löste die Aufgabe in Rekordzeit. Im Juni 1978 kam der Prozessor auf den Markt.

Da Intel auf dem Markt für Arbeitsspeicher immer stärkere Konkurrenz durch japanische Hersteller zu spüren bekam, deren RAM-Chips besser und billiger als die von Intel waren, wurde der Prozessormarkt für den Hersteller aus Santa Clara immer wichtiger. Hier bekam Intel 1979 durch den 16/32-Bit-Prozessor Motorola 68000 und den 16-Bitter Zilog Z8000 verstärkt Konkurrenz. Mit der „Operation Crush“ startete Intel eine Marketing-Kampagne, die zwar primär gegen Motorola gerichtet war, unter der aber vor allem Zilog zu leiden hatte, das 1980 von Exxon übernommen wurde. Zwar war man sich bei Intel bewusst, dass der 68000 und wohl auch der Z8000 als Prozessoren leistungsfähiger waren, als der eigene 8086, fand aber trotzdem einen Weg, die Kunden von Motorola und Zilog abzubringen. Die Intel-Sales-Ingenieure argumentierten damit, dass Intel die bessere Gesamtlösung biete, bestehend aus Prozessor, zusätzlichen Chips und einer Entwicklungsplattform mit der nötigen Software. Diese Argumente zogen und die Verkäufe von Intel-Prozessoren liefen besser denn je.

Intel, IBM und Microsoft: Der Beginn der PC-Ära

Zum entscheidenden Geschäft für Intel wurde ein weiterer Lückenbüßer, diesmal von IBM. Big Blue beherrsche seinerzeit zwar den Markt für Mainframes und war auch neben DEC bei den Minicomputern erfolgreich, hatte aber den aufkommenden Home- und Personal-Computern zunächst nichts entgegenzusetzen. Die mit IBM-Chips ausgestattete Serie 5100, die Ende 1975 auf den Markt kam, war zu teuer und wurde ein Flop. Da Ende der 1970er-Jahre bei IBM die Zeit drängte, wich die Firma bei Prozessor und Betriebssystem auf Produkte anderer Hersteller aus. Intel bekam den Zuschlag für den Prozessor, die kleine Software-Firma Microsoft für das Betriebssystem. Als CPU diente mit dem Intel 8088 eine „Sparversion“ des 8086 mit interner 16-Bit-Architektur aber 8-Bit-Busdesign. Von IBM selbst stammte eigentlich nur das BIOS des neuen Rechners. Da der im August 1981 vorgestellte IBM PC 5150 für einen Rechner von Big Blue mit knapp 1.600 US-Dollar sehr günstig war, wurde er zum Erfolg. Da es IBM versäumt hatte, sich Exklusivrechte am Betriebssystem zu sichern, konnten andere Computerhersteller das BIOS per Reverse-Engineering nachbauen und selbst IBM-kompatible Rechner herstellen. Für Intel und für Microsoft bedeutete das den Aufstieg zum führenden Prozessor- beziehungsweise Software-Hersteller.

Bildergalerie
Bildergalerie mit 33 Bildern

AMD: Von der Second Source zum größten Gegner

Anfang der 1980er-Jahre vergab Intel noch relativ problemlos Lizenzen für seine Chips an andere Unternehmen. Diese Praxis resultierte auch daraus, dass Kunden wie IBM eine zweite Quelle für die benötigten Bausteine forderten. Intels 8086 und 8088 wurden daher auch von Firmen wie AMD, Harris, Fujitsu, Siemens oder NEC hergestellt. Teilweise auch mit internen Verbesserungen und höherer Taktfrequenz. Auch beim 1982 vorgestellten 80286 – er bildete die Basis des IBM AT Typ 5170 – behielt Intel diese liberale Lizenzpraxis bei. Vom 8086 unterschied sich der 80286 durch seine 24 statt 20 Adresslinien und die Einführung des Protected Mode.

Zu AMD hatte Intel ein gespaltenes Verhältnis. Die Firma wurde 1969 von einer Gruppe ehemaliger Fairchild-Semiconductor-Ingenieure gegründet. President der Firma wurde Jerry Sanders, der die Firma bis 2002 leiten sollte. Zu den Investoren für das Startkapital gehörte auch Robert Noyce. Bereits 1976 wurde ein erstes Cross-Licensing-Abkommen zwischen Intel und AMD geschlossen und trotz diverser Patent- und Antitrust-Klagen beider Seiten immer wieder verlängert.

Mit dem 80386 brachte Intel 1985 seinen ersten 32-Bit-x86-Prozessor auf den Markt. Er war besser für Multitasking geeignet als der 286 und konnte prinzipiell bis zu vier GB physikalisch vorhandenen Arbeitsspeicher adressieren. Später gab es mit dem 80386SX eine Sparversion mit 16-Bit-Bus und maximal 16 MB Hauptspeicher. Der von John H. Crawford entworfene 80386 wurde zuerst von Compaq eingesetzt, IBM folgte erst später mit den PS/2-Systemen. Der 386er bildete auch den Auftakt zu einem langjährigen Rechtsstreit zwischen Intel und AMD. Deren Am386 war ein Klon von Intels i386. Da Intel der Auffassung war, dass die Fertigungslizenz von AMD nur CPUs bis zum 80286 abdeckte und der Name 386 geschützt sei, zog die Firma vor Gericht. Erst 1991 gewann AMD den Prozess und konnte mit der Auslieferung des Prozessors beginnen. Der nächste Zwischenschritt für Intel war der i486 mit höherer Leistung, internem SRAM-Cache und integrierter Fließkommaeinheit (FPU). Er wurde federführend von Crawford und Pat Gelsinger entwickelt. Gelsinger wurde später der erste CTO von Intel und führte die Intel Developer Conference ein. Neben dem i486DX gab es noch eine Sparvariante i486SX ohne FPU. Der Upgrade-Prozessor i487SX für 486-SX-Systeme war im Prinzip ein vollwertiger 486er mit FPU, der SX-Prozessor wurde komplett deaktiviert. Die AMD-Version den 486ers war Anlass für einen weiteren Rechtsstreit, in dem Intel erneut eine Schlappe hinnehmen musste. AMD bekam Zugriff auf die Microcodes von Intels 386 und 486, aber nicht mehr auf die folgenden Prozessoren.

Intel Pentium: Befreiungsschlag und große Panne

Der erste dieser Prozessoren war der 1993 vorgestellte Pentium. Der Name sollte symbolisieren, dass es sich um die fünfte Generation von Intel-Prozessoren handelte. Seine Mikroarchitektur trug intern auch das Kürzel P5 und war die erste superskalare Architektur bei Intel. An ihm zeigt sich gut die stürmische Entwicklung in der Fertigungs- und Transistortechnik, die das Moore’sche Gesetz beschreibt: Der Intel 4004 bestand noch aus 2.900 Transistoren und wurde in einem 10-Micrometer-Prozess hergestellt. Beim 8086 waren es schon etwa 29.000 Transistoren und eine 3-Micrometer-Fertigung. Der P5-Pentium bestand bereits aus etwa 3,1 Millionen Transistoren. Hergestellt wurde er in einem 0,8-Micrometer-Prozess.

Ein Ziel beim Entwurf des Pentium war eine dramatisch gesteigerte Fließkommaleistung. Daher wurde die FPU gegenüber der des 486 erheblich erweitert und teilweise erneuert. Dabei unterlief den Intel-Ingenieuren aber ein folgenschwerer Fehler im Hardware-Design. Dieser sogenannte FDIV-Bug führte dazu, dass sich der Prozessor bei Gleitkomma-Divisionen mit bestimmten Wertepaaren schlicht verrechnet. Entdeckt hat ihn Prof. Thomas Ray Nicely vom Lynchburg College. Nachdem der von ihm informierte Intel-Support nicht reagierte, ging Nicely an die Öffentlichkeit und trat damit eine Lawine los. Nach anfänglichen Versuchen, das Ausmaß des Fehlers herunterzuspielen, ging Grove schließlich in die Offensive und versprach, alle betroffenen Pentium-Prozessoren kostenlos umzutauschen. Intel hatte ein fehlerbereinigtes Stepping des Prozessors bereits in der Produktion.

Mit dem P55C brachte Intel im Oktober 1996 eine Pentium-Version, bei der 57 MMX-Befehle den Instruktionssatz erweiterten. Sie sollten die Leistung bei Multimedia-Aufgaben wie dem Audio- oder Video-Decoding und Encoding steigern.

AMD konterte den Pentium zunächst mit dem ambitionierten, aber misslungenen K5, der im März 1996 auf den Markt kam. Nach der Übernahme des Prozessorherstellers Nexgen folgte 1998 der K6 auf Basis von deren Nx686. Weitere zum Pentium kompatible Prozessoren kamen von Cyrix, Rise und IDT Winchip. Sie liefen auch noch auf den selben Mainboards mit Sockel 5 beziehungsweise Sockel 7 wie die Intel-Prozessoren.

Pentium Pro: CISC trifft RISC

Beim Pentium Pro mit seinem Sockel 8 war das nicht mehr der Fall. Intel hatte ihn parallel zum Pentium entwickelt und 1995 vorgestellt. Der Pentium Pro war mit seiner P6-Architektur zwar weiterhin ein x86-Prozessor, arbeitete aber intern mit Micro-Ops, RISC-ähnlichen Befehlen. Er beherrschte zudem die Out-of-Order-Ausführung von Befehlen, die auch eine spekulative Instruktions-Ausführung umfasste. Diese Technik sollte Intel und anderen CPU-Herstellern mehr als 20 Jahre später noch viel Ärger bereiten, da sie für Angriffe wie „Spectre“ und – speziell bei Intel-Prozessoren – „Meltdown“ ausgenutzt werden kann. 1995 hatte Intel aber ein anderes Problem: Bei 16-Bit-Software konnte der Pentium Pro sein volles Potenzial nicht entfalten. Daher wurde er als High-End-Modell für Workstations und Server unter Unix, Linux oder Windows NT vermarktet. Ihm fehlten auch die MMX-Instruktionen.

Intel hatte beim Pentium Pro zudem erstmals den Level-2-Cache direkt mit auf den Prozessor gepackt. Er saß separat neben dem eigentlichen Prozessor und arbeitete mit dessen voller Taktfrequenz von 150 bis 200 MHz. Der Cache-Baustein machte aber den Prozessor teuer und limitierte zusätzlich dessen maximale Taktrate, da schnellere SRAM-Chips kaum verfügbar waren.

Pentium II und III: Der Pentium Pro für den Massenmarkt

Daher ging der Hersteller 1997 beim eher für den Massenmarkt bestimmten Pentium II einen Schritt zurück und verwendete wieder herkömmliche SRAM-Chips. Die saßen gemeinsam mit der CPU auf einer kleinen Platine und arbeiteten mit deren halber Taktfrequenz. Die Platine war in ein Kunststoffgehäuse gepackt und saß nicht in einem Sockel, sondern im Slot 1, einem Steckplatz mit 242 Kontakten. Zudem hatten die Entwickler die 16-Bit-Leistung des Prozessors verbessert. Mit den Celeron brachte Intel eine Billigvariante des Prozessors ohne L2-Cache. Der Nachfolger für den Pentium Pro wurde 1998 der Pentium II Xeon mit Full-Speed-L2-Cache und Sockel-II-Interface. Der Pentium III brachte 1999 mit den Streaming SIMD Extensions (SSE) erneut eine Befehlssatzerweiterung. In der Folge wurde der L2-Cache mit auf dem Die integriert, ein Schritt, den AMD bereits zuvor beim Athlon getan hatte. Der zunächst mit Slot-A-Interface erschienene Prozessor, an dessen Entstehung vormalige DEC-Alpha-Entwickler beteiligt waren, machte dem Pentium II und III inzwischen gehörig Konkurrenz.

Bildergalerie
Bildergalerie mit 33 Bildern

Intel mit zu langer Leitung

Der Pentium 4 „Willamette“ sollte den Abstand zu AMD erneut herstellen. Seine Netburst-Microarchitektur war mit ellenlanger Pipeline, vierfach getaktetem Frontside-Bus und Rapid Execution Engine mit doppelt getakteten ALUs für eine hohe Taktfrequenz ausgelegt. Mit „Northwood“ reichte Intel dann 2002 die Hyperthreading-Technologie nach, mit der bestimmte Instruktionen parallel abgearbeitet werden konnten. Dem Betriebssystem präsentierte sich Northwood wie zwei Prozessoren. Allerdings hatte Intel mit dem Pentium 4 heftige Probleme. Er war für die Zusammenarbeit mit den seriellen Rambus-Speichern ausgelegt. Da diese aber unverschämt teuer und dann auch noch Probleme des 850er-Chipsatz hatte, reichte Intel den 845er-Chipsatz für SDRAM nach. Damit stiegen zwar die Verkäufe des Prozessors, aber dessen Leistung litt. Beim 2004 vorgestellten 90-Nanometer-Pentium-4 „Prescott“ hatte Intel die Pipeline sogar noch verlängert. Aber die für eine höhere Performance nötige Taktfrequenz – Intel sprach beim Launch von bis zu 10 GHz – wurde nicht annähernd erreicht. Selbst bei den 3,8 GHz der letzten Pentium-4-Modelle waren Leitungsaufnahme und Hitzeentwicklung am Limit. Auch die 2005 unternommene Implementierung von AMDs 64-Bit-Technik und der Schritt zu Dual-Core-Prozessoren – Intel verwendete zwei getrennte Dies in einem Gehäuse – konnte den Pentium 4 nicht retten, da AMD mit dem Athlon 64 X2 kurz danach einen besseren Dualcore-Prozessor auf den Markt brachte.

AMDs Hammer und Intels Itanic

Der Athlon 64 X2 war die Dualcore-Version des 2003 präsentierten Athlon 64. Der unter dem Codenamen „ClawHammer“ entwickelte Prozessor und dessen Servervariante Opteron („Sledgehammer“ waren die ersten x86-Prozessoren mit 64-Bit-Instruktionssatz). Mit ihnen konnte AMD nicht nur im Desktop- und im Serversektor erhebliche Marktanteile erobern, sie schickten auch Intels ehrgeiziges Itanium-Projekt letztlich in den Untergang. In der IT-Branche trug der 64-Bit-Prozessor Itanium auch den Spitznamen „Itanic“. Den Prozessor hatte Intel gemeinsam mit HP seit 1994 entwickelt. Er nutzte eine Very-Long-Instruction-Word-Architektur, die bei HP entstanden war und aus der gemeinsam mit Intel die AI-64-Architektur wurde. Für x86-Systeme geschriebene Software konnte der Prozessor nur in einer Emulation ausführen. 2001 kam der erste Itanium auf den Markt. Mit ihm wollten Intel und HP den Markt für Server und Workstations übernehmen. Das gelang bedingt, da Itanium bei HP und Herstellern wie Compaq oder SGI deren RISC-Prozessoren verdrängte. Bei IBMs Power und Suns Sparc gelang das nicht. Aber das Gros der Server blieb bei der x86-Architektur und mit AMDs Opteron stand hier auch ein zu bisheriger Software kompatibler Prozessor zur Verfügung. Der extrem komplexe und teure Itanium wurde von Intel immerhin noch bis 2017 weiter entwickelt und danach ohne große Fanfare beerdigt.

Intel konnte sich auf das Lizenzabkommen mit AMD berufen, um deren 64-Bit-Erweiterung für Pentium 4 und Xeon zu übernehmen. Aber eine Schlappe war es für die an Erfolg gewöhnte Firma trotzdem.

Rettung aus Israel

Die Rettung für Intel brachte der in der israelischen Dependance unter der Leitung von Mooley Eden entwickelte „Banias“. Der 32-Bit-Prozessor wurde auf der Cebit 2003 als Teil von Intel Mobil-Plattform Centrino vorgestellt. Intel hatte die Entwicklung angeschoben, da man erkannt hatte, dass sich der heiße und stromhungrige Pentium 4 nur schlecht in Notebooks verwenden lässt. Zuvor war Eden in Haifa an der Entwicklung von MMX und am P6 beteiligt gewesen. Mit Banias nahm Eden Konzepte des Pentium III wieder auf und kombinierte sie mit einem zum Pentium 4 kompatiblen Businterface. Damit wurde der Mobilprozessor im Prinzip zum Urvater aller späteren Core-Prozessoren. 2006 folgten die Yonah-Prozessoren Core Solo und Core Duo, letzterer mit zwei Kernen. Mit dem Core 2 Duo brachte die Firma noch im selben Jahr die ersten 64-Bit-Varianten der neuen CPU, die dann nicht nur in Notebooks (Merom), sondern auch in Desktop-PCs und Servern (Conroe) eingesetzt wurden.

Der nächste Schritt war die Weiterentwicklung der Core-Architektur zur Nehalem-Architektur. Mit ihr griff Intel die Hyperthreading-Technologie wieder auf und führte bei den 2008 präsentierten High-End-Modellen mit QuickPath Interconnect eine schnelle Verbindung zwischen Prozessor und der Northbridge des Chipsatzes ein, die den Frontside-Bus ablöste. Zudem führte Intel ein neues Namensschema ein: Der neue High-End-Desktop-Prozessor mit Sockel 1366 trug den Namen Core i7. Im Jahr darauf folgten günstigere Core-Prozessoren mit im Prozessor integriertem Speichercontroller und nur zwei Speicherkanälen. Varianten mit nur zwei Kernen und mit vier Kernen ohne Hyperthreading komplettierten die Familie aus Core i3, Core i5 und Core i7. Diese Bezeichnungen wurden über die nächsten Generationen der Core-Prozessoren hinweg bis heute beibehalten.

Bildergalerie
Bildergalerie mit 33 Bildern

Das Tick-Tock-Modell kommt ins Stolpern

Nehalem war der Auftakt für Intels Tick-Tock-Strategie, die im Prinzip bis 2014 durchgehalten hatte. Auf einen Die-Shrink mit minimalen Verbesserungen der Microarchitektur (Tick) folgte immer ein größerer Sprung in der Architektur (Tock). Wichtige Sprünge waren hier vor allem Sandy Bridge mit integrierter GPU und Ringbus-Interface sowie der folgende Die-Shrink mit 22-Nanometer-Herstellungsprozess und Tri-Gate-Transistoren. Nach dem Schritt zu einem 14-Nanometer-Prozess mit Broadwell und Skylake als Architektur kam das Uhrwerk aber ins Stolpern: Aktuell hat Intel mit Coffee Lake die bereits vierte 14-Nanometer-CPU auf Skylake-Basis im Markt. Der eigentlich für 2017 geplante Schritt auf 10 Nanometer hat für die Massenproduktion immer noch nicht stattgefunden.

Zudem hat AMD nach der missglückten Bulldozer-Architektur mit Zen wieder eine leistungsstarke technische Basis. Daher ist den aktuellen Core- und Xeon-Prozessoren mit Ryzen und Epyc bei Desktop-PCs, Notebooks und Servern wieder eine ernstzunehmende Konkurrenz erwachsen. Zudem macht mit Qualcomm der erste Hersteller von ARM-Prozessoren ernsthafte Schritte, seine Prozessoren auch in Windows-Notebooks und Tablets unterzubringen – und zwar mit Unterstützung durch Microsoft.

Intels Atom-Unfall

Den Markt für Smartphone- und Android-Tablet-SoCs hat Intel wiederum komplett den ARM-Herstellern überlassen. Den Versuch, dort mit den Prozessoren der Atom-Familie Fuß zu fassen, nach dem man vorher die eigenen ARM-Sparte der XScale-Prozessoren 2006 an Marvell verkauft hatte, brach die Firma 2016 nach herben Verlusten ab und verkaufte die sparsamen Prozessoren nun primär für Low-Cost-PCs und für Storage-Geräte. Auch den Ausflug in den Wearables-Sektor mit dem Atom-basierten Edison beendete der Chip-Hersteller im vergangenen Jahr.

Ein weiterer Stolperstein für Intel sind die Sicherheitsprobleme durch Schwachstellen in der Prozessorarchitektur, die Intel am härtesten getroffen haben und die nun ausgeräumt werden müssen. Die dafür blockierten Entwickler stehen natürlich nicht für das Design neuer Prozessoren zur Verfügung.

Und weiter?

Während sich Intel bei Produkten für Server und Storage im lokalen Rechenzentrum oder der Cloud und für HPC wenig Sorgen machen muss, fehlt es an Innovationen für Desktop und Notebook. Hier hat sich das Unternehmen zu lange auf den Erfolg der Core-Prozessoren verlassen. Für den Mobile-Markt sollte die Firma vielleicht die alte Wintel-Allianz wiederaufleben lassen, um die IT-Welt mit einem revolutionären Produkt zu beglücken. Und Intel sollte die alte Regel von Andy Grove beherzigen: Nur die Paranoiden überleben.

(ID:45407209)

Über den Autor

 Klaus Länger

Klaus Länger

Redakteur