In der Tat war das Abkommen extrem wichtig für den Chiphersteller. Apple und Jobs hatten – wie wir heute alle wissen – einen sehr guten Riecher für die Zukunft. Während der Planungen zum iPhone fragte Jobs zuerst Otellini nach einer CPU. Doch der Intel-CEO winkte ab. Die Produktionskosten des Chips wären höher gewesen als der von Apple gebotene Kaufpreis, berichtetet Otellini später in einem Interview.
Doch Intels Kostenprognose erwies sich als falsch. Das Produktionsvolumen des iPhone war 100-mal höher als vom Management vorhergesehen…
Genauso wie sein Partner während der goldenen 90er, Microsoft, war Intel von seinem Erfolg im PC-Paradigma so geblendet, dass es Zukunftschancen nicht mehr klar wahrnahm.
Aufgrund der mit seinem Erfolg verbundenen Margen sah das Management keinerlei Grund, seine Erfolgsformel infrage zu stellen.
Apple, ein aufstrebender Kunde mit großen Visionen klopfte an mit einem Angebot, das nicht ähnlich hohe Margen versprach. Und was sagte Intel?
„Kein Interesse.“
Und nun, anno 2020 wird Apple seine Desktop-Rechner bald mit eigenen Chips antreiben. Intel wird außen vor bleiben. Es ist die erste Änderung in der Architektur der Mac-CPU seit dem Jahr 2005, als Apple zu Intel wechselte.
Was lernen wir daraus?
Selbst wenn eine disruptive Technologie mit minderwertiger Performance startet, kann sie sich aufgrund der dramatischen Ausweitung des Marktes weitaus schneller verbessern und verbreiten als die der etablierten Anbieter. Das war es, was Intel und Microsoft überhaupt erst in die Lage versetzte, den Computer-Markt zu erobern: Auch wenn Personal Computer billiger waren, finanziert und ermöglicht der Verkauf von etwas, das in jedem Haus und auf jedem Schreibtisch steht, am Ende viel mehr Forschungs- und Entwicklungsausgaben als der Verkauf von ein paar sehr teuren Servern, die es nur in Universitäten und Behörden gibt.