Wenn es eine einzige Zahl gibt, an der man die enorme industrielle Bedeutung von künstlicher Intelligenz ablesen kann, dann ist es der Aktienkurs des Chiphersteller Nvidia. Über 850 Dollar beträgt der Kurs pro Aktie, über 2100 Milliarden Dollar die Bewertung, beinahe eine Verdoppelung seit Jahresbeginn, fast eine Verachtfachung in den vergangenen anderthalb Jahren – alles ein Ergebnis des Glücksfalls, dass die Grafikkarten von Nvidia die Algorithmen der Generative AI besser, schneller und effizienter rechnen können als jeder andere Chip auf der Welt. 

Partner-Inhalte
 
 
 
 
 
 

Seinen besten Chip (H100) kann Nvidia derzeit angeblich für 20’000 Dollar pro Stück verkaufen, während die Produktionskosten geschätzt bei 4000 Dollar liegen. Ein Deckungsbeitrag in vierfacher Höhe des Herstellungswerts – solche Mirakel wären nicht denkbar ohne den plötzlichen und bahnbrechenden Erfolg der text- und bilderzeugenden künstlichen Intelligenz. Und dieser Erfolg wäre seinerseits nicht denkbar, wenn es nur um Spielerei ginge und die Technik keinen wirtschaftlichen Nutzen durch enorme Effizienzsteigerungen schaffen würde. Künstliche Effizienz scheint Produktivitätsreserven in einem Ausmass zu heben, wie es zuvor nur Desktop-Computer, Mobiltelefon oder das Internet geschafft haben. Eine völlig neue Industrie entsteht. 

Der Gastautor

Christoph Keese ist Verwaltungsratspräsident von WORLD.MINDS sowie Unternehmer und Unternehmensberater aus Berlin. Der Autor von sechs Büchern schreibt monatlich in der «Handelszeitung».

Bislang wurden die Maschinen vor allem mit Texten und Bildern trainiert, wie sie zu Millionen und Milliarden im Internet zu finden sind. Wikipedia, Youtube und die Webseiten der renommierten Medien lieferten die wichtigsten Daten. Nun aber, da dieser Anwendungsfall bewiesen ist, brechen die Pioniere zu neuen Kontinenten auf. Es könnten nun ähnliche Revolutionen in Biologie, Medizin und Materialwissenschaften bevorstehen. 

Warum? Aus Sicht der Algorithmen sind Wörter eines Textes nur abstrakte «Token». Die Maschine errechnet die Wahrscheinlichkeit, mit der ein Token auf einen anderen folgen kann. Was bei Wörtern anstandslos funktioniert, könnte bald auch bei Genen, Aminosäuren, Peptiden, Atomen, Molekülen oder jedem anderen Baustein geschehen, der digital ausgedrückt werden kann. Man könnte die Maschinen statt mit Texten aus Wikipedia und der «New York Times» füttern mit den Datensätzen aller jemals sequenzierten Gene oder aller entschlüsselten Proteine (was Googles Tochter Alphafold schon tut). Oder mit den Verbindungen aller bekannten Moleküle, oder den Elektronenkonstellationen aller jemals kartierten Stoffe. So trainiert, könnte die Maschine vielleicht Gensequenzen für lebensfähige Organismen vorhersagen oder Werkstoffe für den Flugzeugbau – oder CO2-freie Treibstoffe für Motoren und Turbinen. Man stelle sich vor, Forscher oder Ingenieurinnen könnten sich in einer Datenbank aller theoretisch möglichen biologischen oder chemischen Stoffe bedienen und sie in virtuellen Organismen auf ihre Eigenschaften und Wechselwirkungen testen. 

Die Auswirkungen solcher Technologien wären so faszinierend wie gefährlich. Doch bei verantwortungsbewusster Anwendung könnten – ähnlich wie bei Bildern und Sprache – gewaltige Produktivitätsreserven gehoben werden. Weit entfernt liegt diese Aussicht nicht mehr. Weil es der künstlichen Intelligenz egal ist, ob die Token, mit denen sie arbeitet, Sprache repräsentieren oder Moleküle, braucht es wenig Aufwand, um generative KI vom einen zum anderen weiterzuentwickeln. Man füttert sie einfach mit anderen Datensätzen, und schon nehmen Heil oder Unheil ihren Lauf.