Schnellere Prozessoren, grössere Datenmengen sowie bessere Machine-Learning-Verfahren – das waren bis etwa 2018 die drei Treiber von Systemen für künstliche Intelligenz (KI). Dann trat eine Art Pause ein, denn die bisherige Entwicklung gelangte an ihre Grenzen, wie viele End-User und Firmenkunden rasch bemerkten: Sprach-Interaktionssysteme, Suchergebnisse bei E-Commerce-Plattformen und die Systeme, die Fahrzeuge halbwegs steuern, funktionieren unbefriedigend beziehungsweise gelangen spürbar rasch an ihre Grenzen.
 

Auch interessant
 
 
 
 
 
 

Wenn die neuen Modelle selbstständig neuen, deutlich überlegenen Computercode erzeugen können, ist es nur ein kleiner Schritt bis zur «Generativen KI»: Hierbei programmieren KI-Systeme ihre verbesserten Nachfolger. 

Einige neue Entwicklungen bei künstlicher Intelligenz dürften in den kommenden Jahren wieder für ständig bessere Erfahrungen sorgen.

Wichtiger Spoiler vorweg: Gemäss den Industrieanalysten von Gartner sind wir – Stand Sommer 2022 – «noch Jahrzehnte entfernt von allgemeiner künstlicher Intelligenz», bei der Maschinen so lernen, arbeiten und funktionieren, wie man das von Menschen kennt.

Zu gross für die Entwickler-Garage

Ein wichtiger Schritt auf dem Weg dahin wurde allerdings 2017 von Fachleuten von Google und der Universität von Toronto eingeleitet: Anstelle der bis dahin üblichen seriellen Arbeitsweise, bei der Daten nach und nach analysiert werden, trat ein Vorgehen, bei dem alle relevanten Daten gleichzeitig verarbeitet werden. Anstelle der Wort-für-Wort-Analyse erkannten die Systeme bestimmte Merkmale im ganzen Text. Worte, welche die neuen Systeme nicht «verstehen», erschliessen sie sich automatisch aus dem Kontext, in dem sie genannt werden, bis das «Wissen» nach unzähligen Analysezyklen dann ausreichend robust und auch gesichert ist.

"Die Diskussion um Handhabung und Kontrolle steht erst am Anfang."

Basis für dieses neue, bessere Vorgehen sind riesige Datenbestände mit einer mittleren zweistelligen Milliarden-Zahl von Parametern, bei denen die einzelnen Daten aber nicht mehr, wie bis anhin, einzeln von Hand gelabelt und seriell verarbeitet werden. Dieses Vorgehen, das zuerst für Texte angewandt wurde, nutzt man zunehmend auch für Bilder, Videos und auch die Analyse chemischer Moleküle.

Parallel dazu steigert man die Rechenleistung der neuen, seit 2020 verfügbaren OpenAI-Applikation GPT-3. Über eine Schnittstelle und das «Copilot»-Programm auf der Entwicklerplattform Github können Entwicklerinnen und Entwickler eigene offene Anwendungen auf der Basis dieser «Foundation»-Modelle testen.

Abgerechnet wird hier je nach Grösse des Input, des Output und der erforderlichen Qualität. Die Beträge sind erschwinglich, solange nicht Computercodes mit Millionen von Zeilen hochgeladen wird. Denn Startups und akademische Einrichtungen könnten solche Systeme für Foun-dation-Modelle nicht mehr selbstständig in ihren eigenen Labors entwickeln – dafür sind sie viel zu gross und zu komplex. Startups docken stattdessen heute über die Schnittstellen an und entwickeln so neue Anwendungen. Die Unternehmen beziehungsweise Organisationen, die solche Schnittstellen bereitstellen, sehen umgekehrt als Erste vielversprechende neue Anwendungen.

Technologie weiter als die Gesellschaft

Erste kommerziell interessante Anwendung war das automatisierte Schreiben von Computerprogrammen – Menschen machen hier (noch) viel zu viele Fehler. Und es geht Schlag auf Schlag weiter.

Im April dieses Jahres stellte Alphabet/Google sein «Palm»-System vor; die Google-Tochter Deepmind doppelte mit «Gato» nach, das bereits Witze erklären kann.

Microsoft arbeitet mit einem eigenen System. Und bei Meta, dem Facebook-Mutterunternehmen, will man Körperbewegungen von Menschen «verstehen».

Inzwischen zeichnet sich auch ab, wie mächtig diese Neuentwicklungen sind – und wo die Grenzen liegen. Im Gegensatz zu traditionellen KI-Deep-Learning-Vorgehensweisen verbessern hier zusätzliche Daten die Qualität der Modelle überproportional.

«Generative KI»

Auch hier zeigen sich allerdings Probleme, die sich aufgrund von Unwuchten in Trainingsdaten ergeben können. Foundation-Modelle und Ergebnisse müssen gemäss Gartner nicht nur ständig hinsichtlich ihrer Zugangsbarrieren sowie ethischer Kriterien («Responsible AI») überprüft werden.

Denn zum ersten Mal stellt sich hier eine ganz neue Frage: Wenn die neuen Modelle selbstständig neuen, deutlich überlegenen Computercode erzeugen können, ist es nur ein kleiner Schritt bis zur «Generativen KI»: Hierbei programmieren KI-Systeme ihre verbesserten Nachfolger. Die Diskussionen um die Handhabung und Kontrolle stehen erst am Anfang – zumal nicht nur Sprach-Interaktionssysteme, sondern auch Deep Fakes qualitativ deutlich besser werden.

Und die nächsten Schritte zeichnen sich ebenfalls schon ab – allerdings dann bei der Hardware: Quantencomputer werden in den kommenden Jahren nach und nach mit realen Rechenaufgaben beschäftigt sein. Bei den Treibern der KI – schnellere Prozessoren, grössere Datenmengen und bessere Machine-Learning-Verfahren – zeichnen sich keine Veränderungen ab.

Dieser Artikel ist unter dem Titel «Parallel statt seriell» erstmals erschienen in der «Handelszeitung» vom 25.08.2022.