Schon seit seiner breiten Verfügbarkeit im November 2022 hat das KI-basierte Dialogsystem Chat GPT von Open AI wiederholt Schlagzeilen gemacht – positive und negative. Zwar wurde die Sprachsoftware mit Schutzmechanismen versehen. Trotzdem liefert sie immer wieder Fehlinformationen, diskriminierende oder schablonenhafte Antworten. Nur weil maschinell lernende Anwendungen menschliche Fähigkeiten oft weit übertreffen, bedeutet das nicht, dass sie unfehlbar sind.

Partner-Inhalte
 
 
 
 
 
 

Das ist weder in deren begrenztem technologischen Potenzial noch in vermeintlich propagandistischen Absichten des Open-AI-Forschungsteams begründet. Vielmehr befindet sich Chat GPT derzeit in einer frühen Entwicklungsphase. In ihr treffen die enorm hohen Erwartungen der Nutzenden und die Grenzen der Technologie aufeinander – mit öffentlichkeitswirksamen Konsequenzen. Die Erkennungsrate und damit der Mehrwert von KI-Sprachsoftware hängt wesentlich von der Anzahl und Qualität der Trainingsdaten und -vorgänge ab.

Der Autor

Ralf Hofstetter, Director Digital Assurance, PwC Schweiz, Zürich.

Regulation hinkt hinterher

Fehler oder Qualitätsmängel in diesen Daten und unvermeidbare Generalisierungen können auf das Entscheidungsverhalten der Anwendung durchschlagen und sie fehlerhafte Schlussfolgerungen ziehen lassen. Mit anderen Worten: Maschinell lernende KI ist immer nur so gut wie die Daten, mit denen sie trainiert wurde und wird. Chat GPT greift auf einen Datenfundus ab 2011 zurück. Das sind also «nur» elf Jahre Wissen und Erfahrung in Datenform.

Digitalethische Lösungen sind weder schwarz noch weiss, sondern eine Balance.

 

Es ist nachvollziehbar, dass der Ruf nach klaren Regeln für die Umsetzung von KI immer lauter wird. Hier tut sich derzeit einiges. Mit Gesetzen wie der EU-Datenschutz-Grundverordnung (DSGVO) oder dem revidierten Schweizer Datenschutzgesetz (nDSG) haben gesetzgebende Instanzen bereits ins digitale Marktgeschehen eingegriffen. Weitere staatliche und private Initiativen sowie diverse Prüfsiegel für KI-Anwendungen sind in Arbeit. Mit dem «Proposal for a regulation laying down harmonised rules on artificial intelligence» will die Europäische Union das Vertrauen in KI stärken. Und mit Algo.Rules können Entwicklerinnen und Entwickler auf eine praxisnahe Orientierungshilfe zurückgreifen.

Trotz (selbst-)regulierender Initiativen bleiben die Unternehmen in der Pflicht. Denn wer digitale Wertschöpfung betreibt, muss sicherstellen, dass sie gemeinwohlverträglich ist. Allerdings ziehen Wirtschaftlichkeit und Ethik häufig Spannungsfelder auf. Zum Beispiel kann die Achtung der Privatsphäre im Umgang mit Personendaten den betriebswirtschaftlichen Erfolg schmälern. Automatisierte Rekrutierungsprozesse können die Diversität der Belegschaft beeinträchtigen. Oder aber der Einsatz eines Chatbots kann zu Enttäuschungen führen, weil Kundinnen und Kunden lieber persönlich mit Menschen interagieren.

Digitalethische Lösungen sind weder schwarz noch weiss, sondern eine fragile Balance zwischen betriebswirtschaftlicher Wertschöpfung und verantwortungsbewusstem Unternehmertum. Um diese Balance zu wahren, müssen die Unternehmen ihr Handeln an digitalethischen Werten ausrichten und einen hauseigenen Wertekodex ausarbeiten. Nur so stellen sie ihre technologische Innovationskraft in den Dienst der Menschen und verpflichten sich dazu, Technologien und Daten sicher, souverän, nachvollziehbar und verantwortungsbewusst zu nutzen.

Eine digitalethische Strategie geht aus der Vision des Unternehmens hervor. Sie basiert auf der Geschäftsstrategie und den unternehmerischen Kernwerten, allen voran der Integrität. Mit einer derart integrierten Strategie kann das Unternehmen sicherstellen, dass Menschen, Prozesse, Produkte und Technologien in jeder Zyklusphase innerhalb der Grenzen seiner Digitalethik liegen. Ein modulares Rahmenwerk erleichtert den Strategieprozess (siehe Abbildung unten), da sich die Verantwortungsbereiche dem firmenspezifischen Kontext anpassen lassen.

Grafik Digitalethik
Quelle: Handelszeitung

Digitale Ethik prüfen

KI-Anwendungen sind als Produkte zwar nicht haftbar, unterliegen aber dennoch einer Rechenschaftspflicht. Deshalb ist es wichtig, dass unternehmenseigene Leitlinien zur Digitalethik jederzeit einer Überprüfung standhalten.

Hier kommt die Prüfung ins Spiel. Ein Prüfteam kann zum einen die Governance des Unternehmens prüfen und sicherstellen, dass prozessuale und technologische Prozesse den definierten Ethikgrundsätzen entsprechen, richtig umgesetzt und nachvollziehbar offengelegt werden. Zum andern kann das Prüfteam  mit einer entwicklungsbegleitenden Prüfung das ethische Strategiefit eines innovativen digitalen Produkts gewährleisten. Schliesslich können die Prüfenden algorithmisierte Entscheidungen überwachen und so deren Fehleranfälligkeit kontrollieren.

Die ethische Vertrauenswürdigkeit selbstlernender KI beginnt mit deren Entwicklung und dem datenbasierten Training. Umso entscheidender ist es, dass ein Unternehmen davor digitale Ethikgrundsätze niederschreibt und seinem Innovationsprozess zugrunde legt. Mit der glaubhaften und von einem Prüfteam bestätigten Bindung an digitalethische Richtlinien hilft ein Unternehmen mit, die digitale Transformation verantwortungsvoll und gemeinwohlverträglich zu gestalten. Es beugt auch Reputationsschäden vor und trägt zudem wesentlich zum nachhaltigen Vertrauen seiner Anspruchsgruppen und der Gesellschaft in wertschöpfende Innovationen wie Chat GPT bei.