Der Einsatz von künstlicher Intelligenz (KI) wirft Fragen bezüglich möglicher Diskriminierung, Haftung und vielem mehr auf. Wo stehen wir momentan?
Thomas Zwack: Hier vielleicht zunächst ein sehr einfaches und typisches Beispiel dazu: Auf Basis grosser Datenmengen können Versicherer zum Beispiel Entscheidungen darüber treffen, ob eine Schadenzahlung abgelehnt wird. Es gibt eine Vielzahl von Arten, um KI zu trainieren – etwa durch regelbasierte Modelle oder auch durch Deep Learning. Letztgenanntes lässt eine Entscheidung deutlich schwerer nachvollziehen. Wir haben in diesem Zusammenhang auch eine Vielzahl von Gesprächen mit den Aufsichtsbehörden geführt.
Um was zu bewirken?
Thomas Zwack: Banken und Versicherungen müssen dem Kunden erklären können, warum sie beispielsweise etwas ablehnen. Es muss dafür nachvollziehbare Gründe und keine Diskriminierung geben. Kommt die Entscheidung unter Verwendung eines Deep-Learning-Algorithmus zustande, dann könnte nebenher noch ein klassisches, einfaches und regelbasiertes Modell laufen. Kommt dieses Parallelmodell zur gleichen Entscheidung, kann man die Ablehnung gut erklären. Und: Vielleicht sollte auch noch ein Mensch darüberschauen.

