Darum gehts
  • Stimmerkennung allein ist kein Identifikationsmerkmal mehr.
  • Die Nutzerinnen und Nutzer sollten sich der Grenzen von Chat GPT bewusst sein.
  • Ein Werkzeug zu benutzen, ohne zu verstehen, wie es funktioniert, stellt eine Gefahr dar.

Mit dem Aufkommen von Apps zur Generierung von Texten, Bildern, Videos und Tönen ist künstliche Intelligenz (KI) für alle interessant geworden, was aber auch neue Gefahren mit sich bringt. Ist den Menschen bewusst, dass KI ihnen zwar beim Schreiben von E-Mails helfen kann, aber dass Hackerinnen und Hacker ebenfalls davon profitieren?

Partner-Inhalte
 
 
 
 
 
 
Zum Autor

Dominique Climenti ist Security Architect und Trainer bei Kyos in Genf.

Phishings sind nicht mehr so leicht zu erkennen: Vor der Verbreitung von KI waren Phinshingmails oft voller Rechtschreibfehler, in Zukunft werden sie in jeder Sprache fehlerfrei geschrieben sein – und auch gesprochen, denn die KI ist auch in der Lage, die Stimme bekannter Persönlichkeiten nachzuahmen. Eine Nachricht auf der Mailbox des Buchhalters mit der Stimme der Generaldirektorin zu hinterlassen, der eine sofortige Überweisung anordnet, stellt eine echte Gefahr dar, insbesondere wenn der Buchhalter die Stimme als authentisch einstuft.

Über Gewohnheiten gut informiert

Solche Angriffe werden akribisch vorbereitet, mit Hackern, die über die Gewohnheiten des anvisierten Unternehmens gut informiert sind. Er findet oft zu einem Zeitpunkt statt, an dem der Manager nicht direkt erreichbar ist, weil er gerade im Flugzeug sitzt. Solche Angriffe können zu äusserst komplizierten Situationen führen. Die Stimme einer Person zu erkennen, ist daher kein Identifikationsmerkmal mehr. In den USA gab es kürzlich eine Kampagne, bei der die Stimme von Joe Biden nachgeahmt wurde, um eine der beiden Seiten dazu zu bringen, nicht zur Wahl zu gehen. Daher ist es von grosser Bedeutung, die Unternehmen für diese neuen Gefahren zu sensibilisieren.

Verlust der Kontrolle über die Daten

Bilder spielen ihrerseits eine wesentliche Rolle bei der Desinformation, da ihr Potenzial enorm ist, wie zuletzt der Papst in einer Daunenjacke. Die Unterscheidung zwischen echten und gefälschten Bildern ist für den Normalbürger, die Normalbürgerin sehr kompliziert, wenn nicht sogar unmöglich. Schon vor der Einführung von KI-Apps haben viele Menschen den Wahrheitsgehalt der Informationen nicht überprüft, bevor sie die Nachricht weiter verbreitet haben. Aber mit den neuen Apps wird die Situation wirklich besorgniserregend. 

Für Unternehmen stellt der Verlust der Kontrolle über die Daten eindeutig die grösste Gefahr dar. Wenn Mitarbeitende Chat GPT für interne Texte oder für Texte an Kundinnen oder Partner nutzen, füttern sie diese KI mit Unternehmensdaten, ohne sich über die möglichen Folgen im Klaren zu sein und ohne sich zu fragen, wo diese Daten landen werden. Wenn aber eine Kundenliste in Chat GPT erfasst wird, besteht die Gefahr, dass sie bei einem Konkurrenten landet. Viele Menschen betrachten Apps wie Chat GPT als einen Roboter, dessen Aufgabe es ist, ihre Fragen zu beantworten. Aber Chat GPT hat nur das Ziel, den wahrscheinlichsten nächsten Satz zu finden. 

Vorsicht vor Fehlinformationen

Ein Werkzeug zu benutzen, ohne wirklich zu verstehen, wie es funktioniert, stellt eine echte Gefahr dar. Die Nutzerinnen und Nutzer sollten sich unbedingt mit den Grenzen von Chat GPT auseinandersetzen und verstehen, was diese KI nicht kann. Sonst ist in etwa so, als würde man jemandem ein Auto anvertrauen, ohne ihm das Fahren beizubringen. Wenn Chat GPT eine falsche, aber glaubwürdig formulierte Antwort gibt, handelt es sich nicht um Desinformation, sondern um Fehlinformation. Sind die Empfängerinnen überzeugt von der Antwort, werden sie die Ergebnisse nicht validieren und die falsche Information unverändert weitergeben, was eine zusätzliche Gefahr darstellt.

Unerlässliche Ausbildung

Daraus folgt, dass man vor dem Einsatz von KI eine Ausbildung absolvieren sollte. Wenn eine Person ihr Thema beherrscht, sich aber nicht die Zeit nehmen möchte, den Text zu schreiben, dann kann die KI hilfreich sein. Sie verfügt über einen kleinen Assistenten, der den Artikel schreiben und anschliessend korrigieren kann. Die Gefahr besteht jedoch darin, sich mit einem Thema zu beschäftigen, von dem man absolut nichts weiss, und dann zu glauben, dass man mit Chat GPT die Wahrheit erfahren wird. 

Positive und negative Aspekte

Tatsächlich ist die KI niemals die Lösung, sondern ein Tool, das dabei hilft, Texte zu erstellen. Mit Chat GPT ein Thema zu recherchieren oder zu untersuchen, bevor man einen Text schreibt, ist gefährlich. Wenn jemand hingegen weiss, was er ausdrücken will, aber seinen Text noch nicht geschrieben hat, beweist Chat GPT seine Nützlichkeit. Denn auch wenn viele Anwendungen von KI problematisch sind und gesetzlich geregelt werden müssen, ist nicht alles negativ – KI ist auch ein grossartiges Tool, um Texte schneller zu verfassen oder sie mit einer Grafik zu veranschaulichen. KI-Anwendungen haben, wie alles andere auch, positive und negative Aspekte. Alles hängt davon ab, ob derjenige, der sie nutzt, die Regeln für ihre Nutzung beherrscht.

HZ Insurance-Newsletter DAILY
Das werktägliche Newsupdate für Insurance-Professionals. Zur Tagesmitte erfahren Sie im «DAILY», was die nationale und internationale Versicherungswelt bewegt und worüber gerade gesprochen wird.
HZ Insurance-Newsletter DAILY