Open AI teilte am Donnerstag in einem Blogeintrag mit, die vereitelten Kampagnen hätten ihren Ursprung in Russland, China, im Iran und bei der israelischen Handelsgesellschaft Stoic gehabt.
Die fraglichen Akteure versuchten demnach, die Sprachmodelle von Open AI für Aufgaben wie die Generierung von Kommentaren, Artikeln, Profilen in Onlinenetzwerken und das Austesten von Codes für Bots und Websites zu nutzen. «Diese Operationen scheinen durch unsere Dienste nicht von deutlich stärkeren Nutzeraktivitäten oder höherer Reichweite profitiert zu haben», erklärte das Unternehmen von Konzernchef Sam Altman.
KI-Firmen wegen Wahlen unter strenger Beobachtung
KI-Firmen wie Open AI stehen angesichts bedeutender Wahlen in diesem Jahr unter strenger Beobachtung. Befürchtet wird, dass Apps wie Chat GPT oder der Bildgenerator Dall-E binnen Sekunden und in grossem Umfang betrügerische Inhalte produzieren können. Länder wie Russland, China und der Iran nutzen gezielt Onlineplattformen zur Desinformation, um Wahlen zu manipulieren.
Zu den durchkreuzten Desinformationsversuchen gehörten laut Open AI «Bad Grammar», eine zuvor unbekannte russische Kampagne, die sich gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Sie nutzte Open-AI-Modelle und -Werkzeuge, um kurze politische Kommentare in Englisch und Russisch auf Telegram zu generieren, wie Open AI mitteilte.
Russische und chinesische Desinformation
Das bekannte russische «Doppelgänger»-Netzwerk nutzte die KI von Open AI, um Kommentare auf Plattformen wie X auf Deutsch, Englisch, Französisch, Italienisch und Polnisch zu erzeugen.
Open AI demontierte zudem die chinesische Desinformationsoperation «Spamouflage», die die Firmenmodelle missbrauchte, um unter anderem Onlinenetzwerke zu durchsuchen und mehrsprachige Texte zu generieren.
Laut Open AI machen es die Zusammenarbeit, der Austausch von Geheimdienstinformationen und in ihre Anwendungen eingebaute Schutzvorrichtungen möglich, Missbrauch zu durchkreuzen.