OpenAI enthüllt Geheimoperation: OpenAI, das Unternehmen hinter ChatGPT, hat in den letzten drei Monaten mehrere verdeckte Einflussoperationen gestört, die von Russland, China, Iran und der israelischen Firma STOIC durchgeführt wurden. Diese Operationen nutzten OpenAI’s KI-Modelle, um irreführende Inhalte zu erzeugen.
Keyfacts OpenAI enthüllt Geheimoperation
Verantwortlich: OpenAI
Beteiligte: Israelische Firma STOIC, Russland, China, Iran
Ziele: Erzeugung von irreführenden Inhalten
Plattformen: Soziale Medien, Webseiten
Ergebnis: Geringe Reichweite der gestörten Operationen
OpenAI berichtete, dass diese Operationen Kommentare, Artikel und Social-Media-Profile generierten, um das Publikum zu täuschen. Eine russische Kampagne namens „Bad Grammar“ zielte auf die Ukraine und die USA ab, während die chinesische „Spamouflage“ Operation für die Erstellung von mehrsprachigen Texten genutzt wurde. STOIC wurde identifiziert, Inhalte auf Instagram, Facebook und Twitter zu erstellen.
Trotz der Bemühungen dieser Operationen konnten sie keine bedeutende Publikumsreichweite erzielen. OpenAI betonte die Wichtigkeit der Zusammenarbeit und des Informationsaustauschs zur Aufdeckung solcher Aktivitäten.
Diese Entdeckungen verdeutlichen die Herausforderungen für Technologieunternehmen wie OpenAI im Kampf gegen Desinformationskampagnen, insbesondere angesichts bevorstehender Wahlen weltweit.
#OpenAI #Desinformation #KünstlicheIntelligenz #Cybersecurity #STOIC
Times of Israel: OpenAI says it disrupted