Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

OpenAI versprach Sicherheit und versagt beim ersten Test

BY Oliver Welling

Der bisher nicht gemeldete Vorfall zeigt die Grenzen der Strategie von Präsident Biden auf, um Schäden durch KI zu verhindern. Letzten Sommer versprach das Unternehmen für künstliche Intelligenz OpenAI dem Weißen Haus, neue Versionen seiner bahnbrechenden Technologie rigorosen Sicherheitstests zu unterziehen. Ziel war es, sicherzustellen, dass die KI keinen Schaden anrichtet – wie z. B. Benutzerinnen beizubringen, Biowaffen zu bauen oder Hackerinnen bei der Entwicklung neuer Arten von Cyberangriffen zu unterstützen. Doch in diesem Frühjahr fühlten sich einige Mitglieder des Sicherheitsteams von OpenAI unter Druck gesetzt, ein neues Testprotokoll, das katastrophale Schäden durch die Technologie verhindern sollte, zu beschleunigen, um einen von der OpenAI-Führungsetage festgelegten Starttermin im Mai einzuhalten. Dies berichten drei mit der Angelegenheit vertraute Personen, die aus Angst vor Repressalien anonym bleiben wollten. Das musst Du wissen – OpenAI versprach Sicherheit und versagt beim ersten Test Vorwürfe der Fahrlässigkeit: OpenAI wird vorgeworfen, Sicherheitsprotokolle zugunsten von kommerziellen Interessen vernachlässigt zu haben. Fehlende Regulierung: Kritiker bemängeln die Abhängigkeit der Regierung von freiwilligen Selbstverpflichtungen der Unternehmen. Interne Spannungen: Ehemalige Mitarbeiter kritisieren den Umgang mit Sicherheitstests und warnen vor den Risiken. Versprechen an das Weiße Haus: OpenAI und andere Unternehmen hatten sich zu rigorosen Sicherheitsprüfungen verpflichtet, die offenbar nicht eingehalten wurden. Öffentliche Reaktionen: Forderungen nach gesetzlicher Regulierung und Transparenz werden laut, um zukünftige Risiken zu minimieren. Noch vor Beginn der Tests mit dem Modell GPT-4 Omni lud OpenAI Mitarbeiter*innen ein, das Produkt, das ChatGPT antreiben sollte, mit einer Party in einem der Büros des Unternehmens in San Francisco zu feiern. „Sie planten die Launch-Party, bevor sie wussten, ob der Launch sicher ist“, sagte eine der Personen, die anonym bleiben wollte, um vertrauliche Unternehmensinformationen zu besprechen. „Wir sind im Grunde genommen am Prozess gescheitert.“ Der bisher nicht gemeldete Vorfall wirft ein Licht auf den Kulturwandel bei OpenAI, wo Unternehmensführer*innen, darunter CEO Sam Altman, beschuldigt wurden, kommerzielle Interessen über die öffentliche Sicherheit zu stellen – eine krasse Abkehr von den Wurzeln des Unternehmens als altruistische Non-Profit-Organisation. Er wirft auch Fragen auf über das Vertrauen der US-Bundesregierung in die Selbstkontrolle von Technologieunternehmen – durch das Versprechen an das Weiße Haus sowie eine im Oktober verabschiedete Durchführungsverordnung zur KI –, um die Öffentlichkeit vor Missbrauch generativer KI zu schützen. Führungskräfte sagen, dass diese das Potenzial hat, praktisch jeden Aspekt der menschlichen Gesellschaft, von der Arbeit bis zum Krieg, neu zu gestalten. Andrew Strait, ein ehemaliger Forscher für Ethik und Politik bei Google DeepMind, jetzt stellvertretender Direktor am Ada Lovelace Institute in London, sagte, es sei von Natur aus riskant, Unternehmen ihre eigenen Sicherheitsstandards festlegen zu lassen. „Wir haben keine aussagekräftigen Zusicherungen, dass interne Richtlinien treu und mit glaubwürdigen Methoden befolgt werden“, sagte Strait. Biden sagte, der Kongress müsse neue Gesetze schaffen, um die Öffentlichkeit vor den Risiken der KI zu schützen. „Präsident Biden hat gegenüber Technologieunternehmen deutlich gemacht, wie wichtig es ist, dass ihre Produkte sicher, geschützt und vertrauenswürdig sind, bevor sie der Öffentlichkeit zugänglich gemacht werden“, sagte Robyn Patterson, eine Sprecherin des Weißen Hauses. „Führende Unternehmen haben freiwillige Verpflichtungen in Bezug auf unabhängige Sicherheitstests und öffentliche Transparenz eingegangen, von denen er erwartet, dass sie eingehalten werden.“ OpenAI ist eines von mehr als einem Dutzend Unternehmen, die sich im vergangenen Jahr freiwillig gegenüber dem Weißen Haus verpflichtet haben, ein Vorläufer der KI-Verordnung. Zu den anderen gehören Anthropic, das Unternehmen hinter dem Chatbot Claude; Nvidia, der 3-Billionen-Dollar-Gigant für Chips; Palantir, das Datenanalyseunternehmen, das mit Militärs und Regierungen zusammenarbeitet; Google DeepMind; und Meta. Die Selbstverpflichtung verpflichtet sie, immer leistungsfähigere KI-Modelle zu schützen; das Weiße Haus sagte, sie bleibe so lange in Kraft, bis eine ähnliche Regelung in Kraft trete. Das neueste Modell von OpenAI, GPT-4o, war die erste große Chance des Unternehmens, den Rahmen anzuwenden, der den Einsatz menschlicher Evaluatorinnen vorsieht, darunter promovierte Fachleute mit einer Ausbildung in Biologie und externe Auditorinnen, wenn die Risiken als ausreichend hoch eingestuft werden. Doch die Testerinnen komprimierten die Bewertungen auf eine einzige Woche, trotz Beschwerden von Mitarbeiterinnen. Obwohl sie davon ausgingen, dass die Technologie die Tests bestehen würde, waren viele Mitarbeiterinnen bestürzt darüber, dass OpenAI sein vielgepriesenes neues Bereitschaftsprotokoll wie eine Nebensache behandelte. Im Juni unterzeichneten mehrere aktuelle und ehemalige OpenAI-Mitarbeiterinnen einen kryptischen offenen Brief, in dem sie forderten, dass KI-Unternehmen ihre Mitarbeiter*innen von Geheimhaltungsvereinbarungen ausnehmen, damit sie die Aufsichtsbehörden und die Öffentlichkeit frei vor Sicherheitsrisiken der Technologie warnen können. Unterdessen trat der ehemalige OpenAI-Manager Jan Leike wenige Tage nach dem Start von GPT-4o zurück und schrieb auf X, dass „die Sicherheitskultur und die Prozesse hinter glänzenden Produkten zurückgetreten sind“. Und der ehemalige OpenAI-Forschungsingenieur William Saunders, der im Februar zurückgetreten war, sagte in einem Podcast-Interview, er habe ein Muster von „überstürzter und nicht sehr solider“ Sicherheitsarbeit „im Dienste der Einhaltung des Versanddatums“ für ein neues Produkt festgestellt. Ein Vertreter des OpenAI-Teams für die Vorbereitung, der unter der Bedingung der Anonymität sprach, um sensible Unternehmensinformationen zu besprechen, sagte, die Bewertungen hätten innerhalb einer einzigen Woche stattgefunden, was für die Durchführung der Tests ausreichend gewesen sei, räumte aber ein, dass der Zeitplan „gedrängt“ gewesen sei. Wir „denken gerade unsere gesamte Vorgehensweise neu“, sagte der Vertreter. „Das [war] einfach nicht der beste Weg, es zu tun.“ In einer Erklärung sagte OpenAI-Sprecherin Lindsey Held, das Unternehmen habe „keine Abstriche bei unserem Sicherheitsprozess gemacht, obwohl wir anerkennen, dass der Start für unsere Teams stressig war“. Um den Verpflichtungen gegenüber dem Weißen Haus nachzukommen, habe das Unternehmen „umfangreiche interne und externe“ Tests durchgeführt und einige Multimedia-Funktionen „zunächst zurückgehalten, um unsere Sicherheitsarbeit fortzusetzen“, fügte sie hinzu. OpenAI kündigte die Bereitschaftsinitiative als Versuch an, wissenschaftliche Strenge in die Erforschung katastrophaler Risiken zu bringen, die das Unternehmen als Vorfälle definierte, „die zu wirtschaftlichen Schäden in Höhe von Hunderten von Milliarden Dollar führen oder zu schweren Verletzungen oder zum Tod vieler Menschen führen könnten“. Der Begriff wurde von einer einflussreichen Fraktion innerhalb des Bereichs der künstlichen Intelligenz populär gemacht, die befürchtet, dass der Versuch, Maschinen zu bauen, die so intelligent sind wie Menschen, die Menschheit entmachten oder zerstören könnte. Viele KI-Forscher*innen argumentieren, dass diese existenziellen Risiken spekulativ sind und von dringenderen Schäden ablenken. „Wir wollen ein neues Hochwasserzeichen für quantitative, evidenzbasierte Arbeit setzen“, postete Altman im Oktober auf X und kündigte das neue Team des Unternehmens an. OpenAI hat im vergangenen Jahr zwei neue Sicherheitsteams ins Leben gerufen, die sich einer seit langem bestehenden Abteilung anschlossen, die sich auf konkrete Schäden wie rassistische Vorurteile oder Fehlinformationen konzentriert. Das im Juli angekündigte Superalignment-Team widmete sich der Verhinderung existenzieller Risiken durch weit fortgeschrittene KI-Systeme. Es wurde inzwischen auf andere Teile des Unternehmens verteilt. Leike und OpenAI-Mitbegründer Ilya Sutskever, ein ehemaliges Vorstandsmitglied, das im November dafür gestimmt hatte, Altman als CEO abzusetzen, bevor er schnell widerrief, leiteten das Team. Beide traten im Mai zurück. Sutskever war seit Altmans Wiedereinsetzung im Unternehmen nicht mehr anwesend, aber OpenAI gab seinen Rücktritt erst am Tag nach dem Start von GPT-4o bekannt. Nach Angaben des OpenAI-Vertreters hatte das Bereitschaftsteam jedoch die volle Unterstützung der Top-Führungskräfte. Als ihm klar wurde, dass der Zeitplan für die Tests von GPT-4o knapp bemessen sein würde, habe er im April mit Unternehmensführern, darunter Chief Technology Officer Mira Murati, gesprochen, und man habe sich auf einen „Plan B“ geeinigt, so der Vertreter. Sollte bei den Bewertungen etwas Alarmierendes herauskommen, würde das Unternehmen eine frühere Version von GPT-4o auf den Markt bringen, die das Team bereits getestet hatte. Einige Wochen vor dem Starttermin begann das Team mit „Trockenübungen“ und plante, „alle Systeme startklar zu haben, sobald wir das Modell haben“, sagte der Vertreter. Sie planten, dass menschliche Evaluator*innen in verschiedenen Städten bereit sein sollten, Tests durchzuführen, ein Prozess, der nach Angaben des Vertreters Hunderttausende von Dollar kostete. Zu den Vorbereitungsarbeiten gehörte auch die Warnung an die OpenAI Safety Advisory Group – ein neu geschaffenes Beratergremium, das eine Risikobewertung erhält und die Unternehmensleitung berät, wenn Änderungen erforderlich sind –, dass sie nur begrenzt Zeit haben würde, die Ergebnisse zu analysieren. OpenAI-Sprecherin Held sagte, das Unternehmen habe sich verpflichtet, dem Prozess in Zukunft mehr Zeit einzuräumen. „Ich glaube definitiv nicht, dass wir uns bei den Tests gedrückt haben“, sagte der Vertreter. Aber der Prozess sei intensiv gewesen, räumte er ein. „Danach haben wir gesagt: ‚Das machen wir nicht noch mal.'“ #OpenAI #KISicherheit #Technologie #Regulierung #Ethik #SamAltman #PräsidentBiden #Technologiepolitik #KIForschung Washington Post Artikel

Ähnliche Beiträge

Grafik

Napkin AI: Automatisierte Textvisualisierung für Unternehmen, Bildung und Content-Erstellung

Napkin AI ist eine innovative Plattform, die Texte automatisiert in visuell ansprechende Grafiken verwandelt. Die einfache Bedienbarkeit und die Anpassungsoptionen.

Science

Safe Reinforcement Learning via Probabilistic Logic Shields

Safe Reinforcement Learning Safe Reinforcement Learning (Safe RL) versucht, Strategien zu entwickeln, die das Sicherheitsrisiko minimieren, ohne dabei die Lernqualität.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish