OpenAI und Google DeepMind verheimlichen GefahrenOpenAI und Google DeepMind verheimlichen Gefahren

Eine Gruppe aktueller und ehemaliger Mitarbeiter führender KI-Unternehmen, darunter OpenAI und Google DeepMind, hat einen Brief veröffentlicht, in dem vor den Gefahren fortschrittlicher KI gewarnt wird. Sie werfen den Unternehmen vor, finanzielle Gewinne über die Aufsicht zu stellen. Der Brief trägt den Titel „Ein Recht auf Warnung vor fortgeschrittener Künstlicher Intelligenz“ und wurde von dreizehn Mitarbeitern unterzeichnet, von denen elf aktuelle oder ehemalige OpenAI-Mitarbeiter sind. Zwei weitere Unterzeichner sind mit Google DeepMind verbunden, und sechs Personen bleiben anonym.

Wichtige Fakten

  • Ein offener Brief von 13 aktuellen und ehemaligen Mitarbeitern von OpenAI und Google DeepMind warnt vor den Gefahren fortschrittlicher KI.
  • Die Unterzeichner kritisieren, dass Unternehmen finanzielle Gewinne über die notwendige Aufsicht stellen.
  • KI-Systeme könnten ohne angemessene Regulierung schwerwiegende Schäden verursachen, einschließlich Manipulation, Desinformation und autonomer Kontrollverlust.
  • Google DeepMind hat bisher keine öffentliche Stellungnahme zum Brief abgegeben.
  • 83% der Amerikaner glauben, dass KI versehentlich zu einer katastrophalen Situation führen könnte.

Die Koalition betont, dass KI-Systeme mächtig genug sind, um ohne richtige Regulierung ernsthaften Schaden anzurichten. Zu den Risiken zählen die Verschärfung bestehender Ungleichheiten, Manipulation, Desinformation und der mögliche Kontrollverlust über autonome KI-Systeme, was im schlimmsten Fall zur Auslöschung der Menschheit führen könnte. Trotz ihrer Bedenken fühlen sich viele Mitarbeiter durch Geheimhaltungsvereinbarungen daran gehindert, ihre Sorgen öffentlich zu äußern.

Eine OpenAI-Sprecherin betonte die Verpflichtung des Unternehmens zur Sicherheit und seine Bereitschaft, sich auf wissenschaftliche Weise mit Risiken auseinanderzusetzen. Google DeepMind hat bisher nicht öffentlich auf den Brief reagiert und auch keine Anfragen für Kommentare beantwortet. Führungskräfte aller drei großen KI-Unternehmen – OpenAI, Google DeepMind und Anthropic – haben in der Vergangenheit über die Risiken der KI gesprochen.

Die Briefautoren stellen vier zentrale Forderungen an fortgeschrittene KI-Unternehmen:

  1. Beendigung von Vereinbarungen, die Mitarbeiter daran hindern, ihren Arbeitgeber bezüglich risikorelevanter Bedenken zu kritisieren.
  2. Schaffung eines anonymen Prozesses, über den Mitarbeiter ihre Bedenken an Vorstandsmitglieder und andere relevante Regulierungsbehörden oder Organisationen weitergeben können.
  3. Unterstützung einer Kultur der offenen Kritik.
  4. Keine Vergeltungsmaßnahmen gegen aktuelle und ehemalige Mitarbeiter, die risikobezogene vertrauliche Informationen nach dem Scheitern anderer Prozesse teilen.

Regierungen weltweit arbeiten daran, KI zu regulieren, hinken jedoch oft hinter dem schnellen Fortschritt der Technologie hinterher. Anfang dieses Jahres verabschiedete die EU die weltweit erste umfassende KI-Gesetzgebung. Internationale Kooperationen wurden durch KI-Sicherheitsgipfel in Großbritannien und Südkorea sowie bei den Vereinten Nationen angestrebt. Im Oktober 2023 unterzeichnete Präsident Joe Biden einen KI-Erlass, der unter anderem von KI-Unternehmen verlangt, ihre Entwicklungs- und Sicherheitstestpläne dem Handelsministerium offenzulegen.

Der offene Brief der Mitarbeiter von OpenAI und Google DeepMind unterstreicht die dringende Notwendigkeit einer umfassenden Regulierung und eines offenen Dialogs über die Risiken fortschrittlicher KI-Systeme. Die Forderungen der Mitarbeiter zielen darauf ab, Transparenz und Verantwortlichkeit in der KI-Entwicklung zu fördern, um potenzielle Gefahren für die Gesellschaft zu minimieren.

#KI #OpenAI #GoogleDeepMind #TechNews #KünstlicheIntelligenz

Time