Freiwillige KI Verpflichtungen von OpenAI und anderen führenden KI-Laboren stärken Sicherheit und Vertrauen in KI-Technologien.Freiwillige KI Verpflichtungen von OpenAI und anderen führenden KI-Laboren stärken Sicherheit und Vertrauen in KI-Technologien.

OpenAI und andere führende KI-Labore gehen freiwillige Verpflichtungen ein, um die Sicherheit, den Schutz und die Vertrauenswürdigkeit der KI-Technologie und ihrer Dienstleistungen zu stärken. Dieser Prozess, der vom Weißen Haus koordiniert wird, ist ein wichtiger Schritt, um eine sinnvolle und effektive KI-Regulierung sowohl in den USA als auch weltweit voranzutreiben.

Weiterentwicklung von KI-Governance-Praktiken

Als Teil ihrer Mission, sichere und nützliche allgemeine künstliche Intelligenz (AGI) zu entwickeln, wollen sie konkrete Governance-Praktiken weiterentwickeln, die speziell auf hochleistungsfähige Grundmodelle zugeschnitten sind, wie sie sie produzieren. Sie investieren weiterhin in Forschung, die die Regulierung informieren kann, wie beispielsweise Techniken zur Bewertung potenziell gefährlicher Fähigkeiten in KI-Modellen.

Anna Makanju, Vizepräsidentin für globale Angelegenheiten, sagte: „Politiker auf der ganzen Welt denken über neue Gesetze für leistungsfähige KI-Systeme nach. Die heutigen Verpflichtungen tragen spezifische und konkrete Praktiken zu dieser laufenden Diskussion bei. Diese Ankündigung ist Teil unserer fortlaufenden Zusammenarbeit mit Regierungen, zivilgesellschaftlichen Organisationen und anderen auf der ganzen Welt, um die KI-Regulierung voranzutreiben.“

Freiwillige KI-Verpflichtungen im Detail

Firmen verpflichten sich freiwillig zur sicheren, sicheren und transparenten Entwicklung und Nutzung der KI-Technologie. Diese Verpflichtungen sind konsistent mit bestehenden Gesetzen und Vorschriften und dienen dazu, ein gesetzliches und politisches Regime für generative KI voranzutreiben. Sie sollen in Kraft bleiben, bis Vorschriften zu den gleichen Themen in Kraft treten. Einzelne Unternehmen können darüber hinaus zusätzliche Verpflichtungen eingehen.

Geltungsbereich der Verpflichtungen

Wenn Verpflichtungen bestimmte Modelle erwähnen, beziehen sie sich nur auf generative Modelle, die insgesamt leistungsfähiger sind als der aktuelle Industriestandard. Das bedeutet Modelle, die insgesamt leistungsfähiger sind als alle derzeit veröffentlichten Modelle, einschließlich GPT-4, Claude 2, PaLM 2, Titan und, im Fall der Bildgenerierung, DALL-E 2.

Sicherheit

  1. Die Unternehmen verpflichten sich zur internen und externen „Red-Teaming“-Prüfung von Modellen oder Systemen, einschließlich Missbrauch, gesellschaftlichen Risiken und Bedenken in Bezug auf die nationale Sicherheit.
  2. Sie arbeiten darauf hin, dass Informationen zwischen Unternehmen und Regierungen bezüglich Vertrauens- und Sicherheitsrisiken, gefährlichen oder aufkommenden Fähigkeiten und Versuchen, Schutzmaßnahmen zu umgehen, geteilt werden.

Sicherheit

  1. Die Unternehmen investieren in Cybersicherheit und Schutzmechanismen gegen Insider-Bedrohungen, um proprietäre und unveröffentlichte Modellgewichte zu schützen.
  2. Sie regen die Entdeckung und Meldung von Problemen und Schwachstellen durch Dritte an.

Vertrauen

  1. Die Unternehmen entwickeln und implementieren Mechanismen, die es Nutzern ermöglichen zu verstehen, ob Audio- oder visuelle Inhalte von KI generiert wurden.
  2. Sie berichten öffentlich über die Fähigkeiten, Einschränkungen und Anwendungsbereiche ihrer Modelle oder Systeme, einschließlich der Diskussion von gesellschaftlichen Risiken.
  3. Sie priorisieren die Forschung zu den gesellschaftlichen Risiken, die von KI-Systemen ausgehen, einschließlich der Vermeidung von schädlichen Vorurteilen und Diskriminierungen und dem Schutz der Privatsphäre.
  4. Sie entwickeln und setzen leistungsfähige KI-Systeme ein, um die größten Herausforderungen der Gesellschaft zu bewältigen.

Quelle: OpenAI Blog