KI Verpflichtungen - Engagement für verantwortungsvolle KI-Entwicklung mit Fokus auf Sicherheit, Ethik und branchenweite Zusammenarbeit hervorgehoben.KI Verpflichtungen - Engagement für verantwortungsvolle KI-Entwicklung mit Fokus auf Sicherheit, Ethik und branchenweite Zusammenarbeit hervorgehoben.

Unser Engagement für eine mutige und verantwortungsvolle KI, gemeinsam

Wir sind stolz darauf, uns gemeinsam mit anderen führenden KI-Unternehmen dazu zu verpflichten, verantwortungsvolle Praktiken in der Entwicklung der künstlichen Intelligenz voranzutreiben. Heute ist ein Meilenstein, um die Branche zusammenzubringen und sicherzustellen, dass KI jedem hilft. Diese Verpflichtungen unterstützen die Bemühungen von G7, der OECD und nationalen Regierungen, die Vorteile der KI zu maximieren und ihre Risiken zu minimieren.

Seit langem glauben wir, dass Mut bei KI bedeutet, von Anfang an verantwortungsbewusst zu sein. Hier ist mehr dazu, wie wir genau das tun:

Anwendung der KI zur Lösung der größten Herausforderungen der Gesellschaft

Seit mehr als einem Dutzend Jahren arbeiten wir an KI und haben uns 2017 neu orientiert, um ein “KI-first-Unternehmen” zu sein. Heute versorgt KI Google Suche, Translate, Maps und andere Dienste, die du jeden Tag nutzt. Und wir nutzen KI, um gesellschaftliche Probleme zu lösen – Überflutungen vorhersagen, CO2-Emissionen durch die Verringerung von Stop-and-Go-Verkehr reduzieren, die Gesundheitsversorgung verbessern, indem klinische Fragen mit über 90% Genauigkeit beantwortet und bei der Behandlung und Erkennung von Krankheiten wie Brustkrebs geholfen wird.

Förderung sicherer und sicherer KI-Systeme

Es reicht jedoch nicht aus, dass KI bessere Dienstleistungen ermöglicht – wir wollen sie auch nutzen, um diese Dienstleistungen sicher und sicher zu machen. Wir gestalten unsere Produkte so, dass sie standardmäßig sicher sind – und unser Ansatz zur KI ist nicht anders. Kürzlich haben wir unser Secure AI Framework (SAIF) vorgestellt, um Organisationen bei der Sicherung von KI-Systemen zu helfen, und wir haben unsere Bug-Hunter-Programme (einschließlich unseres Vulnerability Rewards Program) erweitert, um die Forschung zur KI-Sicherheit zu fördern.

Aufbau von Vertrauen in KI-Systeme und KI Verpflichtungen

Wir erkennen an, dass die Macht neuer KI-Tools manchmal aktuelle gesellschaftliche Herausforderungen wie Fehlinformationen und unfaire Voreingenommenheit verstärken kann. Deshalb haben wir 2018 einen Satz von KI-Prinzipien veröffentlicht, die unsere Arbeit leiten sollen, und ein Governance-Team eingerichtet, um sie durch ethische Überprüfungen neuer Systeme in die Praxis umzusetzen, Bias zu vermeiden und Datenschutz, Sicherheit und Sicherheit zu berücksichtigen.

Aufbau von verantwortungsvoller KI, gemeinsam

Keiner von uns kann KI alleine richtig machen. Wir freuen uns, uns anderen führenden KI-Unternehmen anzuschließen, um diese Verpflichtungen zu unterstützen, und wir versprechen, weiterhin gemeinsam zu arbeiten, indem wir Informationen und bewährte Praktiken teilen. Gruppen wie die Partnership for AI und ML Commons leiten bereits wichtige Initiativen und wir freuen uns auf zusätzliche Bemühungen, um die verantwortungsvolle Entwicklung neuer generativer KI-Tools zu fördern.
Quelle: GoogleBlog