Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Google unterschreibt EU AI Code of Practice – mit einer klaren Warnung

Von Oliver Welling
KINEWS24.de - Google unterschreibt EU AI Code of Practice

Google hat am 30. Juli 2025 seine Unterschrift unter den EU AI Code of Practice gesetzt, einen freiwilligen Verhaltenskodex für Anbieter von KI-Basismodellen. Dieser Schritt signalisiert Kooperationsbereitschaft mit den europäischen Institutionen. Doch hinter der Zustimmung verbirgt sich eine deutliche Botschaft: Der zugrundeliegende AI Act könnte in seiner jetzigen Form die Innovationskraft und Wettbewerbsfähigkeit Europas ernsthaft gefährden.

Der Tech-Riese tritt damit einem Kreis von Unternehmen bei, die sich zu mehr Transparenz und Sicherheit bei der Entwicklung von KI-Modellen verpflichten. Kent Walker, President of Global Affairs bei Google, betonte die Hoffnung, dass der Kodex den Zugang zu erstklassigen und sicheren KI-Werkzeugen für europäische Bürger und Unternehmen fördern werde. Schließlich steht ein enormes Wirtschaftswachstum auf dem Spiel: Laut Prognosen könnte die EU-Wirtschaft durch KI bis 2034 jährlich um bis zu 1,4 Billionen Euro wachsen. Gleichzeitig lässt Googles Statement keinen Zweifel daran, dass man den Weg dorthin durch die aktuelle Regulierung als steinig und riskant ansieht.

Der EU AI Act ist auch in Europa umstritten.

Das Wichtigste in Kürze – Googles Position zum EU AI Kodex

  • Zustimmung: Google unterzeichnet den freiwilligen EU AI Code of Practice und signalisiert damit Kooperationsbereitschaft.
  • Warnung: Gleichzeitig äußert das Unternehmen ernsthafte Bedenken, dass der übergeordnete AI Act die KI-Entwicklung in Europa verlangsamen könnte.
  • Kernrisiken: Als größte Gefahren nennt Google unklare Urheberrechtsregeln, langsame Genehmigungsverfahren und die Offenlegung von Geschäftsgeheimnissen.
  • Forderung: Google appelliert an das neu geschaffene EU AI Office, den Kodex verhältnismäßig und innovationsfreundlich umzusetzen.
  • Wirtschaftsfaktor: Ein enormes Potenzial von 1,4 Billionen Euro jährlichem Wirtschaftswachstum für Europa steht auf dem Spiel und erfordert eine schnelle KI-Adaption.

Ein Ja mit Vorbehalten: Googles strategischer Schritt

Googles Entscheidung ist ein klassischer Akt der Unternehmensdiplomatie. Einerseits will man als konstruktiver Partner der EU wahrgenommen werden und den Dialog mit dem neu gegründeten AI Office aktiv mitgestalten. Eine Verweigerungshaltung wäre hier kontraproduktiv. Andererseits nutzt Google die Bühne, um unmissverständlich auf die aus seiner Sicht kritischen Punkte im AI Act hinzuweisen. Die Botschaft lautet: Wir spielen nach euren Regeln, aber wir warnen euch eindringlich, dass diese Regeln dem Standort Europa schaden könnten. Dieser „kooperative Protest“ zielt darauf ab, in den kommenden entscheidenden Phasen der Ausgestaltung des AI Acts noch Einfluss auf eine innovationsfreundlichere Umsetzung zu nehmen.

Was ist der EU AI Code of Practice eigentlich?

Stell dir den AI Code of Practice als eine Art Vorab-Vereinbarung oder „Gentlemen’s Agreement“ vor. Er wurde von der Europäischen Kommission ins Leben gerufen, um die Zeit zu überbrücken, bis der weitaus umfassendere und rechtlich bindende EU AI Act vollständig in Kraft tritt. Der Kodex richtet sich speziell an Entwickler von leistungsstarken KI-Basismodellen (General Purpose AI Models), wie sie hinter Anwendungen wie ChatGPT oder Googles Gemini stehen.

Die Unterzeichner verpflichten sich freiwillig zu einer Reihe von Maßnahmen, darunter:

  • Entwicklung und Veröffentlichung von Methoden zur Risikobewertung.
  • Transparente Berichterstattung über die Fähigkeiten und Grenzen ihrer Modelle.
  • Kennzeichnung von KI-generierten Inhalten (z. B. Deepfakes).
  • Fokus auf Cybersicherheit und den Schutz vor Missbrauch der Technologie.

Das Ziel ist es, frühzeitig Standards für Verantwortung und Sicherheit zu etablieren, ohne auf die langwierigen legislativen Prozesse des AI Acts warten zu müssen.

Der entscheidende Unterschied: Code of Practice vs. AI Act

Für viele sind die Begriffe „AI Act“ und „AI Code of Practice“ schwer zu unterscheiden. Dabei ist der Unterschied fundamental. Die folgende Tabelle hilft dir, den Überblick zu behalten:

MerkmalEU AI Code of PracticeEU AI Act
RechtsstatusFreiwillige SelbstverpflichtungGesetzlich bindende Verordnung
ZielgruppePrimär Entwickler von KI-BasismodellenAlle Anbieter & Nutzer von KI-Systemen in der EU
FokusSofortige Maßnahmen für Transparenz & SicherheitUmfassende, risikobasierte Regulierung des gesamten KI-Lebenszyklus
InkrafttretenSofort nach Unterzeichnung (2025)Gestaffelt, vollständige Geltung erst ab 2026/2027
SanktionenKeine direkten rechtlichen StrafenHohe Bußgelder bei Verstößen

Der Kodex ist also ein schneller, flexibler Vorläufer, während der AI Act das schwere, rechtliche Geschütz ist, das später in Stellung gebracht wird. Googles Sorgen beziehen sich vor allem auf die harte, unumkehrbare Gesetzgebung des AI Acts.

Googles Kernsorgen: Die drei großen Bremsklötze für KI in Europa

In seinem Statement benennt Kent Walker drei konkrete Risiken, die aus Googles Sicht die KI-Entwicklung in Europa lähmen könnten. Diese Kritikpunkte sind das Herzstück der Warnung an die EU.

1. Gefahr für Geschäftsgeheimnisse

KI-Modelle sind das Ergebnis von Milliardeninvestitionen in Forschung, Daten und Rechenleistung. Ihr innerer Aufbau, die Trainingsdaten und die spezifischen Architekturen sind wertvollste Geschäftsgeheimnisse. Google befürchtet, dass die Transparenzanforderungen des AI Acts zu weit gehen und Unternehmen zwingen könnten, ihren „geheimen Code“ offenzulegen. Dies würde nicht nur den Wettbewerbsvorteil zunichtemachen, sondern auch Nachahmern Tür und Tor öffnen.

2. Schleppende Genehmigungen

Der AI Act sieht vor, dass bestimmte Hochrisiko-KI-Systeme strenge Konformitätsbewertungen durchlaufen müssen, bevor sie auf den Markt kommen. Google und andere Kritiker warnen davor, dass diese Prozesse zu bürokratisch und langsam sein könnten. In einer Branche, in der Entwicklungszyklen in Monaten, nicht Jahren gemessen werden, könnten langwierige Genehmigungsverfahren dazu führen, dass europäische Unternehmen den Anschluss an die globale Konkurrenz aus den USA und China verlieren.

3. Unklarheiten im Urheberrecht

Dies ist vielleicht der heikelste Punkt. KI-Modelle werden mit riesigen Datenmengen aus dem Internet trainiert, die auch urheberrechtlich geschütztes Material umfassen. Der AI Act verlangt von den Entwicklern, detaillierte Zusammenfassungen der verwendeten Trainingsdaten zu veröffentlichen. Google sieht hier eine Abweichung vom etablierten EU-Urheberrecht. Wie Kent Walker andeutet, könnten diese Anforderungen „die Entwicklung und den Einsatz von Modellen in Europa beeinträchtigen“. Die Sorge ist, dass dies zu einer Welle von Rechtsstreitigkeiten führen und die rechtliche Grundlage für das Training zukünftiger Modelle untergraben könnte.


So navigierst du sicher durch den KI-Regulierungs-Dschungel

Die zunehmende Regulierung mag komplex erscheinen, aber sie schafft auch einen klareren Rahmen. Egal ob du Entwickler, Unternehmer oder Anwender bist, diese Schritte helfen dir, vorbereitet zu sein:

  1. Informiert bleiben: Verfolge aktiv die Entwicklungen rund um den AI Act und branchenspezifische Kodizes. Verlässliche Quellen wie KINEWS24, aber auch die offiziellen Seiten der EU-Kommission sind hier essenziell.
  2. Risiko-Check für deine Tools: Nutzt du KI in deinem Unternehmen? Beginne damit, zu bewerten, ob deine Anwendungen unter eine der Risikokategorien des AI Acts fallen könnten (z.B. im Personalwesen, bei der Kreditvergabe).
  3. Transparenz als Prinzip: Beginne schon jetzt damit, den Einsatz von KI in deinen Prozessen transparent zu machen. Wenn du KI zur Content-Erstellung nutzt, kennzeichne dies. Dies schafft Vertrauen bei deinen Kunden und bereitet dich auf zukünftige Pflichten vor.
  4. Fokus auf europäische Anbieter: Achte bei der Auswahl von KI-Tools darauf, ob die Anbieter sich bereits jetzt zu den europäischen Werten und kommenden Regulierungen bekennen. Anbieter, die den Code of Practice unterzeichnen, sind hier ein gutes Signal.

Ein Blick in die Zukunft: Der Dialog mit dem AI Office

Mit der Unterzeichnung des Kodex hat Google den Ball an das EU AI Office zurückgespielt. Die kommenden Monate werden entscheidend sein. Google hat sich verpflichtet, „eine aktive Stimme zur Unterstützung eines innovationsfreundlichen Ansatzes“ zu sein. Es wird sich zeigen, ob das AI Office die Bedenken der Industrie aufgreift und die Ausführungsbestimmungen zum AI Act so gestaltet, dass Sicherheit und Innovation Hand in Hand gehen können. Das erklärte Ziel muss es sein, Europa zu einem führenden, sicheren und gleichzeitig dynamischen KI-Standort zu machen, um das wirtschaftliche Potenzial von 1,4 Billionen Euro nicht zu verspielen.

Häufig gestellte Fragen – EU AI Code of Practice

Was ist der EU AI Act genau? Der EU AI Act ist das erste umfassende KI-Gesetz der Welt. Es ist eine rechtlich bindende Verordnung, die den Einsatz von KI in der Europäischen Union regelt. Der Ansatz ist risikobasiert: Je höher das potenzielle Risiko einer KI-Anwendung für Menschen, desto strenger sind die Auflagen für ihre Entwickler und Nutzer.

Warum gibt es einen „Code of Practice“ vor dem AI Act? Der Code of Practice ist eine freiwillige Übergangslösung. Da die vollständige Umsetzung des AI Acts bis 2026/2027 dauert, soll der Kodex schon jetzt für mehr Verantwortung und Sicherheit bei den besonders leistungsfähigen KI-Basismodellen sorgen und erste Standards etablieren, ohne auf das Inkrafttreten des Gesetzes warten zu müssen.

Welche konkreten Sorgen hat Google beim AI Act? Google befürchtet hauptsächlich drei Dinge: 1. Dass strenge Transparenzpflichten zur Offenlegung wertvoller Geschäftsgeheimnisse führen. 2. Dass langsame, bürokratische Genehmigungsverfahren für neue KI-Systeme die Innovation bremsen. 3. Dass neue Pflichten im Urheberrecht die Rechtsgrundlage für das Training von KI-Modellen gefährden.

Profitieren europäische Unternehmen von dem Kodex? Ja, auf mehreren Ebenen. Der Kodex fördert Vertrauen in KI-Technologie „Made in Europe“ oder für Europa. Er gibt Unternehmen, die KI nutzen, eine bessere Grundlage, um die Sicherheit und Vertrauenswürdigkeit der von ihnen eingesetzten Modelle zu bewerten. Langfristig soll ein klarer Rahmen die Rechtssicherheit erhöhen und Investitionen fördern.

Fazit: Ein notwendiger Dialog auf Messers Schneide

Googles Entscheidung, den EU AI Code of Practice zu unterzeichnen, ist weit mehr als eine formale Zustimmung. Es ist ein strategisch kluger Schachzug, der Kooperation signalisiert, aber gleichzeitig als unüberhörbare Warnung vor den potenziellen Fallstricken des kommenden AI Acts dient. Das Unternehmen positioniert sich als kritischer Partner, der die Ziele der EU – Sicherheit und Vertrauen in KI – teilt, aber einen anderen, innovationsfreundlicheren Weg dorthin für notwendig hält.

Die Kernbotschaft an Brüssel ist klar: Ohne eine proportionale und flexible Auslegung der Regeln droht Europa im globalen KI-Wettlauf zurückzufallen. Die drei Hauptsorgen – Schutz von Geschäftsgeheimnissen, effiziente Genehmigungen und ein klares Urheberrecht – sind die zentralen Stellschrauben, an denen sich der Erfolg oder Misserfolg des europäischen KI-Weges entscheiden wird. Das Potenzial von 1,4 Billionen Euro zusätzlichem Wirtschaftswachstum ist ein mächtiges Argument, das die Dringlichkeit unterstreicht.

Für Unternehmen und Entwickler in Europa beginnt nun eine entscheidende Phase der Vorbereitung. Der Dialog zwischen der Tech-Industrie, angeführt von Playern wie Google, und dem neuen EU AI Office wird die KI-Landschaft für die nächste Dekade prägen. Der Ausgang ist offen, doch die jetzige Entwicklung zeigt: Der Weg zu einer regulierten KI-Welt ist unumkehrbar, aber der genaue Verlauf ist noch verhandelbar. Es liegt an beiden Seiten, einen Kompromiss zu finden, der Sicherheit garantiert, ohne Innovation zu ersticken.

www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.

Quellen

#AICodeOfPractice #EUAIAct #Google #KIRegulierung #KünstlicheIntelligenz #AI #Innovation #EUPolitik

Ähnliche Beiträge

Business

Persönliche Superintelligenz: Marc Zuckerbergs Vision – Befreiung oder totale Kontrolle?

Metas neue Vision heißt Persönliche Superintelligenz. Wir analysieren, was hinter Zuckerbergs Plan steckt: Echte Ermächtigung oder totale Kontrolle? Lies jetzt.

Business

Higgsfield Max Challenge: Dein $20.000 Guide zum Sieg im KI-Video-Wettbewerb

Die Higgsfield Max Challenge ist deine Chance auf $20.000 Preisgeld. Erfahre alles über den globalen KI-Video-Wettbewerb, die prompt-lose Technologie und.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

de_DEGerman