Google hat am 30. Juli 2025 seine Unterschrift unter den EU AI Code of Practice gesetzt, einen freiwilligen Verhaltenskodex für Anbieter von KI-Basismodellen. Dieser Schritt signalisiert Kooperationsbereitschaft mit den europäischen Institutionen. Doch hinter der Zustimmung verbirgt sich eine deutliche Botschaft: Der zugrundeliegende AI Act könnte in seiner jetzigen Form die Innovationskraft und Wettbewerbsfähigkeit Europas ernsthaft gefährden.
Der Tech-Riese tritt damit einem Kreis von Unternehmen bei, die sich zu mehr Transparenz und Sicherheit bei der Entwicklung von KI-Modellen verpflichten. Kent Walker, President of Global Affairs bei Google, betonte die Hoffnung, dass der Kodex den Zugang zu erstklassigen und sicheren KI-Werkzeugen für europäische Bürger und Unternehmen fördern werde. Schließlich steht ein enormes Wirtschaftswachstum auf dem Spiel: Laut Prognosen könnte die EU-Wirtschaft durch KI bis 2034 jährlich um bis zu 1,4 Billionen Euro wachsen. Gleichzeitig lässt Googles Statement keinen Zweifel daran, dass man den Weg dorthin durch die aktuelle Regulierung als steinig und riskant ansieht.
Der EU AI Act ist auch in Europa umstritten.
Das Wichtigste in Kürze – Googles Position zum EU AI Kodex
- Zustimmung: Google unterzeichnet den freiwilligen EU AI Code of Practice und signalisiert damit Kooperationsbereitschaft.
- Warnung: Gleichzeitig äußert das Unternehmen ernsthafte Bedenken, dass der übergeordnete AI Act die KI-Entwicklung in Europa verlangsamen könnte.
- Kernrisiken: Als größte Gefahren nennt Google unklare Urheberrechtsregeln, langsame Genehmigungsverfahren und die Offenlegung von Geschäftsgeheimnissen.
- Forderung: Google appelliert an das neu geschaffene EU AI Office, den Kodex verhältnismäßig und innovationsfreundlich umzusetzen.
- Wirtschaftsfaktor: Ein enormes Potenzial von 1,4 Billionen Euro jährlichem Wirtschaftswachstum für Europa steht auf dem Spiel und erfordert eine schnelle KI-Adaption.
Ein Ja mit Vorbehalten: Googles strategischer Schritt
Googles Entscheidung ist ein klassischer Akt der Unternehmensdiplomatie. Einerseits will man als konstruktiver Partner der EU wahrgenommen werden und den Dialog mit dem neu gegründeten AI Office aktiv mitgestalten. Eine Verweigerungshaltung wäre hier kontraproduktiv. Andererseits nutzt Google die Bühne, um unmissverständlich auf die aus seiner Sicht kritischen Punkte im AI Act hinzuweisen. Die Botschaft lautet: Wir spielen nach euren Regeln, aber wir warnen euch eindringlich, dass diese Regeln dem Standort Europa schaden könnten. Dieser „kooperative Protest“ zielt darauf ab, in den kommenden entscheidenden Phasen der Ausgestaltung des AI Acts noch Einfluss auf eine innovationsfreundlichere Umsetzung zu nehmen.
Was ist der EU AI Code of Practice eigentlich?
Stell dir den AI Code of Practice als eine Art Vorab-Vereinbarung oder „Gentlemen’s Agreement“ vor. Er wurde von der Europäischen Kommission ins Leben gerufen, um die Zeit zu überbrücken, bis der weitaus umfassendere und rechtlich bindende EU AI Act vollständig in Kraft tritt. Der Kodex richtet sich speziell an Entwickler von leistungsstarken KI-Basismodellen (General Purpose AI Models), wie sie hinter Anwendungen wie ChatGPT oder Googles Gemini stehen.
Die Unterzeichner verpflichten sich freiwillig zu einer Reihe von Maßnahmen, darunter:
- Entwicklung und Veröffentlichung von Methoden zur Risikobewertung.
- Transparente Berichterstattung über die Fähigkeiten und Grenzen ihrer Modelle.
- Kennzeichnung von KI-generierten Inhalten (z. B. Deepfakes).
- Fokus auf Cybersicherheit und den Schutz vor Missbrauch der Technologie.
Das Ziel ist es, frühzeitig Standards für Verantwortung und Sicherheit zu etablieren, ohne auf die langwierigen legislativen Prozesse des AI Acts warten zu müssen.
Der entscheidende Unterschied: Code of Practice vs. AI Act
Für viele sind die Begriffe „AI Act“ und „AI Code of Practice“ schwer zu unterscheiden. Dabei ist der Unterschied fundamental. Die folgende Tabelle hilft dir, den Überblick zu behalten:
Merkmal | EU AI Code of Practice | EU AI Act |
Rechtsstatus | Freiwillige Selbstverpflichtung | Gesetzlich bindende Verordnung |
Zielgruppe | Primär Entwickler von KI-Basismodellen | Alle Anbieter & Nutzer von KI-Systemen in der EU |
Fokus | Sofortige Maßnahmen für Transparenz & Sicherheit | Umfassende, risikobasierte Regulierung des gesamten KI-Lebenszyklus |
Inkrafttreten | Sofort nach Unterzeichnung (2025) | Gestaffelt, vollständige Geltung erst ab 2026/2027 |
Sanktionen | Keine direkten rechtlichen Strafen | Hohe Bußgelder bei Verstößen |
Der Kodex ist also ein schneller, flexibler Vorläufer, während der AI Act das schwere, rechtliche Geschütz ist, das später in Stellung gebracht wird. Googles Sorgen beziehen sich vor allem auf die harte, unumkehrbare Gesetzgebung des AI Acts.
Googles Kernsorgen: Die drei großen Bremsklötze für KI in Europa
In seinem Statement benennt Kent Walker drei konkrete Risiken, die aus Googles Sicht die KI-Entwicklung in Europa lähmen könnten. Diese Kritikpunkte sind das Herzstück der Warnung an die EU.
1. Gefahr für Geschäftsgeheimnisse
KI-Modelle sind das Ergebnis von Milliardeninvestitionen in Forschung, Daten und Rechenleistung. Ihr innerer Aufbau, die Trainingsdaten und die spezifischen Architekturen sind wertvollste Geschäftsgeheimnisse. Google befürchtet, dass die Transparenzanforderungen des AI Acts zu weit gehen und Unternehmen zwingen könnten, ihren „geheimen Code“ offenzulegen. Dies würde nicht nur den Wettbewerbsvorteil zunichtemachen, sondern auch Nachahmern Tür und Tor öffnen.
2. Schleppende Genehmigungen
Der AI Act sieht vor, dass bestimmte Hochrisiko-KI-Systeme strenge Konformitätsbewertungen durchlaufen müssen, bevor sie auf den Markt kommen. Google und andere Kritiker warnen davor, dass diese Prozesse zu bürokratisch und langsam sein könnten. In einer Branche, in der Entwicklungszyklen in Monaten, nicht Jahren gemessen werden, könnten langwierige Genehmigungsverfahren dazu führen, dass europäische Unternehmen den Anschluss an die globale Konkurrenz aus den USA und China verlieren.
3. Unklarheiten im Urheberrecht
Dies ist vielleicht der heikelste Punkt. KI-Modelle werden mit riesigen Datenmengen aus dem Internet trainiert, die auch urheberrechtlich geschütztes Material umfassen. Der AI Act verlangt von den Entwicklern, detaillierte Zusammenfassungen der verwendeten Trainingsdaten zu veröffentlichen. Google sieht hier eine Abweichung vom etablierten EU-Urheberrecht. Wie Kent Walker andeutet, könnten diese Anforderungen „die Entwicklung und den Einsatz von Modellen in Europa beeinträchtigen“. Die Sorge ist, dass dies zu einer Welle von Rechtsstreitigkeiten führen und die rechtliche Grundlage für das Training zukünftiger Modelle untergraben könnte.
So navigierst du sicher durch den KI-Regulierungs-Dschungel
Die zunehmende Regulierung mag komplex erscheinen, aber sie schafft auch einen klareren Rahmen. Egal ob du Entwickler, Unternehmer oder Anwender bist, diese Schritte helfen dir, vorbereitet zu sein:
- Informiert bleiben: Verfolge aktiv die Entwicklungen rund um den AI Act und branchenspezifische Kodizes. Verlässliche Quellen wie KINEWS24, aber auch die offiziellen Seiten der EU-Kommission sind hier essenziell.
- Risiko-Check für deine Tools: Nutzt du KI in deinem Unternehmen? Beginne damit, zu bewerten, ob deine Anwendungen unter eine der Risikokategorien des AI Acts fallen könnten (z.B. im Personalwesen, bei der Kreditvergabe).
- Transparenz als Prinzip: Beginne schon jetzt damit, den Einsatz von KI in deinen Prozessen transparent zu machen. Wenn du KI zur Content-Erstellung nutzt, kennzeichne dies. Dies schafft Vertrauen bei deinen Kunden und bereitet dich auf zukünftige Pflichten vor.
- Fokus auf europäische Anbieter: Achte bei der Auswahl von KI-Tools darauf, ob die Anbieter sich bereits jetzt zu den europäischen Werten und kommenden Regulierungen bekennen. Anbieter, die den Code of Practice unterzeichnen, sind hier ein gutes Signal.
Ein Blick in die Zukunft: Der Dialog mit dem AI Office
Mit der Unterzeichnung des Kodex hat Google den Ball an das EU AI Office zurückgespielt. Die kommenden Monate werden entscheidend sein. Google hat sich verpflichtet, „eine aktive Stimme zur Unterstützung eines innovationsfreundlichen Ansatzes“ zu sein. Es wird sich zeigen, ob das AI Office die Bedenken der Industrie aufgreift und die Ausführungsbestimmungen zum AI Act so gestaltet, dass Sicherheit und Innovation Hand in Hand gehen können. Das erklärte Ziel muss es sein, Europa zu einem führenden, sicheren und gleichzeitig dynamischen KI-Standort zu machen, um das wirtschaftliche Potenzial von 1,4 Billionen Euro nicht zu verspielen.
Häufig gestellte Fragen – EU AI Code of Practice
Was ist der EU AI Act genau? Der EU AI Act ist das erste umfassende KI-Gesetz der Welt. Es ist eine rechtlich bindende Verordnung, die den Einsatz von KI in der Europäischen Union regelt. Der Ansatz ist risikobasiert: Je höher das potenzielle Risiko einer KI-Anwendung für Menschen, desto strenger sind die Auflagen für ihre Entwickler und Nutzer.
Warum gibt es einen „Code of Practice“ vor dem AI Act? Der Code of Practice ist eine freiwillige Übergangslösung. Da die vollständige Umsetzung des AI Acts bis 2026/2027 dauert, soll der Kodex schon jetzt für mehr Verantwortung und Sicherheit bei den besonders leistungsfähigen KI-Basismodellen sorgen und erste Standards etablieren, ohne auf das Inkrafttreten des Gesetzes warten zu müssen.
Welche konkreten Sorgen hat Google beim AI Act? Google befürchtet hauptsächlich drei Dinge: 1. Dass strenge Transparenzpflichten zur Offenlegung wertvoller Geschäftsgeheimnisse führen. 2. Dass langsame, bürokratische Genehmigungsverfahren für neue KI-Systeme die Innovation bremsen. 3. Dass neue Pflichten im Urheberrecht die Rechtsgrundlage für das Training von KI-Modellen gefährden.
Profitieren europäische Unternehmen von dem Kodex? Ja, auf mehreren Ebenen. Der Kodex fördert Vertrauen in KI-Technologie „Made in Europe“ oder für Europa. Er gibt Unternehmen, die KI nutzen, eine bessere Grundlage, um die Sicherheit und Vertrauenswürdigkeit der von ihnen eingesetzten Modelle zu bewerten. Langfristig soll ein klarer Rahmen die Rechtssicherheit erhöhen und Investitionen fördern.
Fazit: Ein notwendiger Dialog auf Messers Schneide
Googles Entscheidung, den EU AI Code of Practice zu unterzeichnen, ist weit mehr als eine formale Zustimmung. Es ist ein strategisch kluger Schachzug, der Kooperation signalisiert, aber gleichzeitig als unüberhörbare Warnung vor den potenziellen Fallstricken des kommenden AI Acts dient. Das Unternehmen positioniert sich als kritischer Partner, der die Ziele der EU – Sicherheit und Vertrauen in KI – teilt, aber einen anderen, innovationsfreundlicheren Weg dorthin für notwendig hält.
Die Kernbotschaft an Brüssel ist klar: Ohne eine proportionale und flexible Auslegung der Regeln droht Europa im globalen KI-Wettlauf zurückzufallen. Die drei Hauptsorgen – Schutz von Geschäftsgeheimnissen, effiziente Genehmigungen und ein klares Urheberrecht – sind die zentralen Stellschrauben, an denen sich der Erfolg oder Misserfolg des europäischen KI-Weges entscheiden wird. Das Potenzial von 1,4 Billionen Euro zusätzlichem Wirtschaftswachstum ist ein mächtiges Argument, das die Dringlichkeit unterstreicht.
Für Unternehmen und Entwickler in Europa beginnt nun eine entscheidende Phase der Vorbereitung. Der Dialog zwischen der Tech-Industrie, angeführt von Playern wie Google, und dem neuen EU AI Office wird die KI-Landschaft für die nächste Dekade prägen. Der Ausgang ist offen, doch die jetzige Entwicklung zeigt: Der Weg zu einer regulierten KI-Welt ist unumkehrbar, aber der genaue Verlauf ist noch verhandelbar. Es liegt an beiden Seiten, einen Kompromiss zu finden, der Sicherheit garantiert, ohne Innovation zu ersticken.
www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.
Quellen
#AICodeOfPractice #EUAIAct #Google #KIRegulierung #KünstlicheIntelligenz #AI #Innovation #EUPolitik