Deloitte EU AI ActDeloitte EU AI Act

Der AI Act der Europäischen Union stellt ein umfassendes Regelwerk zur Regulierung von künstlicher Intelligenz (KI) dar. Deloitte bietet eine detaillierte Analyse und Bewertung der Einzelheiten und Hintergründe dieses Gesetzes. Ziel ist es, die Funktionsweise des europäischen Binnenmarktes zu verbessern und gleichzeitig hohe Standards für Sicherheit und Grundrechte zu gewährleisten.

Der AI Act zielt darauf ab, menschenzentrierte und vertrauenswürdige KI zu fördern, während gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte gewährleistet wird. Das Gesetz soll die europäischen Verbraucher vor möglichen schädlichen Auswirkungen von KI-Systemen schützen. Anbieter von als hochriskant eingestuften KI-Systemen müssen zahlreiche Anforderungen im Sinne der Grundsätze vertrauenswürdiger KI erfüllen und nachweisen. Für Verstöße drohen empfindliche Geldstrafen und die Möglichkeit, KI-Systeme vom Markt zu nehmen.

Das musst Du wissen – Deloitte über den EU AI Act

  • Verabschiedung: Das EU-Parlament hat dem AI Act am 13. März 2024 zugestimmt.
  • Inkrafttreten: Das Gesetz tritt voraussichtlich im August 2024 in Kraft.
  • Anwendungsbereich: Gilt für alle Anbieter von KI-Systemen auf dem europäischen Markt.
  • Kategorisierung: Unterscheidung zwischen herkömmlichen KI-Systemen und General Purpose AI (GPAI).
  • Strafen: Empfindliche Geldstrafen bei Verstößen, bis zu 35 Mio. EUR oder 7 Prozent des Jahresumsatzes.

Der AI Act definiert KI-Systeme als maschinenbasierte Systeme, die mit unterschiedlichem Grad an Autonomie arbeiten und durch maschinelles Lernen oder logikbasierte Ansätze Schlussfolgerungen ziehen können. Diese Systeme können physische oder virtuelle Umgebungen beeinflussen. Ausgenommen sind einfache herkömmliche Softwaresysteme oder Programmieransätze, die ausschließlich auf festgelegten Regeln beruhen.

Das Gesetz betrifft alle Anbieter von KI-Systemen, die auf dem europäischen Markt angeboten werden, einschließlich Entwickler, Importeure, Händler und Betreiber. Ausgenommen sind KI-Systeme, die ausschließlich militärischen oder verteidigungspolitischen Zwecken dienen oder nur für Forschung und Innovation verwendet werden, sowie Open-Source-Modelle.

Der AI Act verfolgt einen risikobasierten Ansatz und unterscheidet zwischen herkömmlichen KI-Systemen und General Purpose AI (GPAI). Hochrisiko-KI-Systeme, wie solche in kritischen Infrastrukturen oder im Bildungsbereich, unterliegen strengen Vorschriften. Anbieter müssen ein Risikomanagementsystem einführen, eine Konformitätsbewertung durchführen und regelmäßige Audits durchführen.

Hochrisiko-KI-Systeme

Anbieter von Hochrisiko-KI-Systemen müssen umfangreiche Maßnahmen ergreifen:

  • Qualität und Integrität der Daten: Die verwendeten Daten müssen von hoher Qualität und frei von Verzerrungen sein.
  • Risikomanagement: Ein kontinuierliches Risikomanagementsystem muss implementiert werden.
  • Konformitätsbewertung: Regelmäßige Bewertungen sind erforderlich, um sicherzustellen, dass die Systeme den Standards entsprechen.
Verbotene KI-Systeme

KI-Systeme, die ein unannehmbares Risiko darstellen, werden innerhalb von sechs Monaten nach der offiziellen Verabschiedung vollständig verboten. Dazu gehören Systeme zur biometrischen Kategorisierung basierend auf sensiblen Merkmalen, Echtzeit-Fernidentifizierungssysteme zur Gesichtserkennung ohne gezielte Suche, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie Social-Scoring-Systeme.

General Purpose AI (GPAI)

GPAI-Systeme werden in zwei Kategorien eingeteilt:

  • Normale GPAI: Müssen zusätzliche Transparenzpflichten erfüllen, einschließlich technischer Dokumentation und Aufstellungen über verwendete Trainingsdaten.
  • GPAI mit erheblichen Auswirkungen: Diese Systeme unterliegen zusätzlichen Pflichten wie der Überwachung schwerwiegender Vorfälle und Modellbewertungen. Die Unterscheidung erfolgt anhand der Rechenleistung, die zum Trainieren des Basismodells benötigt wird.

Transparenz spielt eine zentrale Rolle im AI Act. Anbieter müssen detaillierte technische Dokumentationen führen und sicherstellen, dass ihre Systeme nachvollziehbar und erklärbar sind. Dies soll Vertrauen in die KI-Technologien schaffen und deren Akzeptanz in der Gesellschaft fördern.

Zur Durchsetzung des AI Act wird eine Verwaltungsstruktur auf EU- und nationaler Ebene eingerichtet. Nationale Aufsichtsbehörden überwachen und setzen die Vorschriften durch. Eine zentrale EU-Datenbank wird eingerichtet, in der alle Hochrisiko-KI-Systeme registriert werden müssen.

Das EU AI Office koordiniert die Umsetzung des Gesetzes in allen EU-Mitgliedsstaaten. Ein Ausschuss aus Interessenvertretern gibt Feedback und stellt sicher, dass ein breites Meinungsspektrum vertreten ist. Ein Beratungsforum aus unabhängigen Experten erkennt systemische Risiken und gibt Leitlinien für die Modellklassifizierung.

Die Mitgliedsstaaten müssen nationale Behörden einrichten oder bestimmen, die für die Durchsetzung des Gesetzes verantwortlich sind. Sie überwachen die Durchführung von Konformitätsbewertungen und ernennen notifizierte Stellen für externe Konformitätsbewertungen.

Sanktionen bei Verstößen

Bei Verstößen gegen die Vorschriften des AI Act drohen empfindliche Strafen. Diese können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen. Weitere Sanktionen umfassen:

  • Für verbotene KI-Systeme: Bis zu 35 Mio. EUR oder 7 Prozent des Jahresumsatzes.
  • Für geringfügigere Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes.
  • Fehlerhafte Meldungen: Bis zu 7,5 Mio. EUR oder 1,5 Prozent des Jahresumsatzes.
  • GPAI-Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes.

Der AI Act der Europäischen Union markiert einen bedeutenden Schritt in Richtung sicherer und transparenter KI-Systeme. Durch strenge Regulierungen und hohe Strafen bei Verstößen soll das Gesetz nicht nur die Sicherheit und Rechte der Bürger schützen, sondern auch Innovationen im Bereich der künstlichen Intelligenz fördern. Die Anforderungen an Datenqualität, Risikomanagement und Transparenz sollen dazu beitragen, Vertrauen in KI-Technologien zu schaffen und deren Akzeptanz in der Gesellschaft zu erhöhen.

#EUAIACT #KünstlicheIntelligenz #Deloitte #Regulierung #Technologie #Innovation

Quellenangabe