Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Deloitte über den EU AI Act – Das neue KI-Gesetz der Europäischen Union

Von Oliver Welling

Der AI Act der Europäischen Union stellt ein umfassendes Regelwerk zur Regulierung von künstlicher Intelligenz (KI) dar. Deloitte bietet eine detaillierte Analyse und Bewertung der Einzelheiten und Hintergründe dieses Gesetzes. Ziel ist es, die Funktionsweise des europäischen Binnenmarktes zu verbessern und gleichzeitig hohe Standards für Sicherheit und Grundrechte zu gewährleisten.

Der AI Act zielt darauf ab, menschenzentrierte und vertrauenswürdige KI zu fördern, während gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte gewährleistet wird. Das Gesetz soll die europäischen Verbraucher vor möglichen schädlichen Auswirkungen von KI-Systemen schützen. Anbieter von als hochriskant eingestuften KI-Systemen müssen zahlreiche Anforderungen im Sinne der Grundsätze vertrauenswürdiger KI erfüllen und nachweisen. Für Verstöße drohen empfindliche Geldstrafen und die Möglichkeit, KI-Systeme vom Markt zu nehmen.

Das musst Du wissen – Deloitte über den EU AI Act

Verabschiedung: Das EU-Parlament hat dem AI Act am 13. März 2024 zugestimmt.

Inkrafttreten: Das Gesetz tritt voraussichtlich im August 2024 in Kraft.

Anwendungsbereich: Gilt für alle Anbieter von KI-Systemen auf dem europäischen Markt.

Kategorisierung: Unterscheidung zwischen herkömmlichen KI-Systemen und General Purpose AI (GPAI).

Strafen: Empfindliche Geldstrafen bei Verstößen, bis zu 35 Mio. EUR oder 7 Prozent des Jahresumsatzes.

Der AI Act definiert KI-Systeme als maschinenbasierte Systeme, die mit unterschiedlichem Grad an Autonomie arbeiten und durch maschinelles Lernen oder logikbasierte Ansätze Schlussfolgerungen ziehen können. Diese Systeme können physische oder virtuelle Umgebungen beeinflussen. Ausgenommen sind einfache herkömmliche Softwaresysteme oder Programmieransätze, die ausschließlich auf festgelegten Regeln beruhen.

Das Gesetz betrifft alle Anbieter von KI-Systemen, die auf dem europäischen Markt angeboten werden, einschließlich Entwickler, Importeure, Händler und Betreiber. Ausgenommen sind KI-Systeme, die ausschließlich militärischen oder verteidigungspolitischen Zwecken dienen oder nur für Forschung und Innovation verwendet werden, sowie Open-Source-Modelle.

Der AI Act verfolgt einen risikobasierten Ansatz und unterscheidet zwischen herkömmlichen KI-Systemen und General Purpose AI (GPAI). Hochrisiko-KI-Systeme, wie solche in kritischen Infrastrukturen oder im Bildungsbereich, unterliegen strengen Vorschriften. Anbieter müssen ein Risikomanagementsystem einführen, eine Konformitätsbewertung durchführen und regelmäßige Audits durchführen.

Hochrisiko-KI-Systeme

Anbieter von Hochrisiko-KI-Systemen müssen umfangreiche Maßnahmen ergreifen:

Qualität und Integrität der Daten: Die verwendeten Daten müssen von hoher Qualität und frei von Verzerrungen sein.

Risikomanagement: Ein kontinuierliches Risikomanagementsystem muss implementiert werden.

Konformitätsbewertung: Regelmäßige Bewertungen sind erforderlich, um sicherzustellen, dass die Systeme den Standards entsprechen.

Verbotene KI-Systeme

KI-Systeme, die ein unannehmbares Risiko darstellen, werden innerhalb von sechs Monaten nach der offiziellen Verabschiedung vollständig verboten. Dazu gehören Systeme zur biometrischen Kategorisierung basierend auf sensiblen Merkmalen, Echtzeit-Fernidentifizierungssysteme zur Gesichtserkennung ohne gezielte Suche, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie Social-Scoring-Systeme.

General Purpose AI (GPAI)

GPAI-Systeme werden in zwei Kategorien eingeteilt:

Normale GPAI: Müssen zusätzliche Transparenzpflichten erfüllen, einschließlich technischer Dokumentation und Aufstellungen über verwendete Trainingsdaten.

GPAI mit erheblichen Auswirkungen: Diese Systeme unterliegen zusätzlichen Pflichten wie der Überwachung schwerwiegender Vorfälle und Modellbewertungen. Die Unterscheidung erfolgt anhand der Rechenleistung, die zum Trainieren des Basismodells benötigt wird.

Transparenz spielt eine zentrale Rolle im AI Act. Anbieter müssen detaillierte technische Dokumentationen führen und sicherstellen, dass ihre Systeme nachvollziehbar und erklärbar sind. Dies soll Vertrauen in die KI-Technologien schaffen und deren Akzeptanz in der Gesellschaft fördern.

Zur Durchsetzung des AI Act wird eine Verwaltungsstruktur auf EU- und nationaler Ebene eingerichtet. Nationale Aufsichtsbehörden überwachen und setzen die Vorschriften durch. Eine zentrale EU-Datenbank wird eingerichtet, in der alle Hochrisiko-KI-Systeme registriert werden müssen.

Das EU AI Office koordiniert die Umsetzung des Gesetzes in allen EU-Mitgliedsstaaten. Ein Ausschuss aus Interessenvertretern gibt Feedback und stellt sicher, dass ein breites Meinungsspektrum vertreten ist. Ein Beratungsforum aus unabhängigen Experten erkennt systemische Risiken und gibt Leitlinien für die Modellklassifizierung.

Die Mitgliedsstaaten müssen nationale Behörden einrichten oder bestimmen, die für die Durchsetzung des Gesetzes verantwortlich sind. Sie überwachen die Durchführung von Konformitätsbewertungen und ernennen notifizierte Stellen für externe Konformitätsbewertungen.

Sanktionen bei Verstößen

Bei Verstößen gegen die Vorschriften des AI Act drohen empfindliche Strafen. Diese können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen. Weitere Sanktionen umfassen:

Für verbotene KI-Systeme: Bis zu 35 Mio. EUR oder 7 Prozent des Jahresumsatzes.

Für geringfügigere Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes.

Fehlerhafte Meldungen: Bis zu 7,5 Mio. EUR oder 1,5 Prozent des Jahresumsatzes.

GPAI-Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes.

Der AI Act der Europäischen Union markiert einen bedeutenden Schritt in Richtung sicherer und transparenter KI-Systeme. Durch strenge Regulierungen und hohe Strafen bei Verstößen soll das Gesetz nicht nur die Sicherheit und Rechte der Bürger schützen, sondern auch Innovationen im Bereich der künstlichen Intelligenz fördern. Die Anforderungen an Datenqualität, Risikomanagement und Transparenz sollen dazu beitragen, Vertrauen in KI-Technologien zu schaffen und deren Akzeptanz in der Gesellschaft zu erhöhen.

#EUAIACT #KünstlicheIntelligenz #Deloitte #Regulierung #Technologie #Innovation

Quellenangabe

    Ähnliche Beiträge

    Business Politik und Regulierung

    Europäische KI-Verordnung: Die eigentlichen Regeln für KI-Modelle wie ChatGPT kommen noch

    Europäische KI-Verordnung: Die eigentlichen Regeln für KI-Modelle wie ChatGPT kommen noch Praxisleitfäden, die präzise Regeln liefern sollen, werden derzeit entwickelt,.

    Business

    Werde zum KI-Marketing-Manager: Geförderte Weiterbildung mit Zukunft!

    Werde zum KI-Marketing-Manager Die Weiterbildung zum KI-Marketing-Manager umfasst vier intensive Wochen mit 180 Unterrichtseinheiten, die Teilnehmer umfassend auf die Anforderungen.

    Folge uns

    Beliebte Artikel

    About Author

    Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

    TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

    Beraten lassen

    HOT CATEGORIES

    de_DEGerman