Brüssel, 13. Juni 2024 – Die Europäische Union hat heute Geschichte geschrieben, indem sie das weltweit erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz (KI) verabschiedet hat. Der sogenannte „AI Act“ (Verordnung (EU) 2024/1689) wurde vom Europäischen Parlament und dem Rat der Europäischen Union angenommen und tritt am 1. August 2024 in Kraft. Die meisten Bestimmungen werden jedoch erst nach einer Übergangsfrist von 24 Monaten ab dem 2. August 2026 anwendbar sein. Der AI Act zielt darauf ab, die Entwicklung und Nutzung von KI in der EU zu regulieren und dabei Sicherheit, Transparenz und ethische Standards zu gewährleisten. Dies soll durch einen risikobasierten Ansatz erreicht werden, der KI-Systeme in vier Kategorien einteilt: inakzeptables Risiko: KI-Systeme, die als klare Bedrohung für die Sicherheit, die Grundrechte oder die Werte der EU angesehen werden, sind verboten. hohes Risiko: KI-Systeme, die in sensiblen Bereichen wie Gesundheitswesen, Strafverfolgung oder Finanzwesen eingesetzt werden, unterliegen strengen Anforderungen an Sicherheit, Transparenz und Datenschutz. geringes Risiko: Für KI-Systeme mit geringem Risiko gelten Transparenzpflichten, um Nutzer über die Interaktion mit einer KI zu informieren. minimales Risiko: Die meisten KI-Systeme fallen in diese Kategorie und unterliegen keinen spezifischen Anforderungen. Der AI Act sieht unter anderem vor, dass Entwickler von Hochrisiko-KI-Systemen ein Risikomanagement durchführen, die Qualität der Trainingsdaten sicherstellen und die Funktionsweise des Systems dokumentieren müssen. Außerdem müssen sie sicherstellen, dass KI-Systeme unter menschlicher Aufsicht betrieben werden können. Das musst du wissen – EU AI Act tritt in Kraft Erster umfassender AI-Act: Der AI Act ist die erste umfassende Verordnung zur Regulierung von KI in Europa. Risikobasierter Ansatz: Die Verordnung kategorisiert KI-Systeme in vier Risikostufen und legt strenge Vorschriften für hochriskante Systeme fest. Umfassende Anwendbarkeit: Sie gilt für alle Organisationen innerhalb und außerhalb der EU, die KI in Europa anbieten. Verbotene Praktiken: Der Einsatz von KI-Systemen, die EU-Werte verletzen, ist verboten. Überwachungsbehörden: Nationale und europäische Behörden werden zur Durchsetzung der Verordnung eingerichtet. Der AI Act verfolgt einen risikobasierten Ansatz und unterscheidet zwischen herkömmlichen KI-Systemen und General Purpose AI (GPAI). Hochrisiko-KI-Systeme, wie solche in kritischen Infrastrukturen oder im Bildungsbereich, unterliegen strengen Vorschriften. Anbieter müssen ein Risikomanagementsystem einführen, eine Konformitätsbewertung durchführen und regelmäßige Audits durchführen. Hochrisiko-KI-Systeme Anbieter von Hochrisiko-KI-Systemen müssen umfangreiche Maßnahmen ergreifen: Qualität und Integrität der Daten: Die verwendeten Daten müssen von hoher Qualität und frei von Verzerrungen sein. Risikomanagement: Ein kontinuierliches Risikomanagementsystem muss implementiert werden. Konformitätsbewertung: Regelmäßige Bewertungen sind erforderlich, um sicherzustellen, dass die Systeme den Standards entsprechen. Verbotene KI-Systeme KI-Systeme, die ein unannehmbares Risiko darstellen, werden innerhalb von sechs Monaten nach der offiziellen Verabschiedung vollständig verboten. Dazu gehören Systeme zur biometrischen Kategorisierung basierend auf sensiblen Merkmalen, Echtzeit-Fernidentifizierungssysteme zur Gesichtserkennung ohne gezielte Suche, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie Social-Scoring-Systeme. General Purpose AI (GPAI) GPAI-Systeme werden in zwei Kategorien eingeteilt: Normale GPAI: Müssen zusätzliche Transparenzpflichten erfüllen, einschließlich technischer Dokumentation und Aufstellungen über verwendete Trainingsdaten. GPAI mit erheblichen Auswirkungen: Diese Systeme unterliegen zusätzlichen Pflichten wie der Überwachung schwerwiegender Vorfälle und Modellbewertungen. Die Unterscheidung erfolgt anhand der Rechenleistung, die zum Trainieren des Basismodells benötigt wird. Transparenz spielt eine zentrale Rolle im AI Act. Anbieter müssen detaillierte technische Dokumentationen führen und sicherstellen, dass ihre Systeme nachvollziehbar und erklärbar sind. Dies soll Vertrauen in die KI-Technologien schaffen und deren Akzeptanz in der Gesellschaft fördern. Zur Durchsetzung des AI Act wird eine Verwaltungsstruktur auf EU- und nationaler Ebene eingerichtet. Nationale Aufsichtsbehörden überwachen und setzen die Vorschriften durch. Eine zentrale EU-Datenbank wird eingerichtet, in der alle Hochrisiko-KI-Systeme registriert werden müssen. Das EU AI Office koordiniert die Umsetzung des Gesetzes in allen EU-Mitgliedsstaaten. Ein Ausschuss aus Interessenvertretern gibt Feedback und stellt sicher, dass ein breites Meinungsspektrum vertreten ist. Ein Beratungsforum aus unabhängigen Experten erkennt systemische Risiken und gibt Leitlinien für die Modellklassifizierung. Die Mitgliedsstaaten müssen nationale Behörden einrichten oder bestimmen, die für die Durchsetzung des Gesetzes verantwortlich sind. Sie überwachen die Durchführung von Konformitätsbewertungen und ernennen notifizierte Stellen für externe Konformitätsbewertungen. Sanktionen bei Verstößen Bei Verstößen gegen die Vorschriften des AI Act drohen empfindliche Strafen. Diese können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen. Weitere Sanktionen umfassen: Für verbotene KI-Systeme: Bis zu 35 Mio. EUR oder 7 Prozent des Jahresumsatzes. Für geringfügigere Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes. Fehlerhafte Meldungen: Bis zu 7,5 Mio. EUR oder 1,5 Prozent des Jahresumsatzes. GPAI-Verstöße: Bis zu 15 Mio. EUR oder 3 Prozent des Jahresumsatzes. Der AI Act der Europäischen Union markiert einen bedeutenden Schritt in Richtung sicherer und transparenter KI-Systeme. Durch strenge Regulierungen und hohe Strafen bei Verstößen soll das Gesetz nicht nur die Sicherheit und Rechte der Bürger schützen, sondern auch Innovationen im Bereich der künstlichen Intelligenz fördern. Die Anforderungen an Datenqualität, Risikomanagement und Transparenz sollen dazu beitragen, Vertrauen in KI-Technologien zu schaffen und deren Akzeptanz in der Gesellschaft zu erhöhen. #Datenschutz #EUVerordnung #Sicherheit #Datenrecht #CyberSecurity Der vollständige Text des EU AI Act mit der Verordnung (EU) 2024/1689. Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)Text von Bedeutung für den EWR. PE/24/2024/REV/1 ABl. L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV) ELI: http://data.europa.eu/eli/reg/2024/1689/oj https://artificialintelligenceact.eu/de/chapter/1 – Hinweis: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.
Schreibe einen Kommentar
Related Post
Business, Audio
ElevenLabs Auto-Regeneration – mehr Qualität und Kontrolle bei der
21 November, 2024