Einführung in die KI-Verordnung der EU - Der AI ActEinführung in die KI-Verordnung der EU - Der AI Act

Die Verabschiedung des AI Act durch den Rat der Europäischen Union am 21. Mai 2024 markiert einen bedeutenden Schritt zur Regulierung Künstlicher Intelligenz (KI) in Europa. Diese Verordnung, die erstmals eine umfassende Regelung für KI-Systeme in der EU darstellt, entstand aus einem Gesetzgebungsprozess, der 2021 begann. Ziel des AI Act ist es, ein Gleichgewicht zwischen dem Schutz der Rechte und Freiheiten der Bürger und der Förderung technologischer Innovation zu schaffen.

Das musst Du wissen – Einführung in die KI-Verordnung der EU – Der AI Act

  1. Erster umfassender AI-Act: Der AI Act ist die erste umfassende Verordnung zur Regulierung von KI in Europa.
  2. Risikobasierter Ansatz: Die Verordnung kategorisiert KI-Systeme in vier Risikostufen und legt strenge Vorschriften für hochriskante Systeme fest.
  3. Umfassende Anwendbarkeit: Sie gilt für alle Organisationen innerhalb und außerhalb der EU, die KI in Europa anbieten.
  4. Verbotene Praktiken: Der Einsatz von KI-Systemen, die EU-Werte verletzen, ist verboten.
  5. Überwachungsbehörden: Nationale und europäische Behörden werden zur Durchsetzung der Verordnung eingerichtet.

Der AI Act verfolgt einen risikobasierten Ansatz und kategorisiert KI-Systeme in vier Risikostufen: inakzeptables, hohes, begrenztes und minimales Risiko. Systeme mit inakzeptablem Risiko, wie etwa solche, die manipulativ sind oder Schwachstellen von Personen ausnutzen, sind verboten. Hochrisikosysteme dürfen nur unter strengen Auflagen eingesetzt werden. Für Systeme mit begrenztem Risiko gelten Transparenzvorschriften, während minimale Risikosysteme keine besonderen Anforderungen erfüllen müssen.

Die Verordnung erstreckt sich sowohl auf öffentliche als auch private Organisationen innerhalb der EU und Drittstaaten, die KI-Systeme auf dem europäischen Markt anbieten. Ausgenommen sind Systeme, die für militärische oder wissenschaftliche Zwecke entwickelt wurden. Die Definition von KI-Tools orientiert sich an der des OECD und umfasst maschinelle Systeme, die nach ihrer Bereitstellung Anpassungsfähigkeit zeigen können.

Zur Durchsetzung des AI Act werden nationale Aufsichtsbehörden in den Mitgliedstaaten sowie ein europäischer Ausschuss für Künstliche Intelligenz eingerichtet. Diese Behörden überwachen die Einhaltung der Vorschriften und koordinieren die Durchsetzung auf nationaler und europäischer Ebene. Ein variabler Sanktionsrahmen, der sich nach der Schwere der Verstöße richtet, sorgt für die Durchsetzung der Regeln.

Der AI Act enthält auch Bestimmungen zur Förderung von Innovation. So werden „Regulatory Sandboxes“ eingerichtet, die es Anbietern ermöglichen, KI-Systeme in einem kontrollierten Umfeld zu entwickeln und zu testen. Dies soll helfen, innovative Ansätze zu fördern und gleichzeitig sicherzustellen, dass die Systeme den EU-Vorschriften entsprechen. Darüber hinaus werden physische und virtuelle Test- und Experimentiereinrichtungen (TEFs) für groß angelegte KI-Tests eingerichtet.

Trotz seiner wegweisenden Rolle stößt der AI Act auf Kritik. Einige Experten bemängeln Unklarheiten in der Verantwortungsverteilung, insbesondere bei Open-Source-Modellen, sowie eine unzureichende Verbraucherprotektion. Auch fehlen Bestimmungen zur systemischen Nachhaltigkeit. Die vollständige Umsetzung des AI Act soll innerhalb von zwei Jahren erfolgen, wobei die Vorschriften für Hochrisikosysteme und Überwachungsstrukturen schrittweise eingeführt werden.

Der AI Act der EU setzt einen neuen Standard für die Regulierung von KI und stellt sicher, dass deren Einsatz den europäischen Werten und Rechten entspricht. Gleichzeitig fördert die Verordnung Innovation und Entwicklung, indem sie ein kontrolliertes Umfeld für das Testen und Implementieren neuer Technologien schafft.

Für weitere Informationen besuchen Sie bitte die Originalquelle.