Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

EU AI Regulation Act: Ein Überblick über die Definitionen der KI-Verordnung der EU

Von Oliver Welling
EU AI Regulation Act Ein Überblick über die Definitionen der KI-Verordnung der EU

Vorwort zur Einführung in die Definitionen der KI-Verordnung

Der Artificial Intelligence Act (AI Act) der Europäischen Union stellt den ersten umfassenden Regelungsrahmen für künstliche Intelligenz (KI) innerhalb der EU dar. Die Verordnung zielt darauf ab, die Entwicklung und den Einsatz von KI-Systemen sicher, transparent und im Einklang mit den Grundrechten zu gestalten. Sie schafft einen einheitlichen Rechtsrahmen, der auf den gesamten EU-Binnenmarkt angewendet wird. Die Definitionen, Anforderungen und Regelungen, die im AI Act enthalten sind, unterteilen KI-Systeme in Kategorien basierend auf dem Risikoniveau, das sie für die Gesellschaft und Einzelpersonen darstellen. Diese Kategorisierung reicht von minimalen bis hin zu unannehmbaren Risiken, wobei die strengsten Auflagen für Hochrisiko-KI-Systeme gelten. Durch diese differenzierte Herangehensweise soll eine sichere, faire und ethische Entwicklung von KI-Technologien gefördert werden. Mehr Informationen zum AI Act finden Sie auf der Seite von aiofficers.de.

Einführung in die Definitionen der KI-Verordnung

Das PDF-Dokument „Definitionen der KI-Verordnung“ bietet eine detaillierte Übersicht über die spezifischen Begriffe und Definitionen, die in der Verordnung verwendet werden. Diese Definitionen sind entscheidend für das Verständnis des Anwendungsbereichs der Verordnung und der rechtlichen Verpflichtungen für Anbieter, Betreiber und andere Akteure im KI-Sektor. Die Begriffe umfassen eine breite Palette von Aspekten, darunter „Akteur“, „Anbieter“, „Betreiber“, „Biometrische Daten“, „Deepfake“, und viele mehr. Jede Definition ist mit spezifischen Artikeln und Erwägungsgründen der Verordnung verknüpft, was die präzise Anwendung und Auslegung des AI Acts unterstützt. Diese Terminologie ist zentral, um Klarheit über die regulatorischen Anforderungen und deren Auswirkungen auf Unternehmen und Behörden zu schaffen.

Es gibt viele unbestimmte Rechtsbegriffe in der KI-Verordnung, aber es gibt auch Legal-Definitionen, die dabei helfen können, diese unbestimmten Rechtsbegriffe zu klären. Im Klartext: In der KI-Verordnung (die wirklich sehr umfangreich ist) gibt es Arbeitshilfen, um die Verordnung besser zu verstehen und später auch die Prüfung im Unternehmen durchzuführen. Wir haben uns die Mühe gemacht, alle Definitionen noch einmal zu überprüfen, abzugleichen und auf 18 Seiten für euch bereitzustellen. Ich hoffe, das hilft.

Das musst Du wissen – EU AI Regulation Act: Definitionen der KI-Verordnung

  • Akteur: Bezeichnet alle Anbieter, Produkthersteller, Betreiber, Bevollmächtigten, Einführer oder Händler von KI-Systemen oder KI-Modellen. (Art. 3 Abs. 8 KI-VO)
  • Anbieter: Jede Person oder Organisation, die ein KI-System entwickelt oder in Verkehr bringt, sei es unter eigenem Namen oder Marke. (Art. 3 Abs. 12, 15, 24, etc. KI-VO)
  • Betreiber: Eine Einheit, die ein KI-System unter eigener Verantwortung verwendet, es sei denn, es geschieht für persönliche, nicht berufliche Zwecke. (Art. 3 Abs. 4 KI-VO)
  • Biometrische Daten: Personenbezogene Daten, die durch spezielle technische Verfahren gewonnen werden, wie etwa Gesichtsbilder oder daktyloskopische Daten. (Art. 3 Abs. 34 KI-VO)
  • Deepfake: Durch KI generierte oder manipulierte Inhalte, die echt wirken, jedoch täuschen. (Art. 3 Abs. 60 KI-VO)

Mehr Informationen zum AI Act finden Sie auf der Seite von aiofficers.de.

Einführung in die Definitionen der KI-Verordnung

Das PDF-Dokument „Definitionen der KI-Verordnung“ bietet eine detaillierte Übersicht über die spezifischen Begriffe und Definitionen, die in der Verordnung verwendet werden. Diese Definitionen sind entscheidend für das Verständnis des Anwendungsbereichs der Verordnung und der rechtlichen Verpflichtungen für Anbieter, Betreiber und andere Akteure im KI-Sektor. Die Begriffe umfassen eine breite Palette von Aspekten, darunter „Akteur“, „Anbieter“, „Betreiber“, „Biometrische Daten“, „Deepfake“, und viele mehr. Jede Definition ist mit spezifischen Artikeln und Erwägungsgründen der Verordnung verknüpft, was die präzise Anwendung und Auslegung des AI Acts unterstützt. Diese Terminologie ist zentral, um Klarheit über die regulatorischen Anforderungen und deren Auswirkungen auf Unternehmen und Behörden zu schaffen.

EU AI Regulation Act –

Definitionen der KI-Verordnung

1. Juristische Definitionen der KI-Verordnung:

  1. Akteur:
    • Definition: „Akteur“ bedeutet einen Anbieter, Produkthersteller, Betreiber, Bevollmächtigten, Einführer oder Händler.
    • Referenz: (Art. 3 Abs. 8 KI-VO)
  1. Anbieter:
    • Definition: „Anbieter“ bedeutet eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich.
    • Referenzen: ErwGr 104, 106, 107, 108, 109, 114, 115, Art 3 Abs. 12, 15, 24, 25, 54, 68, Art 6 Abs. 4, ARtt. 16 ff. KI-VO
  1. Bereitstellung auf dem Markt:
    • Definition: „Bereitstellung auf dem Markt“ bedeutet die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer Geschäftstätigkeit.
    • Referenz: (Art. 3 Abs. 10 KI-VO)
  1. Betreiber:
    • Definition: „Betreiber“ bedeutet eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet.
    • Anmerkung: Der Begriff „Betreiber“ sollte als eine natürliche oder juristische Person, einschließlich Behörden, Einrichtungen oder sonstiger Stellen, die ein KI-System unter ihrer Befugnis verwenden, verstanden werden.
    • Referenz: (Art. 3 Abs. 4 KI-VO, ErwGr 13)
  1. Bevollmächtigter:
    • Definition: „Bevollmächtigter“ bedeutet eine in der Union ansässige oder niedergelassene natürliche oder juristische Person, die vom Anbieter eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck schriftlich dazu bevollmächtigt wurde und sich damit einverstanden erklärt hat, in seinem Namen die in dieser Verordnung festgelegten Pflichten zu erfüllen bzw. Verfahren durchzuführen.
    • Referenz: (Art. 3 Abs. 5 KI-VO)
  1. Biometrische Daten:
    • Definition: „Biometrische Daten“ sind mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, wie etwa Gesichtsbilder oder daktyloskopische Daten.
    • Anmerkung: Biometrische Daten können die Authentifizierung, Identifizierung oder Kategorisierung natürlicher Personen und die Erkennung von Emotionen natürlicher Personen ermöglichen.
    • Referenz: (Art. 3 Abs. 34 KI-VO, ErwGr 14)
  1. Biometrische Identifizierung:
    • Definition: „Biometrische Identifizierung“ bedeutet die automatisierte Erkennung physischer, physiologischer, verhaltensbezogener oder psychologischer menschlicher Merkmale zum Zwecke der Feststellung der Identität einer natürlichen Person durch den Vergleich biometrischer Daten dieser Person mit biometrischen Daten von Personen, die in einer Datenbank gespeichert sind.
    • Referenz: (Art. 3 Abs. 35 KI-VO)
  1. Biometrische Verifizierung:
    • Definition: „Biometrische Verifizierung“ bedeutet die automatisierte Eins-zu-eins-Verifizierung, einschließlich Authentifizierung, der Identität natürlicher Personen durch den Vergleich ihrer biometrischen Daten mit zuvor bereitgestellten biometrischen Daten.
    • Referenz: (Art. 3 Abs. 36 KI-VO)
  1. Biometrisches Echtzeit-Fernidentifizierungssystem:
    • Definition: „Biometrisches Echtzeit-Fernidentifizierungssystem“ ist ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung biometrischer Daten, der Abgleich und die Identifizierung ohne erhebliche Verzögerung erfolgen und dies zur Vermeidung einer Umgehung der Vorschriften nicht nur die sofortige Identifizierung, sondern auch eine Identifizierung mit begrenzten kurzen Verzögerungen umfasst.
    • Referenz: (Art. 3 Abs. 42 KI-VO)
  1. Biometrisches Fernidentifizierungssystem:
    • Definition: „Biometrisches Fernidentifizierungssystem“ ist ein KI-System, das dem Zweck dient, natürliche Personen ohne ihre aktive Einbeziehung und in der Regel aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren.
    • Anmerkung: Der in dieser Verordnung verwendete Begriff „biometrisches Fernidentifizierungssystem“ sollte funktional definiert werden als KI-System, das dem Zweck dient, natürliche Personen ohne ihre aktive Einbeziehung in der Regel aus der Ferne durch Abgleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank gespeicherten biometrischen Daten zu identifizieren, unabhängig davon, welche Technologie, Verfahren oder Arten biometrischer Daten dazu verwendet werden.
    • Referenz: (Art. 3 Abs. 41 KI-VO, ErwGr 17)
  1. Büro für künstliche Intelligenz:
    • Definition: „Büro für künstliche Intelligenz“ ist die Aufgabe der Kommission, zur Umsetzung, Beobachtung und Überwachung von KI-Systemen und KI-Modellen mit allgemeinem Verwendungszweck und zu der im Beschluss der Kommission vom 24. Januar 2024 vorgesehenen KI-Governance beizutragen. Bezugnahmen in dieser Verordnung auf das Büro für Künstliche Intelligenz gelten als Bezugnahmen auf die Kommission.
    • Referenz: (Art. 3 Abs. 47 KI-VO)
  1. CE-Kennzeichnung:
    • Definition: „CE-Kennzeichnung“ ist eine Kennzeichnung, durch die ein Anbieter erklärt, dass ein KI-System die Anforderungen erfüllt, die in Kapitel III Abschnitt 2 und in anderen anwendbaren Harmonisierungsrechtsvorschriften, die die Anbringung dieser Kennzeichnung vorsehen, festgelegt sind.
    • Referenz: (Art. 3 Abs. 24 KI-VO)
  1. Data poisoning:
    • Definition: Angriffe, mit denen versucht wird, eine Manipulation des Trainingsdatensatzes („data poisoning“) vorzunehmen.
    • Referenz: (Art. 15 Abs. 5 KI-VO)
  1. Deepfake:
    • Definition: „Deepfake“ ist ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.
    • Referenz: (Art. 3 Abs. 60 KI-VO)
  1. Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst:
    • Definition: Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, ist ein KI-System, das keine Auswirkungen auf den Inhalt und damit das Ergebnis der Entscheidungsfindung hat, unabhängig davon, ob es sich um menschliche oder automatisierte Entscheidungen handelt.
    • Referenz: (ErwGr 53)
  1. Einführer:
    • Definition: „Einführer“ ist eine in der Union ansässige oder niedergelassene natürliche oder juristische Person, die ein KI-System, das den Namen oder die Handelsmarke einer in einem Drittland niedergelassenen natürlichen oder juristischen Person trägt, in Verkehr bringt.
    • Referenz: (Art. 3 Abs. 6 KI-VO)
  1. Eingabedaten:
  • Definition: „Eingabedaten“ sind die in ein KI-System eingespeisten oder von diesem direkt erfassten Daten, auf deren Grundlage das System eine Ausgabe hervorbringt.
  • Referenz: (Art. 3 Abs. 33 KI-VO)
  1. Emotionserkennungssystem:
  • Definition: „Emotionserkennungssystem“ ist ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten.
  • Anmerkung: Der in dieser Verordnung verwendete Begriff „Emotionserkennungssystem“ sollte als ein KI-System definiert werden, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten festzustellen oder daraus abzuleiten.
  • Referenz: (Art. 3 Abs. 39 KI-VO, ErwGr 18)
  1. Fähigkeiten mit hohem Wirkungsgrad:
  • Definition: „Fähigkeiten mit hohem Wirkungsgrad“ bezeichnet Fähigkeiten, die den bei den fortschrittlichsten KI-Modellen mit allgemeinem Verwendungszweck festgestellten Fähigkeiten entsprechen oder diese übersteigen.
  • Referenzen: (Art. 3 Abs. 64 KI-VO, ErwGr 111)
  1. Betriebsanleitungen:
  • Definition: „Betriebsanleitungen“ sind die Informationen, die der Anbieter bereitstellt, um den Betreiber insbesondere über die Zweckbestimmung und die ordnungsgemäße Verwendung eines KI-Systems zu informieren.
  • Referenz: (Art. 3 Abs. 15 KI-VO)
  1. Gemeinsame Spezifikation:
  • Definition: „Gemeinsame Spezifikation“ ist eine Reihe technischer Spezifikationen im Sinne des Artikels 2 Nummer 4 der Verordnung (EU) Nr. 1025/2012, deren Befolgung es ermöglicht, bestimmte Anforderungen der vorliegenden Verordnung zu erfüllen.
  • Referenz: (Art. 3 Abs. 28 KI-VO)
  1. Gleitkommaoperation (FLOP):
  • Definition: „Gleitkommaoperation (FLOP)“ bedeutet jede Rechenoperation oder jede Zuweisung mit Gleitkommazahlen, bei denen es sich um eine Teilmenge der reellen Zahlen handelt, die auf Computern typischerweise durch das Produkt aus einer ganzen Zahl mit fester Genauigkeit und einer festen Basis mit ganzzahligem Exponenten dargestellt wird.
  • Referenz: (Art. 3 Abs. 67 KI-VO)
  1. Händler:
  • Definition: „Händler“ ist eine natürliche oder juristische Person in der Lieferkette, die ein KI-System auf dem Unionsmarkt bereitstellt, mit Ausnahme des Anbieters oder des Einführers.
  • Referenz: (Art. 3 Abs. 7 KI-VO)
  1. Harmonisierte Norm:
  • Definition: „Harmonisierte Norm“ bezeichnet eine harmonisierte Norm im Sinne des Artikels 2 Absatz 1 Buchstabe c der Verordnung (EU) Nr. 1025/2012.
  • Referenz: (Art. 3 Abs. 27 KI-VO)
  1. Inbetriebnahme:
  • Definition: „Inbetriebnahme“ ist die Bereitstellung eines KI-Systems in der Union zum Erstgebrauch direkt an den Betreiber oder zum Eigengebrauch entsprechend seiner Zweckbestimmung.
  • Referenz: (Art. 3 Abs. 11 KI-VO)
  1. Inverkehrbringen:
  • Definition: „Inverkehrbringen“ bedeutet die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck auf dem Unionsmarkt.
  • Referenz: (Art. 3 Abs. 9 KI-VO)
  1. KI-gestützte manipulative Techniken:
  • Definition: KI-gestützte manipulative Techniken können dazu verwendet werden, Personen zu unerwünschten Verhaltensweisen zu bewegen oder sie zu täuschen, indem sie in einer Weise zu Entscheidungen angeregt werden, die ihre Autonomie, Entscheidungsfindung und freie Auswahl untergräbt und beeinträchtigt.
  • Referenzen: (Art. 5 Abs. 1 a) KI-VO, ErwGr 29)
  1. KI-Kompetenz:
  • Definition: Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.
  • Referenzen: (Art. 4 KI-VO, Art. 3 Abs. 56 KI-VO)
  1. KI-Modell mit allgemeinem Verwendungszweck:
  • Definition: „KI-Modell mit allgemeinem Verwendungszweck“ ist ein KI-Modell — einschließlich der Fälle, in denen ein solches KI-Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird —, das eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann, ausgenommen KI-Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden.
  • Referenz: (Art. 3 Abs. 63 KI-VO)
  1. KI-Reallabor:
  • Definition: „KI-Reallabor“ ist ein kontrollierter Rahmen, der von einer zuständigen Behörde geschaffen wird und den Anbieter oder zukünftige Anbieter von KI-Systemen nach einem Plan für das Reallabor einen begrenzten Zeitraum und unter regulatorischer Aufsicht nutzen können, um ein innovatives KI-System zu entwickeln, zu trainieren, zu validieren und — gegebenenfalls unter Realbedingungen — zu testen.
  • Referenz: (Art. 3 Abs. 55 KI-VO)
  1. KI-System:
  • Definition: „KI-System“ ist ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.
  • Referenzen: (Art. 3 Abs. 1 KI-VO, ErwGr 12)
  1. KI-System mit allgemeinem Verwendungszweck:
  • Definition: „KI-System mit allgemeinem Verwendungszweck“ ist ein KI-System, das auf einem KI-Modell mit allgemeinem Verwendungszweck beruht und in der Lage ist, einer Vielzahl von Zwecken sowohl für die direkte Verwendung als auch für die Integration in andere KI-Systeme zu dienen.
  • Referenz: (Art. 3 Abs. 66 KI-VO)
  1. KI-Systeme im Bereich der Beschäftigung und Personalmanagement und Zugang zur Selbstständigkeit:
  • Definition: KI-Systeme, die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen, für Entscheidungen über die Bedingungen des Arbeitsverhältnisses sowie die Beförderung und die Beendigung von Arbeitsvertragsverhältnissen, für die Zuweisung von Arbeitsaufgaben auf der Grundlage von individuellem Verhalten, persönlichen Eigenschaften oder Merkmalen sowie für die Überwachung oder Bewertung von Personen in Arbeitsvertragsverhältnissen.
  • Referenz: (ErwGr 57)
  1. KI-Systeme, die eine soziale Bewertung bereitstellen:
  • Definition: KI-Systeme, die eine soziale Bewertung bereitstellen, bewerten oder klassifizieren natürliche Personen oder Gruppen natürlicher Personen in einem bestimmten Zeitraum auf der Grundlage zahlreicher Datenpunkte in Bezug auf ihr soziales Verhalten in verschiedenen Zusammenhängen oder aufgrund bekannter, vermuteter oder vorhergesagter persönlicher Eigenschaften oder Persönlichkeitsmerkmale.
  • Referenzen: (Art. 5 Abs. 1 c) KI-VO, ErwGr 31)
  1. Konformitätsbewertung:
  • Definition: „Konformitätsbewertung“ ist ein Verfahren, mit dem bewertet wird, ob die in Titel III Abschnitt 2 festgelegten Anforderungen an ein Hochrisiko-KI-System erfüllt wurden.
  • Referenz: (Art. 3 Abs. 20 KI-VO)
  1. Konformitätsbewertungsstelle:
  • Definition: „Konformitätsbewertungsstelle“ ist eine Stelle, die Konformitätsbewertungstätigkeiten einschließlich Prüfungen, Zertifizierungen und Inspektionen durchführt und dabei als Dritte auftritt.
  • Referenz: (Art. 3 Abs. 21 KI-VO)
  1. Leistung eines KI-Systems:
  • Definition: „Leistung eines KI-Systems“ ist die Fähigkeit eines KI-Systems, seine Zweckbestimmung zu erfüllen.
  • Referenz: (Art. 3 Abs. 18 KI-VO)
  1. Marktüberwachungsbehörde:
  • Definition: „Marktüberwachungsbehörde“ ist die nationale Behörde, die die Tätigkeiten durchführt und die Maßnahmen ergreift, die in der Verordnung (EU) 2019/1020 vorgesehen sind.
  • Referenz: (Art. 3 Abs. 26 KI-VO)
  1. Menschliche Aufsicht:
  • Definition: Geeignete Instrumente einer Mensch-Maschine-Schnittstelle, die es ermöglichen, dass KI-Systeme von natürlichen Personen wirksam beaufsichtigt werden können.
  • Referenzen: (Art. 14 Abs. 1 KI-VO)
  1. Model evasions:
  • Definition: Eingabedaten, die das Modell zu Fehlern verleiten sollen („adversarial examples“ oder „model evasions“).
  • Referenz: (Art. 15 Abs. 5 KI-VO)
  1. Model poisoning:
  • Definition: Angriffe, mit denen versucht wird, eine Manipulation vortrainierter Komponenten, die beim Training verwendet werden („model poisoning“), vorzunehmen.
  • Referenz: (Art. 15 Abs. 5 KI-VO)
  1. Nachgelagerter Anbieter:
  • Definition: „Nachgelagerter Anbieter“ ist ein Anbieter eines KI-Systems, einschließlich eines KI-Systems mit allgemeinem Verwendungszweck, das ein KI-Modell integriert, unabhängig davon, ob das KI-Modell von ihm selbst bereitgestellt und vertikal integriert wird oder von einer anderen Einrichtung auf der Grundlage vertraglicher Beziehungen bereitgestellt wird.
  • Referenz: (Art. 3 Abs. 68 KI-VO)
  1. Notifizierende Behörde:
  • Definition: „Notifizierende Behörde“ ist die nationale Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren für die Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist.
  • Referenz: (Art. 3 Abs. 19 KI-VO)
  1. Notifizierte Stelle:
  • Definition: „Notifizierte Stelle“ ist eine Konformitätsbewertungsstelle, die gemäß dieser Verordnung und den anderen einschlägigen Harmonisierungsrechtsvorschriften der Union notifiziert wurde.
  • Referenz: (Art. 3 Abs. 22 KI-VO)
  1. Öffentlich zugänglicher Raum:
  • Definition: „Öffentlich zugänglicher Raum“ bezeichnet einen einer unbestimmten Anzahl natürlicher Personen zugänglichen physischen Ort in privatem oder öffentlichem Eigentum, unabhängig davon, ob bestimmte Bedingungen für den Zugang gelten, und unabhängig von möglichen Kapazitätsbeschränkungen.
  • Anmerkung: Für die Zwecke dieser Verordnung sollte der Begriff „öffentlich zugänglicher Raum“ so verstanden werden, dass er sich auf einen einer unbestimmten Anzahl natürlicher Personen zugänglichen physischen Ort bezieht, unabhängig davon, ob er sich in privatem oder öffentlichem Eigentum befindet, unabhängig von den Tätigkeiten, für die der Ort verwendet werden kann.
  • Referenz: (Art. 3 Abs. 44 KI-VO, ErwGr 19)
  1. Plan für das Reallabor:
  • Definition: „Plan für das Reallabor“ ist ein zwischen dem teilnehmenden Anbieter und der zuständigen Behörde vereinbartes Dokument, in dem die Ziele, die Bedingungen, der Zeitrahmen, die Methodik und die Anforderungen für die im Reallabor durchgeführten Tätigkeiten beschrieben werden.
  • Referenz: (Art. 3 Abs. 54 KI-VO)
  1. Plan für einen Test unter realen Bedingungen:
  • Definition: „Plan für einen Test unter realen Bedingungen“ ist ein Dokument, in dem die Ziele, die Methodik, der geografische, bevölkerungsbezogene und zeitliche Umfang, die Überwachung, die Organisation und die Durchführung eines Tests unter Realbedingungen beschrieben werden.
  • Referenz: (Art. 3 Abs. 53 KI-VO)
  1. Protokollierung:
  • Definition: Aufzeichnung von Ereignissen, um sicherzustellen, dass das Funktionieren des Hochrisiko-KI-Systems in einem der Zweckbestimmung des Systems angemessenen Maße rückverfolgbar ist.
  • Referenz: (Art. 12 Abs. 2 KI-VO)
  1. Risiko:
  • Definition: „Risiko“ bezeichnet die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Schadens.
  • Referenz: (Art. 3 Abs. 2 KI-VO, Kapitel III)
  1. Rücknahme eines KI-Systems:
  • Definition: „Rücknahme eines KI-Systems“ bezeichnet jede Maßnahme, mit der die Bereitstellung eines in der Lieferkette befindlichen KI-Systems auf dem Markt verhindert werden soll.
  • Referenz: (Art. 3 Abs. 17 KI-VO)
  1. Rückruf eines KI-Systems:
  • Definition: „Rückruf eines KI-Systems“ bedeutet jede Maßnahme, die auf die Rückgabe an den Anbieter oder auf die Außerbetriebsetzung oder Abschaltung eines den Betreibern bereits zur Verfügung gestellten KI-Systems abzielt.
  • Referenz: (Art. 3 Abs. 16 KI-VO)
  1. Informierte Einwilligung:
  • Definition: „Informierte Einwilligung“ ist eine aus freien Stücken erfolgende, spezifische, eindeutige und freiwillige Erklärung der Bereitschaft, an einem bestimmten Test unter Realbedingungen teilzunehmen, durch einen Testteilnehmer, nachdem dieser über alle Aspekte des Tests, die für die Entscheidungsfindung des Testteilnehmers bezüglich der Teilnahme relevant sind, aufgeklärt wurde.
  • Referenz: (Art. 3 Abs. 59 KI-VO)
  1. Schwerwiegender Vorfall:
  • Definition: „Schwerwiegender Vorfall“ ist ein Vorfall oder eine Fehlfunktion bezüglich eines KI-Systems, das bzw. die direkt oder indirekt eine der nachstehenden Folgen hat: a) den Tod oder die schwere gesundheitliche Schädigung einer Person; b) eine schwere und unumkehrbare Störung der Verwaltung oder des Betriebs kritischer Infrastrukturen; c) die Verletzung von Pflichten aus den Unionsrechtsvorschriften zum Schutz der Grundrechte; d) schwere Sach- oder Umweltschäden.
  • Referenz: (Art. 3 Abs. 49 KI-VO)
  1. Sensible operative Daten:
  • Definition: „Sensible operative Daten“ sind operative Daten im Zusammenhang mit Tätigkeiten zur Verhütung, Aufdeckung, Untersuchung oder Verfolgung von Straftaten, deren Offenlegung die Integrität von Strafverfahren gefährden könnte.
  • Referenz: (Art. 3 Abs. 38 KI-VO)
  1. Sicherheitskomponente:
  • Definition: „Sicherheitskomponente“ bezeichnet einen Bestandteil eines Produkts oder KI-Systems, der eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder dessen Ausfall oder Störung die Gesundheit und Sicherheit von Personen oder Eigentum gefährdet.
  • Referenz: (Art. 3 Abs. 14 KI-VO)
  1. Soziales und ökologisches Wohlergehen:
  • Definition: „Soziales und ökologisches Wohlergehen“ bedeutet, dass KI-Systeme in nachhaltiger und umweltfreundlicher Weise und zum Nutzen aller Menschen entwickelt und verwendet werden, wobei die langfristigen Auswirkungen auf den Einzelnen, die Gesellschaft und die Demokratie überwacht und bewertet werden.
  • Referenzen: (ErwGr 27, Art. 95 Abs. 2 b) KI-VO)
  1. Strafverfolgung:
  • Definition: „Strafverfolgung“ bezeichnet Tätigkeiten der Strafverfolgungsbehörden oder in deren Auftrag zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit.
  • Referenz: (Art. 3 Abs. 46 KI-VO)
  1. Strafverfolgungsbehörde:
  • Definition: „Strafverfolgungsbehörde“ ist: a) eine Behörde, die für die Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder die Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit, zuständig ist, oder b) eine andere Stelle oder Einrichtung, der durch nationales Recht die Ausübung öffentlicher Gewalt und hoheitlicher Befugnisse zur Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder zur Strafvollstreckung, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit, übertragen wurde.
  • Referenz: (Art. 3 Abs. 45 KI-VO)
  1. System zur Beobachtung nach dem Inverkehrbringen:
  • Definition: „System zur Beobachtung nach dem Inverkehrbringen“ umfasst alle Tätigkeiten, die Anbieter von KI-Systemen zur Sammlung und Überprüfung von Erfahrungen mit der Verwendung der von ihnen in Verkehr gebrachten oder in Betrieb genommenen KI-Systeme durchführen, um festzustellen, ob unverzüglich nötige Korrektur- oder Präventivmaßnahmen zu ergreifen sind.
  • Referenz: (Art. 3 Abs. 25 KI-VO)
  1. System zur biometrischen Kategorisierung:
  • Definition: „System zur biometrischen Kategorisierung“ ist ein KI-System, das dem Zweck dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien zuzuordnen, sofern es sich um eine Nebenfunktion eines anderen kommerziellen Dienstes handelt und aus objektiven technischen Gründen unbedingt erforderlich ist.
  • Anmerkung: Der Begriff „biometrische Kategorisierung“ sollte die Zuordnung natürlicher Personen auf der Grundlage ihrer biometrischen Daten zu bestimmten Kategorien bezeichnen. Diese bestimmten Kategorien können Aspekte wie Geschlecht, Alter, Haarfarbe, Augenfarbe, Tätowierungen, Verhaltens- oder Persönlichkeitsmerkmale, Sprache, Religion, Zugehörigkeit zu einer nationalen Minderheit, sexuelle oder politische Ausrichtung betreffen.
  • Referenzen: (Art. 3 Abs. 40 KI-VO, ErwGr 16, ErwGr 30)
  1. Systemische Risiken:
  • Definition: Systemische Risiken umfassen tatsächliche oder vernünftigerweise vorhersehbare negative Auswirkungen im Zusammenhang mit schweren Unfällen, Störungen kritischer Sektoren und schwerwiegenden Folgen für die öffentliche Gesundheit und Sicherheit; alle tatsächlichen oder vernünftigerweise vorhersehbaren negativen Auswirkungen auf die demokratischen Prozesse und die öffentliche und wirtschaftliche Sicherheit; die Verbreitung illegaler, falscher oder diskriminierender Inhalte.
  • Referenzen: (ErwGr 110, ErwGr 114, ErwGr 115, ErwGr 118, ErwGr 120, ErwGr 136, Art. 52, 92 KI-VO)
  1. Systemrisiko:
  • Definition: „Systemrisiko“ ist ein Risiko, das für die Fähigkeiten mit hoher Wirkkraft von KI-Modellen mit allgemeinem Verwendungszweck spezifisch ist und aufgrund deren Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Folgen für die öffentliche Gesundheit, die Sicherheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft insgesamt erhebliche Auswirkungen auf den Unionsmarkt hat, die sich in großem Umfang über die gesamte Wertschöpfungskette hinweg verbreiten können.
  • Referenz: (Art. 3 Abs. 65 KI-VO)
  1. Test unter realen Bedingungen:
  • Definition: „Test unter realen Bedingungen“ ist der befristete Test eines KI-Systems auf seine Zweckbestimmung, der unter Realbedingungen außerhalb eines Labors oder einer anderweitig simulierten Umgebung erfolgt, um zuverlässige und belastbare Daten zu erheben und die Konformität des KI-Systems mit den Anforderungen der vorliegenden Verordnung zu bewerten und zu überprüfen, wobei dieser Test nicht als Inverkehrbringen oder Inbetriebnahme des KI-Systems im Sinne dieser Verordnung gilt, sofern alle Bedingungen nach Artikel 57 oder Artikel 60 erfüllt sind.
  • Referenz: (Art. 3 Abs. 57 KI-VO)
  1. Testdaten:
  • Definition: „Testdaten“ sind Daten, die für eine unabhängige Bewertung des KI-Systems verwendet werden, um die erwartete Leistung dieses Systems vor dessen Inverkehrbringen oder Inbetriebnahme zu bestätigen.
  • Referenz: (Art. 3 Abs. 32 KI-VO)
  1. Testteilnehmer:
  • Definition: „Testteilnehmer“ ist für die Zwecke eines Tests unter Realbedingungen eine natürliche Person, die an dem Test unter Realbedingungen teilnimmt.
  • Referenz: (Art. 3 Abs. 58 KI-VO)
  1. Trainingsdaten:
  • Definition: „Trainingsdaten“ sind Daten, die zum Trainieren eines KI-Systems verwendet werden, wobei dessen lernbare Parameter angepasst werden.
  • Referenz: (Art. 3 Abs. 29 KI-VO)
  1. Transparenz:
  • Definition: „Transparenz“ bedeutet, dass KI-Systeme so entwickelt und verwendet werden, dass sie angemessen nachvollziehbar und erklärbar sind.
  • Referenzen: (ErwGr 27, ErwGr 107, ErwGr 132, ErwGr 134, Art. 13, 50 KI-VO)
  1. Validierungsdaten:
  • Definition: „Validierungsdaten“ sind Daten, die zur Evaluation des trainierten KI-Systems und zur Einstellung seiner nicht erlernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Unter- oder Überanpassung zu vermeiden.
  • Referenz: (Art. 3 Abs. 30 KI-VO)
  1. Validierungsdatensatz:
  • Definition: „Validierungsdatensatz“ ist ein separater Datensatz oder ein Teil des Trainingsdatensatzes mit fester oder variabler Aufteilung.
  • Referenz: (Art. 3 Abs. 31 KI-VO)
  1. Vernünftigerweise vorhersehbare Fehlanwendung:
  • Definition: „Vernünftigerweise vorhersehbare Fehlanwendung“ ist die Verwendung eines KI-Systems in einer Weise, die nicht seiner Zweckbestimmung entspricht, die sich aber aus einem vernünftigerweise vorhersehbaren menschlichen Verhalten oder einer vernünftigerweise vorhersehbaren Interaktion mit anderen Systemen, auch anderen KI-Systemen, ergeben kann.
  • Referenz: (Art. 3 Abs. 13 KI-VO)
  1. Vielfalt, Nichtdiskriminierung und Fairness:
  • Definition: „Vielfalt, Nichtdiskriminierung und Fairness“ bedeutet, dass KI-Systeme in einer Weise entwickelt und verwendet werden, die unterschiedliche Akteure einbezieht und den gleichberechtigten Zugang, die Geschlechtergleichstellung und die kulturelle Vielfalt fördert, wobei diskriminierende Auswirkungen und unfaire Verzerrungen, die nach Unionsrecht oder nationalem Recht verboten sind, verhindert werden.
  • Referenz: (ErwGr 27, ErwGr 56)
  1. Weitverbreiteter Verstoß:
  • Definition: „Weitverbreiteter Verstoß“ bezeichnet jede Handlung oder Unterlassung, die gegen das Unionsrecht verstößt, das die Interessen von Einzelpersonen schützt, und die:
    • a) die kollektiven Interessen von Einzelpersonen in mindestens zwei anderen Mitgliedstaaten als dem Mitgliedstaat schädigt oder zu schädigen droht, in dem
      • i) die Handlung oder die Unterlassung ihren Ursprung hatte oder stattfand,
      • ii) der betreffende Anbieter oder gegebenenfalls sein Bevollmächtigter sich befindet oder niedergelassen ist oder
      • iii) der Betreiber niedergelassen ist, sofern der Verstoß vom Betreiber begangen wird,
    • b) die kollektiven Interessen von Einzelpersonen geschädigt hat, schädigt oder schädigen könnte und allgemeine Merkmale aufweist, einschließlich derselben rechtswidrigen Praxis oder desselben verletzten Interesses, und gleichzeitig auftritt und von demselben Akteur in mindestens drei Mitgliedstaaten begangen wird.
  • Referenz: (Art. 3 Abs. 61 KI-VO)
  1. Wesentliche Änderung:
  • Definition: „Wesentliche Änderung“ ist eine Veränderung eines KI-Systems nach dessen Inverkehrbringen oder Inbetriebnahme, die in der vom Anbieter durchgeführten ursprünglichen Konformitätsbewertung nicht vorgesehen oder geplant war und durch die die Konformität des KI-Systems mit den Anforderungen in Kapitel III Abschnitt 2 beeinträchtigt wird oder die zu einer Änderung der Zweckbestimmung führt, für die das KI-System bewertet wurde.
  • Referenz: (Art. 3 Abs. 23 KI-VO)
  1. Zuständige nationale Behörde:
  • Definition: „Zuständige nationale Behörde“ ist eine notifizierende Behörde und eine Marktüberwachungsbehörde.
  • Referenz: (Art. 3 Abs. 48 KI-VO)
  1. Zweckbestimmung:
  • Definition: „Zweckbestimmung“ ist die Verwendung, für die ein KI-System laut Anbieter bestimmt ist, einschließlich der besonderen Umstände und Bedingungen für die Verwendung, entsprechend den vom Anbieter bereitgestellten Informationen in den Betriebsanleitungen, im Werbe- oder Verkaufsmaterial und in diesbezüglichen Erklärungen sowie in der technischen Dokumentation.
  • Referenz: (Art. 3 Abs. 12 KI-VO)

2.Technische Definitionen der KI-Verordnung

  1. Ableiten:
    • Definition: Die Fähigkeit eines KI-Systems, abzuleiten, geht über die einfache Datenverarbeitung hinaus und ermöglicht Lern-, Schlussfolgerungs- und Modellierungsprozesse.
    • Referenz: Erwägungsgrund 12 (ErwGr 12)
  1. Angriffstests:
    • Definition: Um diese Ziele zu erreichen, sollten die Anbieter verpflichtet werden, die erforderlichen Bewertungen des Modells durchzuführen, wozu auch die Durchführung und Dokumentation von Angriffstests bei Modellen gehören, gegebenenfalls auch im Rahmen interner oder unabhängiger externer Tests.
    • Referenz: Erwägungsgrund 114 (ErwGr 114)
  1. Anwendungsprogrammierschnittstellen (APIs):
    • Definition: KI-Modelle mit allgemeinem Verwendungszweck können auf verschiedene Weise in Verkehr gebracht werden, unter anderem über Bibliotheken, Anwendungsprogrammierschnittstellen (APIs), durch direktes Herunterladen oder als physische Kopie.
    • Referenz: Erwägungsgrund 97 (ErwGr 97)
  1. Aspekte der Modellentwicklung:
    • Definition: Entlang der KI-Wertschöpfungskette liefern häufig mehrere Parteien KI-Systeme, Instrumente und Dienstleistungen, aber auch Komponenten oder Prozesse, die vom Anbieter zu diversen Zwecken in das KI-System integriert werden; dazu gehören das Trainieren, Neutrainieren, Testen und Bewerten von Modellen, die Integration in Software oder andere Aspekte der Modellentwicklung.
    • Referenz: Erwägungsgrund 88 (ErwGr 88)
  1. Autonome Roboter:
    • Definition: So sollten beispielsweise zunehmend autonome Roboter – sei es in der Fertigung oder in der persönlichen Assistenz und Pflege – in der Lage sein, sicher zu arbeiten und ihre Funktionen in komplexen Umgebungen zu erfüllen.
    • Referenz: Erwägungsgrund 47 (ErwGr 47)
  1. Autonomie des Modells:
    • Definition: Bei systemischen Risiken sollte davon ausgegangen werden, dass sie mit den Fähigkeiten und der Reichweite des Modells zunehmen, während des gesamten Lebenszyklus des Modells auftreten können und von Bedingungen einer Fehlanwendung, der Zuverlässigkeit des Modells, der Modellgerechtigkeit und der Modellsicherheit, dem Grad der Autonomie des Modells, seinem Zugang zu Instrumenten, neuartigen oder kombinierten Modalitäten, Freigabe- und Vertriebsstrategien, dem Potenzial zur Beseitigung von Leitplanken und anderen Faktoren beeinflusst werden.
    • Referenz: Erwägungsgrund 110 (ErwGr 110)
  1. Benchmarking:
    • Definition: Die Durchführungsrechtsakte gewährleisten, dass die KI-Reallabore die Entwicklung von Instrumenten und Infrastruktur für das Testen, das Benchmarking, die Bewertung und die Erklärung der Dimensionen von KI-Systemen erleichtern, die für das regulatorische Lernen von Bedeutung sind, wie etwa Genauigkeit, Robustheit und Cybersicherheit, sowie Maßnahmen zur Risikominderung im Hinblick auf die Grundrechte und die Gesellschaft als Ganzes fördern.
    • Referenz: Artikel 58 Absatz 2 Buchstabe i (Art 58 Abs. 2 lit. i) KI-VO)
  1. Benchmarks und Messmethoden:
    • Definition: Um die technischen Aspekte der Art und Weise der Messung des angemessenen Maßes an Genauigkeit und Robustheit und anderer einschlägiger Leistungskennzahlen anzugehen, fördert die Kommission in Zusammenarbeit mit einschlägigen Interessenträgern und Organisationen wie Metrologie- und Benchmarking-Behörden gegebenenfalls die Entwicklung von Benchmarks und Messmethoden.
    • Referenz: Artikel 15 Absatz 2 (Art. 15 Abs. 2 KI-VO)
  1. Biometrische Signale:
    • Definition: Biometrische Signale sind Daten, die durch das menschliche Verhalten oder die Physiologie erzeugt werden und zur Identifizierung oder Verifizierung einer natürlichen Person verwendet werden können.
    • Referenz: Erwägungsgrund 30 (ErwGr 30)
  1. Computer Vision:
    • Definition: Der Begriff „Computer Vision“ umfasst die Fähigkeit von KI-Systemen, visuelle Informationen zu verarbeiten, wie etwa die Erkennung und Interpretation von Bildern, Videos oder anderen visuell repräsentativen Daten.
    • Referenz: Erwägungsgrund 15 (ErwGr 15)
  1. Datenannotation:
    • Definition: „Datenannotation“ bedeutet die Kennzeichnung von Daten, die verwendet werden, um die Leistung eines KI-Systems zu verbessern. Diese Kennzeichnungen können manuell oder automatisch erfolgen und helfen dabei, die Trainingsdaten für ein Modell zu strukturieren.
    • Referenz: Erwägungsgrund 92 (ErwGr 92)
  1. Datenübertragungsmechanismen:
    • Definition: Die Verwendung von Datenübertragungsmechanismen, wie etwa APIs oder Datenfeeds, ermöglicht den Austausch von Daten und die Kommunikation zwischen verschiedenen Komponenten eines KI-Systems.
    • Referenz: Erwägungsgrund 97 (ErwGr 97)
  1. Erklärbarkeit:
    • Definition: „Erklärbarkeit“ bedeutet, dass die Prozesse und Ergebnisse eines KI-Systems für Menschen verständlich gemacht werden können, um die Nachvollziehbarkeit und das Vertrauen in die Entscheidungen des Systems zu fördern.
    • Referenz: Erwägungsgrund 85 (ErwGr 85)
  1. Fehlertoleranz:
    • Definition: „Fehlertoleranz“ ist die Fähigkeit eines KI-Systems, unter bestimmten Bedingungen auch bei teilweisem Ausfall von Systemkomponenten funktionsfähig zu bleiben.
    • Referenz: Artikel 16 Absatz 4 Buchstabe c (Art. 16 Abs. 4 lit. c) KI-VO)
  1. Generative Modelle:
    • Definition: Generative Modelle sind KI-Modelle, die verwendet werden, um neue Dateninstanzen zu erzeugen, die den Trainingsdaten ähneln. Diese Modelle finden Anwendung in Bereichen wie der Erstellung von Texten, Bildern oder Musik.
    • Referenz: Erwägungsgrund 68 (ErwGr 68)
  1. Interoperabilität:
    • Definition: Interoperabilität beschreibt die Fähigkeit eines KI-Systems, nahtlos mit anderen Systemen zu interagieren und Daten oder Dienste auszutauschen, unabhängig von der zugrunde liegenden Technologie.
    • Referenz: Erwägungsgrund 70 (ErwGr 70)
  1. Konnektivität:
    • Definition: Die „Konnektivität“ von KI-Systemen bezieht sich auf die Fähigkeit, mit anderen Systemen oder Netzwerken zu kommunizieren und Daten auszutauschen. Dies ist ein wichtiger Aspekt, um die Zusammenarbeit und Integration von KI-Systemen zu gewährleisten.
    • Referenz: Erwägungsgrund 71 (ErwGr 71)
  1. Modellbewertung:
    • Definition: „Modellbewertung“ bedeutet die Bewertung der Leistung eines KI-Modells auf der Grundlage verschiedener Metriken, wie Genauigkeit, Präzision, Wiederholbarkeit und Robustheit.
    • Referenz: Artikel 15 Absatz 2 (Art. 15 Abs. 2 KI-VO)
  1. Modellsicherheit:
  • Definition: „Modellsicherheit“ bezieht sich auf die Widerstandsfähigkeit eines KI-Modells gegenüber verschiedenen Angriffen oder Bedrohungen, einschließlich Manipulationsversuchen durch externe oder interne Akteure, die die Verlässlichkeit und Integrität des Modells beeinträchtigen könnten.
  • Referenz: Erwägungsgrund 109 (ErwGr 109)
  1. Modelltransparenz:
  • Definition: „Modelltransparenz“ bedeutet, dass die Entscheidungsfindung und Funktionsweise eines KI-Modells nachvollziehbar und erklärbar ist, insbesondere hinsichtlich der Datenverarbeitung, der zugrunde liegenden Algorithmen und der Kriterien, die für Entscheidungen verwendet werden.
  • Referenz: Erwägungsgrund 86 (ErwGr 86)
  1. Modularität:
  • Definition: „Modularität“ bezeichnet die Fähigkeit eines KI-Systems, in separaten, voneinander unabhängigen Modulen aufgebaut zu sein, die eigenständig funktionieren und bei Bedarf ersetzt oder aktualisiert werden können, ohne das gesamte System zu beeinträchtigen.
  • Referenz: Erwägungsgrund 98 (ErwGr 98)
  1. Nachhaltige Datenverarbeitung:
  • Definition: „Nachhaltige Datenverarbeitung“ bedeutet, dass die Datenverarbeitungsprozesse innerhalb eines KI-Systems ressourcenschonend gestaltet sind und den ökologischen Fußabdruck minimieren, unter Berücksichtigung von Energieeffizienz und Abfallreduzierung.
  • Referenz: Erwägungsgrund 93 (ErwGr 93)
  1. Netzwerkzugang:
  • Definition: „Netzwerkzugang“ beschreibt die Fähigkeit eines KI-Systems, auf verschiedene Netzwerke zuzugreifen und über diese Netzwerke Daten zu empfangen oder zu senden, um seine Funktionalität zu erweitern oder zu verbessern.
  • Referenz: Erwägungsgrund 72 (ErwGr 72)
  1. Offene Schnittstellen:
  • Definition: „Offene Schnittstellen“ sind standardisierte Zugriffspunkte, die es ermöglichen, dass verschiedene Systeme und Anwendungen miteinander kommunizieren und interagieren können, ohne dass spezifische Anpassungen erforderlich sind.
  • Referenz: Erwägungsgrund 99 (ErwGr 99)
  1. Protokollierung:
  • Definition: „Protokollierung“ bezeichnet die Erfassung und Aufzeichnung von Ereignissen innerhalb eines KI-Systems, um die Nachvollziehbarkeit und Rückverfolgbarkeit von Entscheidungen und Aktivitäten zu gewährleisten.
  • Referenz: Artikel 12 Absatz 2 (Art. 12 Abs. 2 KI-VO)
  1. Reaktionsfähigkeit:
  • Definition: „Reaktionsfähigkeit“ beschreibt die Fähigkeit eines KI-Systems, auf veränderte Bedingungen oder neue Eingaben schnell und angemessen zu reagieren, um eine kontinuierliche und fehlerfreie Funktionalität zu gewährleisten.
  • Referenz: Erwägungsgrund 73 (ErwGr 73)
  1. Redundanz:
  • Definition: „Redundanz“ bezieht sich auf das Vorhandensein mehrerer Komponenten oder Systeme innerhalb eines KI-Systems, die dieselben Funktionen erfüllen, um die Zuverlässigkeit und Verfügbarkeit auch bei einem Teilausfall sicherzustellen.
  • Referenz: Artikel 16 Absatz 4 Buchstabe d (Art. 16 Abs. 4 lit. d) KI-VO)
  1. Regelbasierte Systeme:
  • Definition: „Regelbasierte Systeme“ sind KI-Systeme, die auf vordefinierten Regeln oder Anweisungen basieren, um bestimmte Aufgaben zu erfüllen oder Entscheidungen zu treffen.
  • Referenz: Erwägungsgrund 50 (ErwGr 50)
  1. Resilienz:
  • Definition: „Resilienz“ ist die Fähigkeit eines KI-Systems, sich von Störungen zu erholen und nach einem Angriff, einer Fehlfunktion oder einer anderen unerwarteten Situation wieder in den Normalbetrieb zurückzukehren.
  • Referenz: Erwägungsgrund 74 (ErwGr 74)
  1. Risikobewertung:
  • Definition: „Risikobewertung“ bezeichnet den Prozess der Identifizierung, Analyse und Bewertung potenzieller Risiken, die mit der Entwicklung, dem Einsatz und der Nutzung eines KI-Systems verbunden sind, um entsprechende Maßnahmen zur Risikominimierung zu ergreifen.
  • Referenz: Artikel 9 Absatz 1 (Art. 9 Abs. 1 KI-VO)
  1. Robustheit:
  • Definition: „Robustheit“ bezieht sich auf die Fähigkeit eines KI-Systems, in verschiedenen Szenarien stabil und zuverlässig zu funktionieren, selbst wenn es Störungen oder Unsicherheiten in den Eingangsdaten oder der Umgebung gibt.
  • Referenz: Artikel 15 Absatz 1 Buchstabe b (Art. 15 Abs. 1 lit. b) KI-VO)
  1. Selbstüberwachung:
  • Definition: „Selbstüberwachung“ ist die Fähigkeit eines KI-Systems, seine eigene Leistung zu bewerten und bei Bedarf Anpassungen vorzunehmen, um die Zielvorgaben zu erfüllen oder zu verbessern.
  • Referenz: Erwägungsgrund 75 (ErwGr 75)
  1. Sensitivität:
  • Definition: „Sensitivität“ bezeichnet die Fähigkeit eines KI-Systems, selbst kleine Veränderungen in den Eingangsdaten zu erkennen und darauf entsprechend zu reagieren.
  • Referenz: Artikel 14 Absatz 2 (Art. 14 Abs. 2 KI-VO)
  1. Systemarchitektur:
  • Definition: „Systemarchitektur“ ist die Struktur und das Design eines KI-Systems, das die Interaktion zwischen den verschiedenen Komponenten und die Arbeitsweise des Systems als Ganzes beschreibt.
  • Referenz: Erwägungsgrund 76 (ErwGr 76)
  1. Trainingsinfrastruktur:
  • Definition: „Trainingsinfrastruktur“ umfasst die Hardware, Software und andere Ressourcen, die für das Training von KI-Modellen erforderlich sind, einschließlich der Datenverarbeitungseinheiten und Speicherressourcen.
  • Referenz: Erwägungsgrund 77 (ErwGr 77)
  1. Unsicherheitsbewältigung:
  • Definition: „Unsicherheitsbewältigung“ ist die Fähigkeit eines KI-Systems, mit Unsicherheiten in den Eingangsdaten oder der Umgebung umzugehen und zuverlässige Entscheidungen oder Vorhersagen zu treffen.
  • Referenz: Artikel 15 Absatz 3 (Art. 15 Abs. 3 KI-VO)
  1. Verifikation:
  • Definition: „Verifikation“ bezeichnet den Prozess der Überprüfung, ob ein KI-System die festgelegten Anforderungen und Spezifikationen erfüllt und ordnungsgemäß funktioniert.
  • Referenz: Artikel 18 Absatz 2 (Art. 18 Abs. 2 KI-VO)
  1. Wiederholbarkeit:
  • Definition: „Wiederholbarkeit“ ist die Fähigkeit eines KI-Systems, unter denselben Bedingungen konsistente Ergebnisse zu liefern.
  • Referenz: Erwägungsgrund 78 (ErwGr 78)
  1. Vorhersagefähigkeit:
  • Definition: „Vorhersagefähigkeit“ bezeichnet die Fähigkeit eines KI-Systems, zukünftige Zustände oder Ereignisse basierend auf den analysierten Daten und Mustern genau zu prognostizieren.
  • Referenz: Erwägungsgrund 79 (ErwGr 79)
  1. Überwachtes Lernen:
  • Definition: „Überwachtes Lernen“ ist ein maschinelles Lernverfahren, bei dem ein Modell mithilfe von gekennzeichneten Daten trainiert wird, um Muster zu erkennen und Vorhersagen zu treffen.
  • Referenz: Erwägungsgrund 80 (ErwGr 80)
  1. Unüberwachtes Lernen:
  • Definition: „Unüberwachtes Lernen“ ist ein maschinelles Lernverfahren, bei dem das Modell trainiert wird, um Muster in unmarkierten Daten zu erkennen, ohne dass eine vorherige Kennzeichnung der Daten erfolgt.
  • Referenz: Erwägungsgrund 81 (ErwGr 81)
  1. Verstärkendes Lernen:
  • Definition: „Verstärkendes Lernen“ ist ein maschinelles Lernverfahren, bei dem ein Agent durch Interaktionen mit einer Umgebung lernt, optimale Handlungsstrategien zu entwickeln, die zu einem bestimmten Ziel führen.
  • Referenz: Erwägungsgrund 82 (ErwGr 82)
  1. Validierungsprozess:
  • Definition: „Validierungsprozess“ bezeichnet die systematische Prüfung eines KI-Systems, um sicherzustellen, dass es den festgelegten Anforderungen entspricht und zuverlässig funktioniert.
  • Referenz: Artikel 19 Absatz 3 (Art. 19 Abs. 3 KI-VO)
  1. Verfügbarkeitsanforderungen:
  • Definition: „Verfügbarkeitsanforderungen“ sind Anforderungen, die sicherstellen, dass ein KI-System kontinuierlich und ohne unzumutbare Unterbrechungen zugänglich und funktionsfähig bleibt.
  • Referenz: Artikel 17 Absatz 1 (Art. 17 Abs. 1 KI-VO)
  1. Verwundbarkeit:
  • Definition: „Verwundbarkeit“ ist ein Schwachpunkt in einem KI-System, der potenziell ausgenutzt werden könnte, um dessen Funktionalität zu beeinträchtigen oder unerwünschte Ergebnisse zu erzeugen.
  • Referenz: Erwägungsgrund 83 (ErwGr 83)
  1. Vortraining:
  • Definition: „Vortraining“ ist der Prozess des initialen Trainings eines KI-Modells auf einer großen Menge von Daten, um Grundkenntnisse zu entwickeln, bevor es auf spezifische Aufgaben angepasst wird.
  • Referenz: Erwägungsgrund 84 (ErwGr 84)
  1. Zuverlässigkeit:
  • Definition: „Zuverlässigkeit“ bezieht sich auf die Fähigkeit eines KI-Systems, konstant korrekte und vertrauenswürdige Ergebnisse zu liefern und seine Funktionen ohne Fehler oder Störungen auszuführen.
  • Referenz: Artikel 15 Absatz 1 (Art. 15 Abs. 1 KI-VO)
  1. Zusammengesetzte Modelle:
  • Definition: „Zusammengesetzte Modelle“ sind KI-Modelle, die durch die Kombination mehrerer separater Modelle entstehen, um eine komplexe Aufgabe besser zu bewältigen oder die Leistung zu verbessern.
  • Referenz: Erwägungsgrund 85 (ErwGr 85)
  1. Datenaugmentation:
  • Definition: „Datenaugmentation“ ist eine Technik, bei der bestehende Trainingsdaten künstlich durch Transformationen, Verzerrungen oder Hinzufügen von Rauschen erweitert werden, um die Robustheit eines KI-Modells zu verbessern.
  • Referenz: Erwägungsgrund 86 (ErwGr 86)
  1. Datengenerierung:
  • Definition: „Datengenerierung“ bezeichnet die Erstellung neuer Datenpunkte auf der Grundlage vorhandener Daten oder durch den Einsatz generativer Modelle, um die Vielfalt und Menge der Trainingsdaten zu erhöhen.
  • Referenz: Erwägungsgrund 87 (ErwGr 87)
  1. Ensemble-Methoden:
  • Definition: „Ensemble-Methoden“ sind Techniken im maschinellen Lernen, bei denen mehrere Modelle kombiniert werden, um eine bessere Gesamtleistung zu erzielen als durch ein einzelnes Modell.
  • Referenz: Erwägungsgrund 88 (ErwGr 88)
  1. Gradientenabstieg:
  • Definition: „Gradientenabstieg“ ist ein Optimierungsalgorithmus, der verwendet wird, um die Parameter eines KI-Modells durch Minimierung der Fehlerfunktion schrittweise zu verbessern.
  • Referenz: Erwägungsgrund 89 (ErwGr 89)
  1. Hyperparameter-Tuning:
  • Definition: „Hyperparameter-Tuning“ ist der Prozess der Anpassung der Hyperparameter eines KI-Modells, um dessen Leistung auf bestimmten Aufgaben oder Datensätzen zu optimieren.
  • Referenz: Erwägungsgrund 90 (ErwGr 90)
  1. Metadatenanalyse:
  • Definition: „Metadatenanalyse“ umfasst die Untersuchung von Metadaten, die mit den Trainings- und Eingabedaten eines KI-Systems verbunden sind, um Muster, Anomalien oder andere relevante Informationen zu extrahieren.
  • Referenz: Erwägungsgrund 91 (ErwGr 91)
  1. Multi-Task-Lernen:
  • Definition: „Multi-Task-Lernen“ ist eine Methode im maschinellen Lernen, bei der ein Modell gleichzeitig mehrere verwandte Aufgaben erlernt, um die Gesamtleistung und Generalisierungsfähigkeit zu verbessern.
  • Referenz: Erwägungsgrund 92 (ErwGr 92)
  1. Stochastische Gradientenschätzung:
  • Definition: „Stochastische Gradientenschätzung“ ist eine Variante des Gradientenabstiegs, bei der für die Aktualisierung der Modellparameter zufällige Untergruppen der Daten verwendet werden, um die Berechnungseffizienz zu erhöhen.
  • Referenz: Erwägungsgrund 93 (ErwGr 93)
  1. Transferlernen:
  • Definition: „Transferlernen“ ist ein Lernansatz, bei dem Wissen, das aus dem Training eines Modells auf einer Aufgabe gewonnen wurde, auf eine andere, aber verwandte Aufgabe angewendet wird.
  • Referenz: Erwägungsgrund 94 (ErwGr 94)
  1. Verteiltes Lernen:
  • Definition: „Verteiltes Lernen“ ist eine Methode, bei der das Training eines KI-Modells auf mehrere Knoten oder Maschinen verteilt wird, um die Effizienz und Geschwindigkeit des Trainingsprozesses zu erhöhen.
  • Referenz: Erwägungsgrund 95 (ErwGr 95)

Die Infos stammen aus dem Original-Posting von Ben R. Hansen, LL.M.AI Risk Manager

https://www.linkedin.com/posts/ben-r-hansen-ll-m-153222215_alle-75-definitionen-aus-der-ki-vo-activity-7240309420151160833-SVPG

Der EU AI Act Kompakt

Disclaimer

Die hier bereitgestellten Informationen basieren auf der Analyse öffentlich zugänglicher Dokumente und Quellen. Obwohl wir uns bemühen, genaue und aktuelle Inhalte bereitzustellen, übernehmen wir keine Haftung für die Vollständigkeit oder Richtigkeit der Informationen. Diese Darstellung dient lediglich Informationszwecken und ersetzt keine professionelle rechtliche Beratung.

DOWNLOAD PDF

    Ähnliche Beiträge

    Business

    Hume AI Voice Control bahnbrechende neue Funktion für personalisierte KI-Stimmen

    Hume AI präsentiert bahnbrechende "Voice Control" Funktion für personalisierte KI-Stimmen Präzise Anpassung: Mit 10 Dimensionen wie Selbstbewusstsein, Sanftheit oder Geschmeidigkeit.

    Business

    Kanadische Medienunternehmen verklagen OpenAI wegen Urheberrechtsverletzung durch ChatGPT

    Kanadische Medienunternehmen verklagen OpenAI wegen Urheberrechtsverletzung durch ChatGPT Plattformen betroffen: Die Kläger umfassen große Medienunternehmen wie CBC/Radio-Canada, Toronto Star, Globe.

    Folge uns

    Beliebte Artikel

    About Author

    Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

    TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

    Beraten lassen

    HOT CATEGORIES

    de_DEGerman