Ethik und Gesellschaft

Algorithmische Fairness als Schlüssel zur verantwortungsvollen künstlichen Intelligenz

Mehr als 30% der großen Unternehmen in der Europäischen Union nutzen mittlerweile Künstliche Intelligenz (KI). Dieser Trend zeigt, wie KI in verschiedene Lebensbereiche eingedrungen ist, von der Mitarbeiterrekrutierung über den Produktverkauf bis hin zur Cybersicherheit. Hinter diesen Algorithmen verbirgt sich jedoch eine der größten Herausforderungen der KI: Verzerrungen. Mechanismen zur Minderung von Verzerrungen und zur Erreichung algorithmischer Fairness zu finden, ist eine Notwendigkeit geworden, um Modelle zu erstellen, die mit menschlichen Kriterien übereinstimmen. Das musst du wissen – Algorithmische Fairness Verbreitung von KI: Über 30% der großen Unternehmen in der EU nutzen KI. Herausforderung der Verzerrungen: Bias ist eine der größten Herausforderungen bei KI. Generative KI: Große Sprachmodelle können Stereotypen und Fehlinformationen enthalten. Ursachen der Verzerrungen: Problemdefinition, Datensammlung, Datenvorbereitung. Arten von Verzerrungen: Selektions-, Automatisierungs-, Korrespondenz- und implizite Verzerrung. „Algorithmische Fairness besteht darin, KI-Systeme, einschließlich maschineller Lernsysteme, so zu gestalten und zu entwickeln, dass sie fair und gerecht funktionieren und nicht diskriminieren“, erklärt Marco Creatura, Datenwissenschaftler bei BBVA AI Factory. „Das Hauptanliegen ist, dass KI bestehende soziale Verzerrungen nicht replizieren, verstärken oder verschärfen sollte. Fairness in diesem Zusammenhang bedeutet das Fehlen von Verzerrungen. Im Bereich der Entscheidungsfindung wird Verzerrung als jede Vorliebe oder Benachteiligung gegenüber einer Person oder Gruppe aufgrund ihrer angeborenen oder erworbenen Eigenschaften definiert“, fährt er fort. Darüber hinaus sind generative KI-Algorithmen komplexer als klassische maschinelle Lernalgorithmen, deren Ausgabe normalerweise eine Punktzahl oder eine Wahrscheinlichkeit ist. „Große Sprachmodelle werden auf riesigen Mengen von Textdaten trainiert, die typischerweise aus dem Internet stammen. Diese Daten sind oft unkurat, was bedeutet, dass sie Stereotypen, Fehldarstellungen und ausgrenzende oder abwertende Sprache über bestimmte soziale und verletzliche Gruppen enthalten können. Die Komplexität liegt darin, dass Sprache selbst eine Technologie ist, die soziale und kulturelle Normen widerspiegelt“, sagt Clara Higuera, Datenwissenschaftlerin bei BBVA AI Factory. Die Verzerrungserkennung in generativer KI ist ein aufstrebendes Feld, das sich noch in der Erkundungsphase befindet. Trotzdem wird es bereits angewendet, um Leitplanken und Werkzeuge zu schaffen, die diese Verzerrungen identifizieren. Laut einer UNESCO-Studie können die von generativer KI verwendeten Sprachmodelle geschlechtsspezifische, rassistische und homophobe Verzerrungen reproduzieren, die zur Fehlinformation beitragen. Wie entstehen Verzerrungen, die Haupthindernisse für algorithmische Fairness? Verzerrungen sind vielfältig und können in verschiedenen Phasen auftreten, wie in einem Artikel der MIT Technology Review festgestellt wird: Während der Problemdefinition: Entwickler beginnen damit, das Ziel des Algorithmus festzulegen. Dies beinhaltet die Definition von Metriken aus diffusen Aspekten wie „Effektivität“, einem verschwommenen und subjektiven Konzept, das offen für Interpretationen ist, die nicht immer unparteiisch sind. Wenn ein Algorithmus einer Streaming-Plattform beispielsweise die maximale Zuschauerzeit anstrebt, könnten Empfehlungen die bisherigen Interessen der Zuschauer verstärken, anstatt ihre Erfahrungen mit anderem Inhalt zu diversifizieren. Während der Datensammlung: Es gibt zwei mögliche Gründe für dieses Phänomen: entweder sind die gesammelten Daten nicht repräsentativ für die Realität, oder sie spiegeln bestehende Verzerrungen wider. Wenn ein Algorithmus beispielsweise mehr Fotos von hellhäutigen als von dunkelhäutigen Gesichtern erhält, wird die Gesichtserkennung im letzteren Fall weniger genau sein. Ein weiteres Beispiel sind einige Einstellungstools, die Frauen für technische Positionen ausschlossen, weil der Algorithmus auf historisch verzerrten Einstellungsentscheidungen trainiert wurde. Während der Datenvorbereitung: Attribute, die der Algorithmus zur Entscheidungsfindung verwenden wird, wie Alter oder persönliche Geschichte, werden oft im Voraus ausgewählt und vorbereitet. Solche Attribute können sozioökonomische oder geschlechtsbezogene Verzerrungen in KI-Systeme einbringen. Diese Verzerrungen können auch bei der Datenkennzeichnung auftreten, insbesondere bei der Durchführung von Datenanmerkungsaufgaben, da Anmerkende ihre eigenen Verzerrungen einbringen können. Welche Arten von Verzerrungen sollte die algorithmische Fairness adressieren? Die Verzerrungen, die Algorithmen aufweisen können, treten in verschiedenen Formen und Typen auf. „Das Ansprechen und Mildern von Verzerrungen ist wesentlich, um KI-Systeme zu entwickeln, die fair und für alle Nutzer von Vorteil sind. Auf diese Weise gewährleisten wir gerechte Entscheidungen und bauen Vertrauen in aufstrebende Technologien auf“, sagen Marco Creatura und Clara Higuera. Einige Arten von Verzerrungen laut Google sind: Selektionsverzerrung: Diese tritt auf, wenn Beispiele aus einem Datensatz so ausgewählt werden, dass sie deren Verteilung in der realen Welt nicht widerspiegeln. „Da man einen Algorithmus nicht mit dem gesamten Universum von Daten trainieren kann, muss der Teil sorgfältig im Kontext ausgewählt werden. Eine Stichprobe, die nicht repräsentativ für das Ganze ist oder eine, die unausgewogen zu einer Gruppe neigt, führt zu ebenso verzerrten Ergebnissen“, erklärt das Cervantes-Institut. Automatisierungsverzerrung: Dies ist die Tendenz, standardmäßig alles zu glauben, was automatisierte Systeme melden, unabhängig von der tatsächlichen Fehlerquote. Dies führt dazu, dass Informationen als selbstverständlich angesehen werden, die manchmal nicht vollständig begründet sind. „Wenn Menschen Entscheidungen in relativ kurzen Zeiträumen treffen müssen, neigen sie dazu, sich auf das zu verlassen, was ein Algorithmus ihnen rät“, bemerkt Ryan Kennedy, Professor an der Universität von Houston, der sich auf Automatisierung spezialisiert hat, in einem Forschungspapier. Korrespondenzverzerrung: Diese tritt auf, wenn Algorithmen über Menschen verallgemeinern und sie basierend auf ihrer Gruppenzugehörigkeit bewerten, anstatt ihre individuellen Merkmale zu beurteilen. Ein Beispiel wäre, anzunehmen, dass alle Menschen, die dieselbe Hochschule besucht haben, gleichermaßen für einen Job qualifiziert sind. Implizite Verzerrung: Diese tritt auf, wenn Annahmen auf der Grundlage der persönlichen Situationen und Erfahrungen der Algorithmusentwickler selbst getroffen werden, die auf einer allgemeineren Ebene nicht zutreffen. Diese Verzerrung könnte ihren Ansatz zur Modellierung und zum Training beeinflussen, da Entwickler möglicherweise unbeabsichtigt ihre eigenen Verzerrungen einführen. Initiativen und Vorschläge zur Erreichung algorithmischer Fairness Es gibt viele weitere Arten von Verzerrungen, die in den Algorithmen, mit denen die Gesellschaft täglich interagiert, vorhanden sein können. Aber es gibt auch Initiativen und Vorschriften, die darauf abzielen, algorithmische Fairness zu fördern und Ungerechtigkeiten zu mildern. „Regierungen und Organisationen haben begonnen, Richtlinien und Vorschriften umzusetzen, um sicherzustellen, dass KI-Technologien fair und verantwortungsvoll sind. Dies umfasst die Schaffung ethischer Rahmenwerke und spezifischer Gesetze zur Nutzung von KI, um Diskriminierung zu verhindern“, sagt Marco Creatura und verweist auf die Verordnung über Künstliche Intelligenz (AI Act) der Europäischen Union. Tatsächlich betreibt die Europäische Union auch ein Projekt, das Vorschläge und Vorlagen für Unternehmen bietet, um zu überprüfen, ob Systeme und Anwendungen den Datenschutz-Grundverordnungen (GDPR) und verschiedenen Transparenzanforderungen entsprechen. Auf diese Weise stellen Organisationen sicher, dass sie sich auf bewährte Verfahren für Vertrauen und Sicherheit stützen, da eines der Ziele Europas darin besteht, sicherzustellen, dass KI für alle Menschen auf inklusive Weise funktioniert. In Spanien hat die spanische Datenschutzbehörde (AEPD) eine Reihe von Richtlinien zur Überprüfung von KI-Systemen veröffentlicht, mit einem speziellen Abschnitt zur Überprüfung von Verzerrungen in den verwendeten Datenquellen. „Aktuelle Forschung konzentriert sich auf Methoden zur Korrektur von Verzerrungen in Daten und Modellen. Dies umfasst repräsentativere Datensammlungstechniken, Anpassungen an Algorithmen und Änderungen an der Nachbearbeitung von Ergebnissen, um gerechtere Entscheidungen zu gewährleisten“, sagt Marco Creatura. Darüber hinaus sind Fairness-Metriken aufgetaucht, um maschinelle Lernmodelle zu bewerten. Es wird betont, KI-Modelle transparenter und interdisziplinärer zu gestalten. Solche Modelle beinhalten nicht nur Datenwissenschaftler und Entwickler, sondern auch Ethiker, Soziologen und Vertreter betroffener Gruppen. Dies zeigt sich durch Projekte wie die Algorithmic Justice League, eine Organisation, die von Joy Buolamwini, einer Forscherin am Massachusetts Institute of Technology (MIT) und Pionierin der KI-Aktivisten, gegründet wurde. Diese Institution widmet sich der Analyse, wie KI-Systeme auf verschiedene Weise zur Diskriminierung führen können, und informiert die Öffentlichkeit über die Risiken. Wie sie auf ihrer Website angeben, ist es trotz der vielversprechenden neuen Werkzeuge entscheidend, „eine Bewegung zu schaffen, um das KI-Ökosystem in Richtung gerechter und verantwortlicher KI zu verschieben.“ Fazit: Algorithmische Fairness als Schlüssel zur verantwortungsvollen künstlichen Intelligenz Algorithmische Fairness ist nicht nur ein technisches, sondern auch ein gesellschaftliches Anliegen. Die Herausforderungen, die Verzerrungen in KI-Systemen darstellen, erfordern eine umfassende Herangehensweise, die von technischer Innovation bis hin zu ethischen Überlegungen reicht. Durch die Kombination von regulatorischen Maßnahmen, wie dem AI Act der EU, und praktischen Ansätzen zur Verbesserung der Datenrepräsentativität und Algorithmentransparenz können bedeutende Fortschritte erzielt werden. Es ist entscheidend, dass alle Beteiligten – von Entwicklern und Datenwissenschaftlern bis hin zu Politikern und der allgemeinen Öffentlichkeit – sich der Auswirkungen von KI-Verzerrungen bewusst sind und zusammenarbeiten, um gerechtere und verantwortungsvollere KI-Systeme zu schaffen. Letztlich hängt der Erfolg von algorithmischer Fairness davon ab, wie gut wir in der Lage sind, sowohl technologische als auch gesellschaftliche Barrieren zu überwinden, um eine inklusive und gerechte Zukunft zu sichern. #ArtificialIntelligence #AI #AlgorithmicFairness #MachineLearning #BiasInAI BBVA

Exit mobile version