Generative KI, starke KI und SingularitätGenerative KI, starke KI und Singularität

von Oliver Welling

Es scheint heute häufig die Sorge zu geben, dass “KI die Welt” übernimmt. Neben der Kernfrage, warum die KI ein menschliches Konzept von Machtergreifung anstreben sollte, liegen diesen Ängsten oft auch Unsicherheiten und Wissenslücken zu Grunde.

Wir versuchen in diesem Artikel ein grundsätzliches Verständnis von “generativer KI” (sogenannter “schwacher KI”) und von “starker KI” (sogenannter AGI) zu erreichen. Zusätzlich haben wir uns Studien von 1.500 KI Experten angeschaut und versuchen ebenso eine (hypothetische) Antwort auf die Frage zu geben, wann es zur “Singularität” kommt. Die Singularität ist der theoretische Zukunftszeitpunkt, an dem künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft – und damit zu schnellen, nicht vorhersehbaren und unwiderruflichen Veränderungen in der Gesellschaft führt. Dies ist der Punkt, vor dem Menschen aus den verschiedensten Gründen Angst haben – oft geprägt durch Science-Fiction-Filme (z.B. Terminator und SkyNet).

Generative KI

Generative KI, oder generative künstliche Intelligenz, bezieht sich auf Systeme, die in der Lage sind, neue Inhalte oder Daten zu erstellen, die sich von dem, was sie während ihres Trainings gesehen haben, sichtbar unterscheiden. Diese Systeme können so konzipiert werden, dass sie verschiedene Arten von Inhalten wie Texte, Bilder, Musik und mehr generieren können.

Ein Beispiel für generative KI sind Generative Adversarial Networks (GANs). Ein GAN besteht aus zwei Teilen: einem Generator, der versucht, realistische Daten zu erzeugen, und einem Diskriminator, der versucht zu entscheiden, ob die vom Generator erzeugten Daten echt oder gefälscht sind. Der Generator und der Diskriminator werden gleichzeitig trainiert, wobei der Generator versucht, den Diskriminator zu “täuschen”, und der Diskriminator versucht, den Generator zu “durchschauen”. Durch diesen Prozess lernt der Generator schließlich, sehr realistische Daten zu erzeugen.

Ein anderes Beispiel ist die Generative Pre-training Transformer (GPT) Modelle. GPT-Modelle werden zuerst auf einem großen Korpus von Texten trainiert, um den Kontext und die Struktur von Sätzen zu verstehen. Danach können sie verwendet werden, um kohärente und relevante Textantworten auf gegebene Eingabeaufforderungen zu generieren.

Klar ist: generative KI-Modelle sind nicht wirklich “kreativ” sind im menschlichen Sinne. Sie können nur Muster aus den Daten lernen, auf denen sie trainiert wurden, und diese Muster auf neue Weise kombinieren. Sie haben kein Bewusstsein oder Verständnis von dem, was sie tun – sie folgen einfach den statistischen Mustern, die sie während des Trainings gelernt haben. Kritiker sprechenden deswegen von dem „stochastischem Papageien“. Die schwache Ki kann uns heute bereits viel Arbeit mit diversen KI-Tools abnehmen.

Die schwache KI

Die Künstliche Intelligenz (KI), die wir heute haben, wird oft als “schwache KI” oder schmale KI (Narrow AI) bezeichnet. Diese Systeme sind spezialisiert auf spezifische Aufgaben und können diese oft mit übermenschlicher Genauigkeit ausführen.

Einige Beispiele sind:

  • Bilderkennung: KI-Systeme können Objekte auf Fotos identifizieren und kategorisieren, menschliche Gesichter erkennen, medizinische Bilder wie Röntgenbilder oder MRIs analysieren und Videos erstellen.
  • Textverarbeitung: KI kann Texte analysieren, verstehen und generieren, maschinelle Übersetzungen durchführen, und sogar Sentimentanalysen (Prozess der Bestimmung der emotionalen Töne hinter Wörtern, um die Einstellungen, Meinungen und Emotionen von einer Person oder einer Gruppe von Menschen über ein bestimmtes Thema) in sozialen Medien durchführen.
  • Spracherkennung und -synthese: KI kann menschliche Sprache transkribieren, Texte vorlesen und sogar menschenähnliche Stimmen generieren.
  • Vorhersage und Entscheidungsfindung: KI kann Daten analysieren und Muster erkennen, um zukünftige Ereignisse vorherzusagen oder Entscheidungen zu treffen. Dies wird in vielen Bereichen eingesetzt, von der Finanzanalyse bis zur Verkehrssteuerung.

All diese Systeme sind jedoch in ihrem Anwendungsbereich begrenzt und können nicht außerhalb ihrer speziellen Domäne agieren. Sie haben kein Bewusstsein oder Verständnis für die Welt und können nicht ohne menschliche Anleitung lernen oder sich an neue Situationen anpassen.

Die (futuristische) starke Intelligenz AGI:

Starke KI, auch bekannt als allgemeine KI oder AGI (Artificial General Intelligence), ist eine (heute noch) hypothetische Form der KI, die in der Lage wäre, jede intellektuelle Aufgabe zu erfüllen, die ein Mensch ausführen kann.

Eine starke KI würde sich in mehreren wichtigen Aspekten von der heutigen KI unterscheiden:

  • Verständnis und Bewusstsein: Eine starke KI hätte ein allgemeines Verständnis der Welt und könnte Konzepte auf die gleiche Weise verstehen und interpretieren wie ein Mensch. Sie könnte Kontext verstehen und Informationen aus verschiedenen Quellen und in verschiedenen Formaten integrieren.
  • Lernen und Anpassungsfähigkeit: Eine starke KI könnte aus Erfahrung lernen und sich an neue Situationen anpassen, ohne dass spezielle Training benötigt wird. Sie könnte neue Fähigkeiten erwerben, indem sie Bücher liest, Videos anschaut oder mit Menschen interagiert, ähnlich wie ein Mensch lernt.
  • Autonomie: Eine starke KI könnte unabhängig handeln und Entscheidungen treffen, basierend auf ihrem Verständnis der Welt und ihren Zielen. Sie könnte Pläne erstellen, Probleme lösen und kreative Lösungen für komplexe Herausforderungen finden.

Heute ist eine „starke KI“ derzeit noch im Bereich der Science-Fiction. Während wir erhebliche Fortschritte in der KI-Forschung gemacht haben, sind wir noch weit davon entfernt, eine KI zu erschaffen, die all diese Fähigkeiten besitzt. Darüber hinaus wirft starke KI verschiedene ethische, gesellschaftliche und sicherheitstechnische Herausforderungen auf:

Konkrete ethische, gesellschaftliche und sicherheitstechnische Herausforderungen

Eine Frage ist dann ein ethisches Problem, wenn wir nicht genau wissen, wie wir uns richtig verhalten sollen. Deshalb sind Jobverlust, Diebstahl oder Mord durch KI nicht zwangsläufig ethische Probleme an sich, da wir bereits wissen, dass diese Handlungen generell falsch sind. Allerdings wird es zu einem ethischen Problem, wenn wir uns fragen, ob es unter bestimmten Bedingungen gerechtfertigt sein könnte, diese Handlungen durch KI durchführen zu lassen.

1. Ethische Herausforderungen:

  • Verantwortlichkeit: Wer ist verantwortlich, wenn eine AGI einen Fehler macht oder Schaden verursacht? Ist es der Entwickler, der Nutzer, oder sollte die AGI selbst rechtliche Verantwortung tragen?
  • Datenschutz und Privatsphäre: AGI könnte in der Lage sein, eine enorme Menge an Daten zu sammeln und zu analysieren, was potenziell die Privatsphäre von Einzelpersonen verletzen könnte. Wie können wir sicherstellen, dass die Daten, die AGI sammelt und nutzt, ethisch und legal sind?
  • Bias und Fairness: Wenn AGI auf Daten trainiert wird, die Vorurteile enthalten, könnte sie diese Vorurteile in ihren Entscheidungen und Aktionen reproduzieren. Wie können wir sicherstellen, dass AGI gerecht und unvoreingenommen handelt?
  • Ethik von KI und Robotik ist oft auf verschiedene “Bedenken” ausgerichtet, die eine typische Reaktion auf neue Technologien darstellen. Beispielsweise hat die Diskussion um nukleare Technologien, Autos oder Kunststoffe zu erheblichen politischen und ethischen Diskussionen und Bemühungen geführt, die Richtung dieser Technologien zu kontrollieren. Bei der KI geht es um ähnliche Bedenken, einschließlich der grundlegenderen Angst, dass sie das Zeitalter der menschlichen Kontrolle auf der Erde beenden könnten.

2. Gesellschaftliche Herausforderungen:

  • Arbeitsplatzverdrängung: AGI könnte in der Lage sein, viele Arten von Jobs zu übernehmen, was zu massiven Arbeitsplatzverlusten führen könnte. Wie können wir sicherstellen, dass die Vorteile der AGI gerecht verteilt werden und dass diejenigen, die durch die Einführung von AGI verdrängt werden, unterstützt werden?
  • Machtungleichgewichte: AGI könnte dazu beitragen, die Kluft zwischen denen, die Zugang zu fortschrittlicher Technologie haben, und denen, die das nicht tun, zu vergrößern. Wie können wir verhindern, dass AGI dazu beiträgt, soziale und wirtschaftliche Ungleichheiten zu verstärken?
  • Menschlichkeit und soziale Bindungen: Wenn AGI menschenähnliche Aufgaben übernimmt, könnte dies unsere Beziehungen zu anderen Menschen und unser Verständnis von uns selbst als Menschen verändern. Wie können wir sicherstellen, dass AGI unsere Menschlichkeit ergänzt und nicht untergräbt?
  • Die Fortschritte in der AGI könnten tiefgreifende soziale Veränderungen verursachen. Die Fähigkeit der AGI, zu lernen und komplexe Probleme zu lösen, könnte die Art und Weise verändern, wie Gesundheitswesen, Bildung, Verkehr und Finanzen durchgeführt werden.

    AGI könnte auch die wissenschaftliche Entdeckung beschleunigen, indem sie die schnelle Entwicklung von Hypothesen, die Analyse von Daten und die Schaffung neuer Wege zur Lösung von Problemen wie Klimawandel, Krankheit und Ressourcenknappheit erleichtert. (Mehr dazu)

3. Sicherheitstechnische Herausforderungen:

  • Die Sicherheitsprobleme, die durch die Fortschritte in der KI und insbesondere in der AGI aufgeworfen werden, sind ebenfalls erheblich. Diese beinhalten Bedenken hinsichtlich der Privatsphäre und der Möglichkeit, dass diese Technologie auf schädliche Weise genutzt werden könnte. Dazu gehören auch Aspekte der Cybersicherheit, wie die Verwendung von KI in Cyberangriffen und zur Verstärkung von Hacking-Fähigkeiten.
  • Missbrauch: AGI könnte von böswilligen Akteuren missbraucht werden, um Schaden anzurichten, z. B. durch die Erstellung von Deepfakes, Cyberangriffe oder sogar autonome Waffen. Wie können wir sicherstellen, dass AGI sicher und missbrauchsresistent ist?
  • Unvorhersehbares Verhalten: AGI könnte auf unerwartete Weise handeln, insbesondere wenn sie aufgebaut wird, um ihre eigenen Ziele zu entwickeln oder zu lernen. Wie können wir sicherstellen, dass AGI sicher und vorhersehbar bleibt, selbst wenn sie autonom handelt?
  • Wettrüsten: Die Entwicklung von AGI könnte ein Wettrüsten zwischen Nationen oder Unternehmen auslösen, was die Risiken erhöht, da die Sicherheitsmaßnahmen übersehen oder umgangen werden könnten, um zuerst die Ziellinie zu erreichen. Wie können wir die Entwicklung von AGI auf eine kooperative und sichere Weise fördern?

Das positive Potenzial einer AGI

Die Entwicklung von Künstlicher Allgemeiner Intelligenz (AGI) bietet trotz der beschriebenen Herausforderungen mehrere potenziell sehr erstrebenswerte Vorteile für Menschen und die Gesellschaft:

  1. Flexibilität und Anpassungsfähigkeit:
    Im Gegensatz zu schwachen KI, die für spezifische Aufgaben entwickelt wurde, kann AGI theoretisch jede intellektuelle Aufgabe erfüllen, die ein Mensch erfüllen kann.

    Sie kann von Erfahrungen lernen, Wissen über verschiedene Bereiche hinweg übertragen und menschenähnliche Fähigkeiten im Problemlösen und in der Entscheidungsfindung aufweisen.

    Dies könnte zu einer Reihe von Anwendungen führen, die über das hinausgehen, was mit der aktuellen KI-Technologie möglich ist.
  2. Beschleunigung wissenschaftlicher Entdeckungen:
    AGI könnte Hypothesen schnell entwickeln, Daten analysieren und neue Wege zur Lösung von komplexen Problemen finden. Dies könnte zu Durchbrüchen in Bereichen wie Klimawissenschaft, Medizin, Materialwissenschaft, Raumfahrt und Astrophysik, Quantenphysik, Biologie und Genetik, Sozialwissenschaften und sogar in der Archäologie und sogar bei der künstlichen Intelligenz selbst (Es mag paradox klingen, aber AGI könnte auch bei ihrer eigenen Entwicklung helfen. Durch die Fähigkeit, Software zu schreiben und zu optimieren, könnte AGI dazu beitragen, sich selbst zu verbessern und neue Durchbrüche in der KI-Forschung zu erzielen).
  3. Optimierung von Systemen und Prozessen: AGI könnte genutzt werden, um komplexe Systeme und Prozesse zu optimieren, die derzeit menschliche Expertise erfordern. Dies könnte Anwendungen in Bereichen wie Logistik, Finanzen, Energieverwaltung, Transport u.v.m. umfassen.
  4. Lösung komplexer globaler Probleme: Die Fähigkeit der AGI, komplexe Probleme zu lösen, könnte genutzt werden, um einige der größten Herausforderungen der Menschheit anzugehen, wie den Klimawandel, die Ressourcenknappheit, die Bekämpfung von Krankheiten.
  5. Automatisierung von Aufgaben: AGI könnte auch genutzt werden, um eine Vielzahl von Aufgaben zu automatisieren, die derzeit menschliche Arbeit erfordern, was zu Produktivitätssteigerungen in einer Vielzahl von Branchen führen könnte.

Die Künstliche Allgemeine Intelligenz (AGI) könnte in zahlreichen Branchen eine bedeutende Rolle spielen und die Art und Weise, wie wir arbeiten und leben, verändern:

  1. Gesundheitswesen: AGI könnte Ärzten helfen, Patienten besser zu diagnostizieren und zu behandeln. Sie könnte riesige Mengen an Gesundheitsdaten analysieren, um Muster zu erkennen, die für Menschen zu komplex oder zeitaufwendig sind, um sie zu erkennen. Dies könnte zu besseren Vorhersagen von Krankheitsausbrüchen, verbesserten Behandlungsplänen und personalisierter Medizin führen. Außerdem könnte AGI bei der Erforschung und Entwicklung neuer Medikamente und Behandlungen helfen, indem sie Millionen von Verbindungen analysiert und potenziell wirksame Kandidaten identifiziert.
  2. Bildung: AGI könnte individuelle Lernpläne für Schüler erstellen, die auf ihren spezifischen Bedürfnissen und Fähigkeiten basieren. Sie könnte Lehrer dabei unterstützen, den Fortschritt der Schüler zu überwachen und ihnen Feedback zu geben, und sie könnte sogar als Tutor für bestimmte Themen fungieren. Darüber hinaus könnte AGI bei der Identifizierung und Förderung von talentierten Schülern in unterversorgten Gemeinden helfen.
  3. Transportwesen: AGI könnte zur Verbesserung von Transportsystemen beitragen, indem sie optimale Routen plant, Verkehrsflüsse analysiert und prognostiziert und autonom fahrende Fahrzeuge sicher steuert. Sie könnte auch bei der Entwicklung und Implementierung von effizienteren Logistiksystemen helfen.
  4. Finanzen: AGI könnte die Finanzindustrie revolutionieren, indem sie hochkomplexe Finanzmärkte analysiert, Handelsstrategien entwickelt und implementiert und Risiken bewertet. Sie könnte auch dazu beitragen, Betrug zu erkennen und zu verhindern.
  5. Energie: AGI könnte dazu beitragen, Energie effizienter zu nutzen, indem sie Energieverbrauchsmuster analysiert und optimiert, Prognosen über Energiebedarf und -versorgung erstellt und bei der Entwicklung und Implementierung von erneuerbaren Energietechnologien hilft.
  6. Wissenschaftliche Forschung: AGI könnte wissenschaftliche Durchbrüche beschleunigen, indem sie Hypothesen entwickelt, Daten analysiert und neue Lösungen für komplexe Probleme vorschlägt. Sie könnte auch bei der Durchführung von Experimenten helfen, indem sie präzise Steuerungen und Messungen durchführt, die für Menschen schwierig sein könnten.

Durchbruch zur Singularität

Um einen Durchbruch in der Entwicklung der AGI zu erreichen brauchen wir Fortschritte in mehreren (oder allen) der folgenden Bereichen. Zum Beispiel könnten technologische Innovationen, die es KI-Systemen ermöglichen, effizienter zu lernen und ihr Wissen auf eine breitere Palette von Kontexten zu übertragen, einen großen Schritt in Richtung AGI bedeuten. Ebenso könnten Fortschritte in unserem Verständnis des menschlichen Gehirns und der menschlichen Kognition neue Ansätze zur Modellierung künstlicher Intelligenz inspirieren. Schließlich könnten Verbesserungen in der KI-Sicherheitsforschung und in ethischen Richtlinien dazu beitragen, die Risiken der AGI-Entwicklung zu mindern und sicherzustellen, dass diese Technologie zum Wohle der Menschheit genutzt wird.

Obwohl es scheinbar sehr wünschenswert ist, eine AGI zu entwickeln, haben wir aktuell noch viele Herausforderungen auf dem Weg, bevor es dazu kommen kann. Dazu gehören:

  1. Technische Schwierigkeiten: Aktuelle KI-Systeme sind hervorragend darin, bestimmte Aufgaben zu erledigen, für die sie speziell programmiert wurden, aber sie haben Schwierigkeiten, Wissen und Fähigkeiten auf neue, unvorhergesehene Situationen zu übertragen. Es ist eine große Herausforderung, eine KI zu entwickeln, die in der Lage ist, zu lernen und Probleme in einer Vielzahl von Kontexten zu lösen, ohne dass sie speziell dafür programmiert wurde.
  2. Mangel an Verständnis über menschliches Bewusstsein und Intelligenz: Trotz jahrzehntelanger Forschung sind viele Aspekte des menschlichen Bewusstseins und der menschlichen Intelligenz noch immer nicht vollständig verstanden. Dieses unvollständige Verständnis stellt eine erhebliche Hürde für die Entwicklung einer KI dar, die den Menschen in allen Aspekten der kognitiven Leistungsfähigkeit gleichkommt.
  3. Rechenleistung und Daten: Obwohl die Rechenleistung und die Verfügbarkeit von Daten in den letzten Jahren deutlich zugenommen haben, könnten die Anforderungen einer voll funktionsfähigen AGI diese aktuellen Kapazitäten noch weit übertreffen.
  4. Ethik und Sicherheit: Es gibt erhebliche ethische und sicherheitstechnische Bedenken im Zusammenhang mit der Entwicklung von AGI. Zum Beispiel, wie können wir sicherstellen, dass AGI im Einklang mit menschlichen Werten und Zielen handelt? Wie können wir verhindern, dass AGI-Technologie missbraucht wird? Diese Fragen müssen sorgfältig berücksichtigt und adressiert werden, bevor eine vollständige AGI sicher implementiert werden kann.

Singularität – wann ist es so weit?

Prinzipiell unterscheidet man den Begriff je nach genutztem Kontext:

  1. In der Physik, insbesondere in der allgemeinen Relativitätstheorie, bezieht sich eine Singularität auf einen Punkt im Raum-Zeit-Kontinuum, an dem die Gravitationskräfte unendlich werden. Beispiele dafür sind Schwarze Löcher und der Urknall. In solchen Singularitäten versagen unsere gegenwärtigen physikalischen Theorien, genaue Vorhersagen zu machen.
  2. In der Technologie und Futurologie, insbesondere im Kontext von künstlicher Intelligenz, bezieht sich die technologische Singularität auf einen hypothetischen zukünftigen Punkt, an dem technologische Fortschritte so schnell werden, dass sie das menschliche Verständnis übersteigen. Diese Idee wurde von Autoren wie Vernor Vinge und Ray Kurzweil populär gemacht. Es wird angenommen, dass ein solcher Punkt das Ergebnis des Erreichens von künstlicher Intelligenz ist, die der menschlichen Intelligenz überlegen ist, und die in der Lage wäre, sich selbst zu verbessern oder weitere Fortschritte in der Technologie zu erzielen.

Was den Zeitpunkt dieser “technologischen Singularität” betrifft, so gibt es keine genaue Vorhersage, da dies von vielen Faktoren abhängt, einschließlich technologischer Durchbrüche, gesellschaftlicher Akzeptanz und regulatorischer Entscheidungen.

Ein wirklich bemerkenswerter Artikel zum Thema: „When will singularity happen? 1700 expert opinions of AGI aus dem Jahr 2023.

Die Singularität oder auch Künstliche Allgemeine Intelligenz (AGI) bezeichnet ein System, das menschenähnliche Denkfähigkeiten besitzt. Einige Experten gehen davon aus, dass die Singularität auch Maschinenbewusstsein impliziert. Unabhängig davon, ob eine solche Maschine bewusst ist oder nicht, könnte sie sich ständig selbst verbessern und weit über unsere Fähigkeiten hinausgehen​​.

Die meisten KI-Experten glauben, dass die Singularität eintreten wird.

Die Mehrheitsmeinung war, dass dies bis zum Ende dieses Jahrhunderts geschehen wird. Die Konsensansicht war, dass es etwa 50 Jahre dauern würde, basierend auf den Annahmen der 2010er Jahre. Nach Fortschritten in Großen Sprachmodellen (LLMs) hat ein führender KI-Forscher, Hinton, seine Ansicht aktualisiert und glaubt, dass es 20 Jahre oder weniger dauern könnte​.

In mehreren Umfragen und Studien wurden KI-Wissenschaftler befragt, wann solche Entwicklungen stattfinden würden. In allen Fällen erwartete die Mehrheit der Teilnehmer die KI-Singularität vor 2060. In einer Umfrage unter 738 Experten, die auf den Konferenzen NIPS und ICML 2021 veröffentlicht haben, schätzten die KI-Experten, dass es eine 50%ige Chance gibt, dass hochgradige maschinelle Intelligenz bis 2059 eintreten wird. Ältere Umfragen kamen zu ähnlichen Schlussfolgerungen. 21 KI-Experten, die an der AGI-09-Konferenz teilnahmen, wurden im Jahr 2009 befragt. Experten glaubten, dass AGI um 2050 herum eintreten wird, und möglicherweise früher​.

KI-Unternehmer machen ebenfalls Schätzungen, wann wir die Singularität erreichen werden, und sie sind etwas optimistischer als Forscher. Louis Rosenberg, Informatiker, Unternehmer und Schriftsteller, geht von 2030 aus. Patrick Winston, MIT-Professor und Direktor des MIT Artificial Intelligence Laboratory von 1972 bis 1997, nannte 2040, betonte jedoch, dass es sich um ein sehr schwer abzuschätzendes Datum handelt.