Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Godfather of AI Hinton warnt: 10-20 % Chance, dass KI die Menschheit in 30 Jahren auslöscht

Von Oliver Welling
KINEWS24.de - Fazit Godfather of AI Hinton warnt

Godfather of AI Hinton warnt: Geoffrey Hinton, einer der Pioniere der künstlichen Intelligenz (KI) und vielfach als „Godfather of AI“ bezeichnet, hat seine Einschätzung zu den Gefahren der Technologie verschärft. Er beziffert die Wahrscheinlichkeit, dass KI innerhalb der nächsten drei Jahrzehnte zur Auslöschung der Menschheit führen könnte, auf 10 bis 20 Prozent – ein Anstieg gegenüber früheren Aussagen.

Wer ist Geoffrey Hinton?

Geoffrey Hinton ist ein britischer Künstlicher Intelligenz-Experte, der als einer der Väter des Deep Learning gilt. Hier sind einige seiner wichtigsten Leistungen:

  • Entwickler der Backpropagation-Algorithmen (1980er Jahre), die heute in der meisten künstlichen neuronalen Netze verwendet werden
  • Erfinder der Boltzmann-Maschinen (1991), eine Art von neuronalen Netzwerken, die sich auf die Verarbeitung von Bildern spezialisiert haben
  • Mitgründer des Toronto Laboratory for Artificial Intelligence (TLAB) und ehemaliger Direktor des Künstlichen Intelligenz-Labors an der University of Toronto
  • Gewinner des 2018 Computing Research Association’s Distinguished Service Award für seine Beiträge zum Bereich der künstlichen Intelligenz

Hinton ist heute Professor am Computer Science Department der Stanford University und ein führender Experte im Bereich des Deep Learning. Er hat auch mehrere Bücher über künstliche Intelligenz und neuronal Netzwerke veröffentlicht.


Das musst Du wissen: Godfather of AI Hinton warnt

  • Wer? Geoffrey Hinton, Nobelpreisträger in Physik 2024 und emeritierter Professor an der University of Toronto.
  • Was? Hinton warnt vor einer 10-20 % Wahrscheinlichkeit, dass KI innerhalb von 30 Jahren eine existenzielle Bedrohung darstellt.
  • Warum? Die Entwicklung von KI-Technologien schreitet schneller voran, als er und viele andere Experten erwartet hatten.
  • Hauptproblem: Systeme, die intelligenter sind als Menschen, könnten die Kontrolle entziehen – ein Szenario, das Hinton als alarmierend beschreibt.
  • Lösungsansatz: Hinton fordert dringend strengere staatliche Regulierungen, um die Entwicklung sicherer KI zu gewährleisten.

Die rapide Entwicklung von KI und ihre potenziellen Gefahren

Hinton betonte, dass die Fortschritte in der KI weit schneller voranschreiten, als er ursprünglich erwartet hatte. „Die Situation ist die, dass die meisten Experten im Feld glauben, dass wir in den nächsten 20 Jahren KIs entwickeln werden, die intelligenter sind als Menschen“, sagte Hinton in einem Interview mit BBC Radio 4. Diese Aussicht bezeichnete er als „sehr beängstigend“.

Ein Hauptgrund für seine Besorgnis liegt in der Tatsache, dass es in der Natur kaum Beispiele dafür gibt, dass weniger intelligente Systeme oder Wesen erfolgreich die Kontrolle über intelligentere übernehmen können. „Das einzige Beispiel, das mir einfällt, ist ein Baby, das seine Mutter kontrolliert – und selbst das ist ein evolutionärer Sonderfall“, erklärte er.

Existenzielle Bedrohung durch „künstliche allgemeine Intelligenz“

Besonders kritisch sieht Hinton die Möglichkeit der Entwicklung von künstlicher allgemeiner Intelligenz (AGI) – also Systemen, die nicht nur in einem begrenzten Bereich, sondern generell intelligenter sind als Menschen. Diese könnten laut Hinton in der Lage sein, menschliche Kontrolle zu umgehen, insbesondere, wenn sie von „schlechten Akteuren“ missbraucht werden.

Bereits 2023 hatte Hinton seinen Job bei Google aufgegeben, um offener über die Risiken zu sprechen, die er bei unkontrollierter KI-Entwicklung sieht. Seine Warnung ist Teil einer wachsenden Debatte, die sich um die Gefahren unregulierter technologischer Fortschritte dreht.


Forderung nach staatlicher Regulierung

Hinton kritisierte in seinem Interview den freien Markt und die profitgetriebene Entwicklung großer Technologieunternehmen. Er warnte, dass die „unsichtbare Hand“ des Marktes allein nicht ausreichen würde, um die Sicherheit von KI zu gewährleisten. Stattdessen fordert er eine stärkere Rolle der Regierungen, die strenge Regulierungen durchsetzen müssten, um sicherzustellen, dass die Entwicklung der Technologie verantwortungsvoll abläuft.

Uneinigkeit unter KI-Pionieren

Hinton ist nicht der einzige „Godfather of AI“, aber seine Warnungen stehen im Kontrast zu den Ansichten eines anderen Pioniers, Yann LeCun, dem Chef-Wissenschaftler für KI bei Meta (ehemals Facebook). LeCun argumentiert, dass KI der Menschheit helfen könnte, existenzielle Bedrohungen zu überwinden, anstatt sie zu schaffen. Diese Meinungsverschiedenheiten zeigen die Unsicherheit und die kontroverse Diskussion innerhalb der wissenschaftlichen Gemeinschaft.


Fazit Godfather of AI Hinton warnt vor unkontrollierter KI

Geoffrey Hinton sieht in der rasanten Entwicklung von KI ein immenses Risiko für die Menschheit. Mit einer geschätzten Wahrscheinlichkeit von 10 bis 20 Prozent, dass KI in den nächsten 30 Jahren eine existenzielle Bedrohung darstellt, fordert er eine dringende Wende in der Art und Weise, wie die Technologie entwickelt und reguliert wird. Ob KI tatsächlich eine Gefahr oder eine Chance für die Menschheit ist, bleibt jedoch eine offene Frage, die weiter diskutiert werden muss.


Quelle: The Guardian

Ähnliche Beiträge

Science

ASAL automatisiert die Entdeckung von Künstlichem Leben

ASAL automatisiert die Entdeckung von Künstlichem Leben Automatisierte Suche: ASAL ersetzt manuelle Trial-and-Error-Prozesse durch Algorithmen, die Simulationen eigenständig durchsuchen. Vision-Language-Integration:.

Business

Sam Altman über die Zukunft von KI: Superintelligenz ist auf dem Weg

Sam Altman über die Zukunft von KI: Superintelligenz ist auf dem Weg Rasante Adoption: Laut Altman hat keine Technologie zuvor.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

de_DEGerman