KI Risiken: Der Mitbegründer von DeepMind, Mustafa Suleyman, warnt in seinem neuen Buch „The Coming Wave“ vor der disruptiven Kraft von KI und schlägt Strategien zur Eindämmung vor, um eine Katastrophe zu verhindern.KI Risiken: Der Mitbegründer von DeepMind, Mustafa Suleyman, warnt in seinem neuen Buch „The Coming Wave“ vor der disruptiven Kraft von KI und schlägt Strategien zur Eindämmung vor, um eine Katastrophe zu verhindern.

KI wird in den kommenden Jahren und Jahrzehnten unser Leben komplett umkrempeln

Laut Mustafa Suleyman, einem der Gründer des KI-Forschungsunternehmens DeepMind, wird Künstliche Intelligenz in den kommenden Jahren und Jahrzehnten unsere Gesellschaft, Wirtschaft, Politik und sogar die Beschaffenheit des Lebens selbst komplett umgestalten. In seinem neuen Buch “The Coming Wave”, das er zusammen mit Michael Bhaskar geschrieben hat, skizziert Suleyman die unwiderstehlichen Kräfte, die schon bald unser aller Leben grundlegend verändern werden.

Suleyman sagt voraus, dass KI in wenigen Jahren in der Lage sein wird, praktisch jedes denkbare Problem zu lösen und jedes erdenkliche Ziel zu erreichen. Die Kosten dafür werden drastisch sinken und die Problemlösungskapazitäten von KI werden für jeden zugänglich und erschwinglich sein. Suleyman nennt dies “die sinkenden Kosten der Macht”. Während die Druckerpresse es der breiten Masse ermöglichte, Bücher zu besitzen und der Silicon Chip einen Computer in jedes Haus brachte, wird KI die Fähigkeit demokratisieren, einfach Dinge zu tun und Probleme zu lösen.

Natürlich bedeutet das, dass KI helfen kann, Unternehmen zu gründen, Builder Bots zu kontrollieren, die einem eine Erweiterung ans Haus bauen oder auch medizinische Durchbrüche zu erzielen. Leider ebnet dieser Fortschritt aber auch den Weg für Schindluder jeder Art, wie Run auf Banken, das Entwerfen tödlicher Viren oder von Bienen großen Drohnen mit Giftstachel.

KI Risiken: Vier Aspekte der KI-Revolution bergen katastrophales Gefahrenpotenzial

In seinem Buch identifiziert Suleyman vier Aspekte der KI-Revolution, die ein katastrophales Gefahrenpotenzial bergen:

Asymmetrische Effekte: Wir kennen das Prinzip asymmetrischer Kriegsführung, bei der eine Guerilla-Truppe einen mächtigen Staat mit gezielten Nadelstichen lahmlegen kann. Genau so kann es auch einzelnen böswilligen Akteuren mit KI gelingen, enormen Schaden anzurichten, wie beispielsweise einem Hacker, der das Computersystem einer Klinik lahmlegt oder einem einsamen Attentäter, der Drohnen in Bienengröße mit Giftpfeilen ausstattet.

Hyper-Evolution: KI ist in der Lage, Design- und Fertigungsprozesse selbst zu optimieren, wobei die Verbesserungen sich von Iteration zu Iteration exponentiell steigern. Es ist unfassbar schwer, mit diesem irren Innovationstempo Schritt zu halten und sicherzustellen, dass Sicherheitsvorkehrungen implementiert werden. Tödliche Gefahren könnten entstehen und sich ausbreiten, bevor überhaupt jemand sie bemerkt.

Allgegenwärtigkeit: KI ist eine “Alles-Technologie” ähnlich wie Elektrizität. Sie wird alle Aspekte unseres Lebens durchdringen, weil die Vorteile zu verlockend sind. Aber die Faktoren, die diesen Nutzen ermöglichen, ermöglichen gleichzeitig auch Schadenspotenzial. Das Gute wird zu attraktiv sein, um es aufzugeben, aber das Schlechte kommt automatisch mit.

Autonomie: Anders als alle bisherigen Technologien hat KI das Potenzial, Entscheidungen eigenständig zu treffen. Diese Autonomie muss nicht per se negativ sein – autonome Autos beispielsweise dürften sehr viel sicherer sein als von Menschen gesteuerte Fahrzeuge. Doch was passiert, wenn sich autonome Systeme dank Hyper-Evolution selbst optimieren und in eine Richtung entwickeln, die niemand vorhergesehen hat? Das weckt berechtigte Ängste, die laut Suleyman gerade im Silicon Valley gerne weggewischt werden.

Elf Strategien sind nötig, um die Menschheit auf dem schmalen Grat zwischen Kollaps und totalitärer KI-Herrschaft zu halten

Angesichts dieser beunruhigenden Szenarien skizziert Suleyman in seinem Buch elf Strategien für die “Eindämmung”, die seiner Ansicht nach nötig ist, um die Menschheit auf dem schmalen Grat zwischen gesellschaftlichem Kollaps einerseits und totalitärer KI-Herrschaft andererseits zu halten:

  • Die Zahl der Forscher, die sich mit KI-Sicherheit beschäftigen, muss von aktuell 300 oder 400 auf mehrere Hunderttausend erhöht werden.
  • DNA-Synthesizer müssen mit einem Screening-System ausgestattet werden, das Pathogene meldet.
  • Es bedarf eines Systems internationaler Verträge, um gefährliche Technologien zu regulieren und einzuschränken.
  • Staaten müssen viel stärker in Bildung investieren, um mit der Geschwindigkeit des technischen Fortschritts mithalten zu können.
  • Es müssen mehr Anstrengungen unternommen werden, um die Entwicklung von KI zum Wohle der Menschheit zu gestalten, anstatt einfach nur das technisch Machbare umzusetzen.
  • Unternehmen, die KI entwickeln, müssen höchsten ethischen Standards verpflichtet werden.
  • Es müssen internationale Gremien geschaffen werden, die den Einsatz von KI überwachen und bei Missbrauch einschreiten können.
  • Die Gesellschaft muss lernen, Risiken und Gefahren von KI rational abzuwägen, ohne in Panik oder Technikfeindlichkeit zu verfallen.
  • Regierungen müssen viel mehr Ressourcen bereitstellen, um KI im Sinne der Allgemeinheit zu entwickeln und einzusetzen.
  • Staaten müssen enger zusammenarbeiten, um Gefahren gemeinsam einzudämmen. Konkurrenz darf dabei keine Rolle spielen.
  • Es müssen präventive Maßnahmen ergriffen werden, um Ungleichheit, Armut und Perspektivlosigkeit zu bekämpfen, da diese Faktoren Extremismus und Missbrauch von Technologie befördern können.

KI Risiken: Suleyman bleibt trotz der Horrorszenarien verhalten optimistisch

Trotz all der beunruhigenden Szenarien, die Suleyman in seinem Buch skizziert, kommt er in unserem Interview überraschend optimistisch rüber. Er erwähnt, dass die derzeitige US-Regierung unter Biden dem Thema große Bedeutung beimisst und Fortschritte macht. Natürlich wäre die Lage unter Trump deutlich prekärer, räumt Suleyman ein. Doch insgesamt habe er den Eindruck, dass die junge Generation an KI-Forschern, zu der er selbst zählt, viel stärker ethische Fragen berücksichtigt als die Tech-Pioniere der ersten Stunde wie Zuckerberg oder die Google-Gründer.

Schon in der Gründungsurkunde von DeepMind im Jahr 2010 habe gestanden, dass es um die Entwicklung von KI gehe, die “sicher, verantwortungsvoll und zum Wohle aller” eingesetzt wird. Dadurch habe man Standards gesetzt, an denen sich andere KI-Labore orientiert hätten. Mit seinem Buch wolle er nun anregen, seine Vorschläge zur Eindämmung von Gefahren ernsthaft zu diskutieren und

zu verbessern.

Obwohl die Vorhersagen in “The Coming Wave” düster sind, sollen sie eher als Provokation verstanden werden, um mehr Aufmerksamkeit auf das Thema zu lenken. Suleyman hofft, damit eine breite Diskussion über den verantwortungsvollen Umgang mit KI anzustoßen.

Auch wenn er die Risiken ernst nimmt, will er nicht in Schwarzmalerei verfallen. Im Interview wirkt er so, als glaube er trotz allem, dass es noch Möglichkeiten gibt, die Entwicklung in positieve Bahnen zu lenken. Die Menschheit habe noch Zeit einzugreifen, wenn sie die Chancen und Gefahren nüchtern abwäge und international zusammenarbeite.

Für Suleyman müssen staatliche Akteure eine zentrale Rolle bei der Regulierung und Lenkung von KI spielen. Er wendet sich damit gegen libertäre Denker im Silicon Valley, die den Staat am liebsten abschaffen würden. Stattdessen brauche es einen starken, aber nicht autoritären Staat, der seine Bürger vor den Auswüchsen von KI schützen könne. Hierbei sei es entscheidend, immer die Balance zu halten zwischen notwendiger Kontrolle einerseits und Überwachung sowie Bevormundung andererseits.

Als Mitentwickler von KI sieht sich Suleyman auch selbst in der Verantwortung. Im Interview gibt er sich selbstkritisch und geläutert. Er habe in seiner Zeit bei DeepMind manchmal seine Mitarbeiter zu hart rangenommen und daraus gelernt. Heute setze er sich für den verantwortungsvollen Umgang mit KI ein, weil er überzeugt sei, dass diese Technologie großes Potential für die Menschheit berge, wenn man die Risiken

eindämme.

Insgesamt lässt Suleyman im Interview den Eindruck zurück, dass er die Gefahren ernst nimmt, aber nicht in Panik verfallen möchte. Stattdessen setzt er auf die Möglichkeit, durch umsichtiges, international koordiniertes Handeln sowie durch ethische Standards in Wissenschaft und Wirtschaft die Menschheit auf einen guten Weg zu führen.

Dabei schwingt jedoch auch immer die Sorge mit, dass dies möglicherweise nicht gelingen könnte, wenn bestimmte Akteure verantwortungslos handeln, Regierungen versagen oder die Gesellschaft in Angststarre verfällt. Man spürt, dass er sich zu einem gewissen Grad auch selbst belastet fühlt durch seine Pionierrolle bei der Entwicklung einer so folgenreichen Technologie wie der KI.

Letztendlich bleibt zu hoffen, dass seine Warnungen ernst genommen und die richtigen Lehren daraus gezogen werden. Suleyman versucht, einen Ausgleich zu finden zwischen nüchterner Analyse der Risiken und dem Bemühen, weder in Panik noch in naive Technikeuphorie zu verfallen. Sein Buch soll aufrütteln und zum Nachdenken anregen – und idealerweise einen konstruktiven Dialog anstoßen, wie die Menschheit die Herausforderung KI am besten meistern kann.

Ob ihm das gelingt, wird sich zeigen. Jedenfalls scheint klar: Die kommende Welle der KI-Revolution wird gewaltig sein. Und wir sollten uns frühzeitig darauf vorbereiten, um nicht von ihr überrollt zu werden. Suleymans Warnungen können dabei hilfreich sein, wenn man sie ernst nimmt aber auch mit der nötigen Gelassenheit betrachtet. Die Zukunft bleibt letztlich offen.

Quelle: The Guardian

Die 10 besten Alternativen zu ChatGPT findest Du hier!

#KI #Zukunft #Technologie #KuenstlicheIntelligenz #DeepMind #Fortschritt #Menschheit #Gesellschaft #Verantwortung #Ethisch #Suleyman