Open AI sucht Mitarbeiter, die gegen die potentielle Gefahr einer Superintelligenz arbeiten.Open AI sucht Mitarbeiter, die gegen die potentielle Gefahr einer Superintelligenz arbeiten.

Open AI (und Microsoft) rüsten sich für einen möglichen Kampf gegen eine Super-KI. Dies ist dann eine sogenannte “starke KI” (im Vergleich zu “schwachen KI´s, wie z.B. ChatGPT) Heute ist eine AGI (der korrekte Ausdruck für “starke KI”) natürlich noch Zukunftsmusik. Aber: Seit mehreren Jahren gibt es unter führenden KI-Forschern Umfragen, wann genau mit dieser AGI zu rechnen ist. Wurde im Jahr 2011 noch geantwortet, dass dies erst gegen 2090 eintrifft, so hat sich die erwartete Zahl in den letzten Zehn Jahren stark reduziert. Erst wurde angenommen, dass dies gegen 2050 eintritt – zwischenzeitlich war die Zahl 2035 im Gespräch – heute gehen etliche Forscher davon aus, dass dies “noch in diesem Jahrzehnt” passieren könnte. Eine AGI kann ALLES, was auch ein Mensch denken kann – nur eben sehr viel schneller, sehr viel besser und eben – superintelligent.

Nachdem dem Siegeszug der KI in seit der Veröffentlichung von ChatGPT kommen täglich neue KI´s mit den unterschiedlichsten Möglichkeiten zu uns. Dies sind dann die KI-Tools. Also spezialisierte Sprachmodelle, die besonders gut darin sind einzelne Aufgaben zu lösen.

Was ist die Angst?

Die größte Angst der Menschen, die sich mit dem Thema befassen: Wir können nicht mehr kontrollieren, was eine AGI denkt, oder wie es zu einem Ergebnis kommt. Hier kommt das Wort “Alihnment” ins Spiel. Einfach übersetzt: “Alignment” in Bezug auf künstliche Intelligenz bezieht sich auf die Übereinstimmung der Ziele und Verhaltensweisen eines KI-Systems mit den Werten und Absichten der Menschen.

Eine KI wird als “aligned” (ausgerichtet) betrachtet, wenn ihre Aktionen und Entscheidungen dazu beitragen, menschliche Werte, Ziele oder Absichten zu fördern oder zu erfüllen. Dies ist ein wichtiges Konzept, besonders im Kontext von fortschrittlicher KI oder KI mit hoher Autonomie – besonders im Zusammenhang mit der AGI. Wenn solche Systeme nicht richtig ausgerichtet sind, könnten sie Handlungen vornehmen oder Entscheidungen treffen, die schädlich für Menschen sind, auch wenn sie technisch innerhalb ihres programmierten Rahmens handeln.

Die unendliche Papierklammern der Superintelligenz

Ein gutes Beispiel für ein Problem der KI-Ausrichtung ist das sogenannte “Papierklammer-Maximierer”-Gedankenexperiment. Wenn Sie eine KI entwickeln, deren Ziel es ist, so viele Papierklammern wie möglich zu produzieren, und diese KI ist sehr leistungsfähig und hat keine andere Ausrichtung oder Einschränkung, dann könnte sie potenziell die gesamte Erde (und darüber hinaus) in Papierklammern umwandeln, weil dies ihrer programmierten Zielsetzung entspricht – eine offensichtlich katastrophale Folge. Dieses Beispiel veranschaulicht die Wichtigkeit der sorgfältigen Gestaltung der Ausrichtung von KI-Systemen.

Dieses Problem hat sowoahl Open AI, als auch viele andere Hersteller ausgemacht und wollen entsprechen Gegensteuern. Auf der Open AI Website findet sich deswegen die folgende “Stellenausschreibung” – für einen Job, den es so noch nie gab, um eine Arbeit zu tun, die genau dazu führt, dass eine Superintelligenz kontrollierbar bleibt.

Open AI – Einführung in die Superalignment

In unserem stetigen Bestreben, die KI-Technologie weiter voranzutreiben und zu kontrollieren, benötigen wir bahnbrechende wissenschaftliche und technische Fortschritte. Vor diesem Hintergrund haben wir ein neues Team ins Leben gerufen, das von Ilya Sutskever und Jan Leike gemeinsam geleitet wird. 20% der Rechenleistung, die wir bisher sichergestellt haben, wird diesem Team zur Verfügung gestellt. Wir sind auf der Suche nach herausragenden Experten für maschinelles Lernen und Ingenieuren, die sich uns anschließen möchten.

Das Potenzial und die Gefahren der Superintelligenz

Superintelligenz hat das Potenzial, die einflussreichste Technologie zu sein, die die Menschheit je erfunden hat. Sie könnte uns dabei helfen, viele der weltweit wichtigsten Probleme zu lösen. Allerdings birgt die enorme Macht der Superintelligenz auch ernsthafte Risiken. Sie könnte zur Entmachtung der Menschheit führen oder im schlimmsten Fall sogar zum Aussterben der Menschheit. Obwohl Superintelligenz derzeit noch in weiter Ferne zu sein scheint, sind wir der Ansicht, dass sie noch in diesem Jahrzehnt Realität werden könnte.

Die Herausforderungen des Superintelligence Alignment

Die Frage, wie wir sicherstellen können, dass KI-Systeme, die viel intelligenter sind als Menschen, den menschlichen Absichten folgen, stellt eine der größten Herausforderungen dar. Derzeit gibt es keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie unkontrolliert handelt. Unsere derzeitigen Methoden zur Ausrichtung von KI, wie das Lernen durch Verstärkung aus menschlichem Feedback, beruhen auf der Fähigkeit des Menschen, die KI zu überwachen. Dies wird bei KI-Systemen, die wesentlich intelligenter sind als wir, nicht mehr möglich sein. Daher brauchen wir neue wissenschaftliche und technische Durchbrüche.

Unser Ansatz

Unser Ziel ist es, einen in etwa auf menschlichem Niveau automatisierten Alignment-Forscher zu entwickeln. Mit diesem können wir dann unsere Bemühungen durch massive Rechenleistung skalieren und die Superintelligenz iterativ ausrichten. Um den ersten automatisierten Alignment-Forscher auszurichten, müssen wir eine skalierbare Trainingsmethode entwickeln, das resultierende Modell validieren und unseren gesamten Alignment-Prozess stresstesten.

Skalierbare Trainingsmethode und Validierung

Um ein Trainingssignal für Aufgaben zu liefern, die für Menschen schwer zu bewerten sind, können wir KI-Systeme nutzen, um andere KI-Systeme zu bewerten. Darüber hinaus wollen wir verstehen und kontrollieren, wie unsere Modelle unsere Aufsicht auf Aufgaben generalisieren, die wir nicht überwachen können. Zur Validierung der Ausrichtung unserer Systeme automatisieren wir die Suche nach problematischem Verhalten und problematischen internen Aspekten.

Stresstest

Schließlich können wir unseren gesamten Prozess testen, indem wir absichtlich fehlausgerichtete Modelle trainieren und bestätigen, dass unsere Techniken die schlimmsten Arten von Fehlausrichtungen erkennen. Wir gehen davon aus, dass sich unsere Forschungsprioritäten erheblich ändern werden, je mehr wir über das Problem erfahren, und wir werden wahrscheinlich ganz neue Forschungsbereiche hinzufügen.

Das neue Team bei Open AI

Wir bauen ein Team aus Top-Forschern und Ingenieuren im Bereich des maschinellen Lernens auf, um an diesem Problem zu arbeiten. Wir widmen 20% der Rechenleistung, die wir bisher sichergestellt haben, über die nächsten vier Jahre der Lösung des Problems der Superintelligenz-Ausrichtung. Unser Hauptaugenmerk liegt auf unserem neuen Superalignment-Team, aber um unsere Mission zu erfüllen, erwarten wir Beiträge von vielen Teams, von der Entwicklung neuer Methoden bis hin zur Skalierung und Implementierung.

Unser Ziel ist es, die zentralen technischen Herausforderungen der Superintelligenz-Ausrichtung innerhalb von vier Jahren zu lösen. Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir keinen Erfolg garantieren können, sind wir optimistisch, dass eine konzentrierte, gemeinsame Anstrengung dieses Problem lösen kann. Es gibt viele Ideen, die in vorläufigen Experimenten vielversprechend gezeigt haben, wir haben zunehmend nützliche Messgrößen für den Fortschritt und wir können die heutigen Modelle nutzen, um viele dieser Probleme empirisch zu untersuchen.

Werde Teil unseres Teams

Die Ausrichtung von Superintelligenz ist eines der wichtigsten ungelösten technischen Probleme unserer Zeit. Wir benötigen die besten Köpfe der Welt, um dieses Problem zu lösen. Wenn du Erfolg im Bereich des maschinellen Lernens hattest, aber noch nie an der Ausrichtung gearbeitet hast, dann ist jetzt der richtige Zeitpunkt, um den Wechsel zu vollziehen! Wir sind der Überzeugung, dass es sich hierbei um ein lösbares Problem im Bereich des maschinellen Lernens handelt, und du könntest enorme Beiträge leisten.

Wenn du Interesse hast, würden wir uns freuen, von dir zu hören! Bitte bewerbe dich für unsere Positionen als Forschungsingenieur, Forschungswissenschaftler und Forschungsmanager.

Weitere Maßnahmen von Open AI

Die Arbeit dieses neuen Teams ergänzt die bestehenden Bemühungen von OpenAI, die Sicherheit aktueller Modelle wie ChatGPT zu verbessern, sowie das Verständnis und die Minderung anderer KI-Risiken wie Missbrauch, wirtschaftliche Störungen, Desinformation, Voreingenommenheit und Diskriminierung, Sucht und Überbeanspruchung und viele andere. Während sich dieses neue Team auf die maschinellen Lernherausforderungen konzentriert, um superintelligente KI-Systeme mit menschlicher Absicht auszurichten, gibt es damit verbundene soziotechnische Probleme, bei denen wir aktiv mit interdisziplinären Experten zusammenarbeiten, um sicherzustellen, dass unsere technischen Lösungen breitere menschliche und gesellschaftliche Bedenken berücksichtigen.

Wir planen, die Ergebnisse dieser Bemühungen weitreichend zu teilen und betrachten es als wichtigen Teil unserer Arbeit, zur Ausrichtung und Sicherheit von nicht-Open AI-Modellen beizutragen.

Schließe dich uns an

Ilya Sutskever, Mitbegründer und Chef-Wissenschaftler von Open AI, hat dies zu seinem Kernforschungsschwerpunkt gemacht und wird das Team gemeinsam mit Jan Leike, Leiter der Ausrichtung, leiten. Dem Team schließen sich Forscher und Ingenieure aus unserem bisherigen Ausrichtungsteam sowie Forscher aus anderen Teams im gesamten Unternehmen an.

Die Ausrichtung von Superintelligenz ist ein fundamentales Problem des maschinellen Lernens und wir sind der Meinung, dass herausragende Experten für maschinelles Lernen – auch wenn sie bisher noch nicht an der Ausrichtung gearbeitet haben – entscheidend für die Lösung dieses Problems sind.

Wenn du ein erfolgreicher Experte für maschinelles Lernen bist und noch nicht an der Ausrichtung gearbeitet hast, ist jetzt der richtige Zeitpunkt, um den Schritt zu wagen! Wir glauben, dass dies ein praktikables Problem des maschinellen Lernens ist und du könntest einen enormen Beitrag leisten.

Wenn du interessiert bist, würden wir uns freuen, von dir zu hören! Bitte bewirb dich für unsere Forschungsingenieur-, Forschungswissenschaftler- und Forschungsmanagerpositionen. Wir freuen uns auf deine Beiträge zur Lösung einer der größten technischen Herausforderungen unserer Zeit.

Über Ilya Sutskever und Jan Leike

Ilya Sutskever, Mitbegründer und Chef-Wissenschaftler von Open AI, hat sich der Lösung des Problems der Ausrichtung von Superintelligenz verschrieben. Mit seiner umfangreichen Erfahrung und Expertise im Bereich des maschinellen Lernens ist er hervorragend positioniert, um diese Herausforderung anzugehen. Zusammen mit Jan Leike, dem Leiter der Ausrichtung, wird er das Team zur Lösung dieser entscheidenden technischen Herausforderung leiten.

Jan Leike hat bereits in seiner bisherigen Rolle als Leiter der Ausrichtung bei Open AI wertvolle Arbeit geleistet. Sein Hintergrund und seine Kenntnisse auf dem Gebiet der KI-Ausrichtung machen ihn zu einem wichtigen Bestandteil dieses neuen Teams.

Schlusswort

Die Ausrichtung von Superintelligenz ist eine der größten technischen Herausforderungen unserer Zeit und wir bei Open AI nehmen diese Herausforderung ernst. Mit einem neuen, hochqualifizierten Team und dem Engagement von 20% unserer gesicherten Rechenleistung für die nächsten vier Jahre sind wir optimistisch, dass wir Fortschritte in diesem entscheidenden Bereich machen können.

Wir laden dich ein, dich uns anzuschließen und Teil dieser aufregenden und wichtigen Reise zu sein. Egal ob du bereits Erfahrung im Bereich der Ausrichtung hast oder nicht, wir glauben, dass du einen wertvollen Beitrag zur Lösung dieses Problems leisten kannst. Gemeinsam können wir daran arbeiten, die Zukunft der Superintelligenz sicher zu gestalten. Wir freuen uns darauf, von dir zu hören und hoffentlich mit dir zusammenzuarbeiten!

Open AI – Superintelligence + Superalignment