Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Safe Superintelligence (SSI) von Ex-OpenAI-Gründer Ilya Sutskever erhält 1 Milliarde Dollar für sichere KI

BY Oliver Welling
Safe Superintelligence (SSI)

Safe Superintelligence (SSI), ein neues Startup mit Fokus auf KI-Sicherheit, co-gegründet von Ilya Sutskever, dem ehemaligen Chief Scientist von OpenAI, hat 1 Milliarde Dollar gesammelt, um sichere KI-Systeme zu entwickeln, die weit über menschliche Fähigkeiten hinausgehen. Diese Finanzierungsrunde unterstreicht das Vertrauen von Risikokapitalgebern in außergewöhnliche Talente, die sich auf grundlegende KI-Forschung konzentrieren. Die Entscheidung von Sutskever, ein eigenes Unternehmen zu gründen, kommt inmitten wachsender Bedenken hinsichtlich der Risiken, die fortschrittliche KI für die Menschheit darstellen könnte.

Das musst Du wissen – SSI: Neue Wege in der KI-Sicherheit

  • Investment: SSI hat 1 Milliarde Dollar in einer ersten Finanzierungsrunde gesichert.
  • Fokus auf Sicherheit: Das Unternehmen setzt auf die Entwicklung sicherer KI-Systeme, die den Menschen in ihren Fähigkeiten übertreffen.
  • Gründerteam: Co-gegründet von Ilya Sutskever (ehemals OpenAI), Daniel Gross (ehemals Apple) und Daniel Levy (ehemals OpenAI).
  • Standorte: Die Hauptstandorte des Startups sind Palo Alto, Kalifornien, und Tel Aviv, Israel.
  • Investorennetzwerk: Unterstützt von prominenten Risikokapitalfirmen wie Andreessen Horowitz, Sequoia Capital und DST Global.

Das neu gegründete SSI plant, mit den eingesammelten Mitteln vor allem die Rechenleistung zu steigern und Top-Talente einzustellen. Die Mission: Eine kleine, hoch vertrauenswürdige Gruppe von Forschern und Ingenieuren aufzubauen, die eng zusammenarbeiten, um eine „geradlinige Entwicklung hin zu sicherer Superintelligenz“ zu ermöglichen, so CEO Daniel Gross. Im Gegensatz zu OpenAI setzt SSI dabei auf eine traditionelle, profitorientierte Unternehmensstruktur und möchte besonders auf den Charakter und die außergewöhnlichen Fähigkeiten der Teammitglieder achten.

Aufstieg und Bruch: Warum Sutskever seinen eigenen Weg geht

Ilya Sutskever, eine der bedeutendsten Persönlichkeiten in der KI-Entwicklung, sieht seine neue Gründung als eine „neue Bergbesteigung“. Nach turbulenten Ereignissen bei OpenAI, bei denen der CEO Sam Altman vorübergehend entlassen wurde und Sutskevers Rolle im Unternehmen geschwächt wurde, verließ er OpenAI im Mai. Ein grundlegender Richtungswechsel, der auch das Ende seines „Superalignment“-Teams bei OpenAI bedeutete. Dieses Team arbeitete an der Sicherstellung, dass Künstliche Intelligenz mit menschlichen Werten übereinstimmt – eine zentrale Herausforderung, sobald KI die menschliche Intelligenz übertrifft.

Für SSI scheint Sutskever eine andere Vision zu verfolgen. Er glaubt, dass die Skalierung – die Idee, dass KI-Modelle mit ausreichender Rechenleistung und Datenmengen in ihrer Leistung deutlich verbessert werden können – zwar weiterhin von Bedeutung ist, aber einen neuen Ansatz erfordert. Statt einfach nur den bisherigen Pfad zu beschleunigen, stellt er die Frage: „Was genau skalieren wir?“

Eine Kultur des Vertrauens und der Mission

SSI hebt sich in der Art und Weise, wie es Talente anzieht und auswählt, stark von anderen Unternehmen ab. Das Unternehmen betont die Bedeutung von „gutem Charakter“ und sucht nach Menschen, die nicht nur außergewöhnliche Fähigkeiten haben, sondern auch bereit sind, unabhängig vom Hype der Branche auf ein gemeinsames Ziel hinzuarbeiten. „Es geht darum, die richtigen Leute zu finden, die wirklich an der Sache interessiert sind“, erklärt Daniel Gross. Der Fokus liegt nicht nur auf dem Aufbau einer technischen Meisterschaft, sondern auch auf der Schaffung einer Kultur des Vertrauens und der Verantwortung.

Die Wahl der Investoren spiegelt diese Kultur wider. Mit Unterstützung von Branchenschwergewichten wie Andreessen Horowitz, Sequoia Capital, DST Global und SV Angel, sowie dem Investmentfonds NFDG unter der Leitung von Nat Friedman und Daniel Gross, setzt SSI auf Partner, die ihre Vision teilen. Diese Finanzierungsrunde zeigt, dass trotz der allgemeinen Zurückhaltung bei Investitionen in grundlegende KI-Forschung, das Vertrauen in talentierte Gründerteams, die sich langfristigen und potenziell unrentablen Projekten verschrieben haben, nach wie vor besteht.

Ein neuer Kurs in der KI-Entwicklung

Während OpenAI und andere Unternehmen eine eher konventionelle Skalierungsstrategie verfolgen, scheint SSI eine nuanciertere Herangehensweise zu bevorzugen. „Manche Leute arbeiten sehr lange und gehen einfach den gleichen Weg schneller“, sagte Sutskever. „Das ist nicht unbedingt unser Stil. Wenn du aber etwas anderes machst, dann wird es möglich, etwas Besonderes zu schaffen.“ Diese Worte deuten auf eine tiefe Reflexion über die langfristigen Risiken und Chancen hin, die mit der Entwicklung fortschrittlicher KI einhergehen.

SSI plant, Partnerschaften mit Cloud-Anbietern und Chipherstellern einzugehen, um seinen Bedarf an Rechenleistung zu decken. Das Unternehmen hat jedoch noch nicht entschieden, mit welchen Firmen es zusammenarbeiten wird. Häufig arbeiten KI-Startups mit etablierten Unternehmen wie Microsoft und Nvidia zusammen, um ihre Infrastrukturanforderungen zu erfüllen. Es bleibt abzuwarten, welchen Weg SSI einschlagen wird, um seine technische Basis zu sichern.

Die Gründung von SSI inmitten einer laufenden Debatte über KI-Sicherheit und regulatorische Anforderungen – wie sie etwa in einem kalifornischen Gesetzentwurf vorgeschlagen werden, der Sicherheitsvorschriften für Unternehmen fordert – unterstreicht den schmalen Grat, auf dem sich die KI-Forschung derzeit befindet. Während einige Unternehmen wie OpenAI und Google gegen strengere Vorschriften sind, unterstützen andere wie Anthropic und xAI von Elon Musk solche Regulierungen.

Fazit: SSI – Ein Wagnis in die Zukunft der sicheren Superintelligenz

SSI stellt eine mutige Wette auf die Zukunft sicherer Künstlicher Intelligenz dar. Mit einer klaren Fokussierung auf Sicherheitsforschung, einer sorgfältigen Auswahl an Partnern und Investoren sowie einem einzigartigen Ansatz zur Talentakquise zeichnet sich das Startup als potenzieller Game-Changer ab. Die Tatsache, dass prominente Investoren bereit sind, in ein Unternehmen zu investieren, das sich einer komplexen und riskanten Aufgabe wie der sicheren Superintelligenz widmet, zeigt die Bedeutung dieses Themas in der technologischen und wirtschaftlichen Landschaft der kommenden Jahre.

Während die Welt gespannt auf die nächsten Schritte von SSI blickt, stellt sich die Frage, ob es dem Unternehmen gelingen wird, eine neue Ära der KI zu definieren. Werden Sutskever und sein Team tatsächlich in der Lage sein, die entscheidenden Fragen zu beantworten, die die Skalierung und Sicherheitsbedenken im Bereich der Superintelligenz betreffen? Der Ausgang dieses Experiments könnte weitreichende Auswirkungen haben – nicht nur für die KI-Community, sondern für die gesamte Menschheit.

#KI #KünstlicheIntelligenz #AISicherheit #Startups #Investments #Technologie #Innovation

Exclusive-OpenAI co-founder Sutskever’s new safety-focused AI startup SSI raises $1 billion

Ähnliche Beiträge

Business Unternehmen

AI Humans in der Werbung: Effizienz trifft auf ethische Bedenken – Konsumenten fordern mehr Transparenz

AI Humans in der Werbung: Effizienz trifft auf ethische Bedenken – Konsumenten fordern mehr Transparenz Die Studie deckt auf, dass.

Business Ethik und Gesellschaft Unternehmen

Bearingpoint-Studie sieht Deutschlands KI-Zukunft am Scheideweg: Eine tiefgehende Analyse der aktuellen Herausforderungen und Chancen

Bearingpoint-Studie sieht Deutschlands KI-Zukunft am Scheideweg 76 % der deutschen Unternehmen haben bereits KI implementiert, was über dem globalen Durchschnitt.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish