DeepMind präsentiert Fortschritte in AI-Sicherheit, Anpassungsfähigkeit und Effizienz sowie neue Modelle und Anwendungen.DeepMind präsentiert Fortschritte in AI-Sicherheit, Anpassungsfähigkeit und Effizienz sowie neue Modelle und Anwendungen.

KI für die reale Welt: Sicherheit, Anpassungsfähigkeit und Effizienz

Die 40. Internationale Konferenz für maschinelles Lernen (ICML 2023) findet vom 23. bis 29. Juli in Honolulu, Hawai’i statt. Hier kommen Experten aus dem Bereich der Künstlichen Intelligenz (KI) zusammen, um neue Ideen, Werkzeuge und Datensätze zu teilen. Forscher aus der ganzen Welt präsentieren ihre neuesten Fortschritte in Bereichen wie Computer Vision und Robotik.

Ankündigungen und Präsentationen

Shakir Mohamed, unser Direktor für Wissenschaft, Technologie & Gesellschaft, hält einen Vortrag über maschinelles Lernen mit sozialem Zweck. Er greift Herausforderungen aus den Bereichen Gesundheit und Klima auf, betrachtet sie aus einer soziotechnischen Perspektive und stärkt globale Gemeinschaften.

Außerdem präsentieren wir auf der Konferenz Demos über AlphaFold, unsere Fortschritte in der Fusionswissenschaft und neue Modelle wie PaLM-E für Robotik und Phenaki für die Generierung von Video aus Text.

Unterstützung von Vielfalt in der KI

Wir sind stolz darauf, die Konferenz als Platinum Sponsor zu unterstützen und unsere Zusammenarbeit mit unseren langjährigen Partnern LatinX in AI, Queer in AI und Women in Machine Learning fortzusetzen. Diese Partnerschaften sind ein wichtiger Bestandteil unserer Bemühungen, die Vielfalt in der KI-Gemeinschaft zu fördern und zu unterstützen.

Forschungspublikationen von Google DeepMind

Forscher von Google DeepMind stellen dieses Jahr mehr als 80 neue Arbeiten auf der ICML vor. Da viele Arbeiten eingereicht wurden, bevor Google Brain und DeepMind ihre Kräfte gebündelt haben, werden Arbeiten, die ursprünglich unter einer Google Brain-Zugehörigkeit eingereicht wurden, in einem Google Research-Blog vorgestellt. Dieser Blog konzentriert sich auf Arbeiten, die unter einer DeepMind-Zugehörigkeit eingereicht wurden.

KI in der (simulierten) Welt

Der Erfolg von KI, die lesen, schreiben und erschaffen kann, wird durch Foundation Models unterstützt – KI-Systeme, die auf umfangreichen Datensätzen trainiert werden, um viele Aufgaben zu erlernen. Unsere neuesten Forschungen untersuchen, wie wir diese Anstrengungen in die reale Welt übertragen können. Sie legen den Grundstein für allgemein fähige und verkörperte KI-Agenten, die die Dynamik der Welt besser verstehen können, und eröffnen neue Möglichkeiten für nützlichere KI-Werkzeuge.

In einer mündlichen Präsentation stellen wir AdA vor, einen KI-Agenten, der sich anpassen kann, um neue Probleme in einer simulierten Umgebung zu lösen, so wie es Menschen tun. AdA kann in wenigen Minuten anspruchsvolle Aufgaben übernehmen: das Kombinieren von Objekten auf neuartige Weise, das Navigieren in unbekannten Terrains und die Zusammenarbeit mit anderen Spielern.

Die Zukunft des Reinforcement Learning

Um verantwortungsvolle und vertrauenswürdige KI zu entwickeln, müssen wir die Ziele dieser Systeme verstehen. Im Reinforcement Learning kann dies durch Belohnungen definiert werden.

In einer mündlichen Präsentation versuchen wir, die von Richard Sutton aufgestellte Belohnungshypothese zu klären, nach der alle Ziele als Maximierung der erwarteten kumulativen Belohnung betrachtet werden können. Wir erklären die genauen Bedingungen, unter denen dies zutrifft, und klären die Art von Zielen, die durch Belohnungen in einer allgemeinen Form des Reinforcement-Learning-Problems erfasst werden können – und welche nicht.

Herausforderungen an der Front der KI

Menschen können leicht lernen, sich anpassen und die Welt um uns herum verstehen. Die Entwicklung fortschrittlicher KI-Systeme, die in menschenähnlicher Weise verallgemeinern können, wird dabei helfen, KI-Werkzeuge zu schaffen, die wir in unserem Alltag verwenden und um neue Herausforderungen zu bewältigen können.

Eine Möglichkeit, wie sich KI anpasst, besteht darin, ihre Vorhersagen schnell in Reaktion auf neue Informationen zu ändern. In einer mündlichen Präsentation betrachten wir die Plastizität in neuronalen Netzwerken und wie sie im Laufe des Trainings verloren gehen kann – und wie man diesen Verlust verhindern kann.

Schließlich schlagen wir in “Quantile Credit Assignment” einen Ansatz vor, um Glück von Fähigkeiten zu trennen. Durch die Herstellung einer klareren Beziehung zwischen Handlungen, Ergebnissen und externen Faktoren kann KI komplexe, reale Umgebungen besser verstehen.

Quelle: DeepMind Blog