Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Google MCP: Der neue Standard für vernetzte KI-Agenten zieht jetzt bei Google ein

BY Oliver Welling
KINEWS24.de - Google MCP

Das Zeitalter der „agentischen KI“ ist in vollem Gange – eine Ära, in der Künstliche Intelligenz nicht mehr nur auf Anfragen reagiert, sondern proaktiv Aufgaben übernimmt, plant und ausführt. Doch damit diese intelligenten Agenten ihr volles Potenzial entfalten können, brauchen sie eine standardisierte Möglichkeit, um mit der Außenwelt – mit Werkzeugen, Datenbanken und Anwendungen – zu kommunizieren. Genau hier setzt das Model Context Protocol (MCP) an, und Google hat nun einen entscheidenden Schritt getan: In einem Post auf X kündigte Demis Hassabis, CEO von Google DeepMind, am 9. April 2025 an, dass Google MCP für seine Gemini-Modelle und das zugehörige SDK (insbesondere das Agent Development Kit – ADK) unterstützen wird.

Hassabis bezeichnete MCP als „gutes Protokoll“, das sich schnell zu einem offenen Standard für die agentische Ära entwickle. Diese Ankündigung ist mehr als nur eine technische Randnotiz; sie ist ein klares Bekenntnis Googles zu offenen Standards und Interoperabilität im rasant wachsenden KI-Ökosystem. Für Dich als Entwickler bedeutet das potenziell einfachere Integrationen, flexiblere Architekturen und leistungsfähigere KI-Agenten. Lass uns eintauchen, was MCP genau ist und welche Türen Googles Unterstützung nun öffnet.

Das musst Du wissen – Google MCP im Überblick

  • Google unterstützt offiziell das Model Context Protocol (MCP), einen offenen Standard für die standardisierte Kommunikation zwischen KI-Modellen (wie Gemini) und externen Tools oder Datenquellen.
  • Die Unterstützung gilt für die Gemini-Modellfamilie und wird tief in das Agent Development Kit (ADK) integriert, Googles Framework zur Erstellung von KI-Agenten.
  • MCP zielt darauf ab, die Integration von Werkzeugen zu vereinfachen, Interoperabilität zwischen verschiedenen KI-Systemen zu fördern und proprietären Lock-in zu vermeiden (ähnlich einem USB-C-Standard für KI).
  • Das ADK ermöglicht Dir als Entwickler zwei Hauptwege der MCP-Nutzung: Deine ADK-Agenten können externe MCP-Tools nutzen (ADK als Client) oder Du kannst ADK-eigene Tools über einen MCP-Server bereitstellen.
  • MCP gewinnt branchenweit rasant an Bedeutung; neben Google unterstützen bereits andere Firmen wie Anthropic (Initiator), Block, Replit und OpenAI den Standard. Es gibt bereits Community-getriebene MCP-Server für Google-Dienste wie Drive oder Gmail.

Was ist das Model Context Protocol (MCP)? Ein „USB-C“ für KI?

Bevor wir uns Googles Rolle genauer ansehen, lass uns verstehen, was das Model Context Protocol (MCP) eigentlich ist. Initiiert von Anthropic, einem der führenden KI-Unternehmen, ist MCP ein offener Standard, der festlegt, wie große Sprachmodelle (LLMs) – wie eben Googles Gemini oder Anthropic’s Claude – mit externen Ressourcen kommunizieren.

Stell Dir MCP wie einen universellen Adapter vor, ähnlich wie USB-C für Hardware. Statt für jede Verbindung zwischen einem KI-Modell und einem externen Werkzeug (z. B. einer Datenbank, einem Kalender, einer E-Mail-Anwendung oder einem Dateisystem) eine eigene, maßgeschneiderte Schnittstelle (API) oder ein proprietäres Plugin entwickeln zu müssen, definiert MCP eine einheitliche Sprache und Struktur für diese Interaktion.

Wie funktioniert das?

MCP basiert auf einer Client-Server-Architektur:

  • MCP-Server: Das ist eine Anwendung oder ein Dienst, der externe Ressourcen zugänglich macht. Er stellt standardisierte Werkzeuge (Tools) zur Verfügung, mit denen Aktionen ausgeführt werden können (z. B. „sende eine E-Mail“, „lies eine Datei“). Er kann auch Daten (Resources) oder interaktive Vorlagen (Prompts) bereitstellen.
  • MCP-Client: Das ist typischerweise eine KI-Anwendung oder ein KI-Agent (wie einer, der mit Googles ADK gebaut wurde), der auf die vom Server bereitgestellten Ressourcen und Werkzeuge zugreifen möchte.

Die Kommunikation zwischen Client und Server erfolgt über ein definiertes Protokoll, das auf bewährten Standards wie JSON-RPC 2.0 aufbaut (bekannt vom Language Server Protocol, das die Kommunikation zwischen Code-Editoren und Sprach-Servern standardisiert).

Die Vorteile von MCP:

  • Vereinfachte Integration: Entwickler müssen nicht mehr unzählige individuelle APIs lernen und implementieren. Einmal MCP verstanden, können sie theoretisch auf jedes Werkzeug zugreifen, das über einen MCP-Server angeboten wird.
  • Interoperabilität: KI-Agenten können leichter Werkzeuge von verschiedenen Anbietern nutzen, solange diese MCP unterstützen. Das fördert einen modularen Aufbau von KI-Systemen.
  • Vermeidung von Lock-in: Offene Standards wie MCP verhindern, dass Entwickler und Nutzer zu sehr an proprietäre Ökosysteme eines einzelnen Anbieters gebunden sind.
  • Sicherheit & Kontrolle: MCP kann dabei helfen, den Zugriff auf externe Tools und Daten sicherer zu gestalten, da die Kommunikation über ein standardisiertes Protokoll läuft.

MCP ist also ein ambitionierter Versuch, Ordnung in das wachsende Chaos der KI-Tool-Integrationen zu bringen und eine Grundlage für flexiblere, mächtigere und offenere KI-Agenten zu schaffen.

Googles strategischer Schritt: Gemini & ADK setzen auf MCP

Die öffentliche Ankündigung von Demis Hassabis, MCP zu unterstützen, ist ein starkes Signal. Google, als einer der größten Akteure im KI-Bereich, wirft sein Gewicht hinter diesen offenen Standard. Das hat mehrere Bedeutungen:

  1. Validierung für MCP: Googles Unterstützung verleiht MCP enorme Glaubwürdigkeit und beschleunigt wahrscheinlich seine Etablierung als Industriestandard. Wenn die Macher von Gemini auf MCP setzen, werden andere folgen.
  2. Förderung des offenen Ökosystems: Google signalisiert die Bereitschaft, nicht nur eigene Wege zu gehen, sondern sich an offenen, kollaborativen Standards zu beteiligen. Das ist positiv für die gesamte Branche und fördert Innovation durch Interoperabilität.
  3. Praktischer Nutzen für Entwickler: Entwickler, die mit Googles Gemini-Modellen und dem Agent Development Kit (ADK) arbeiten, profitieren direkt. Sie können nun einfacher auf ein wachsendes Universum von MCP-basierten Tools zugreifen oder ihre eigenen ADK-Tools für andere MCP-Clients verfügbar machen.

Die Unterstützung betrifft konkret:

  • Gemini-Modelle: Die Modelle selbst werden so angepasst, dass sie über die MCP-Schnittstelle mit externen Tools kommunizieren können. Das erweitert ihre Fähigkeit, Aufgaben in der realen Welt auszuführen.
  • Agent Development Kit (ADK): Dieses Python-Framework von Google zum Bau von KI-Agenten erhält eine native MCP-Integration. Das schauen wir uns im nächsten Abschnitt genauer an.

Google signalisiert damit klar, dass es die Zukunft der KI in vernetzten, agentischen Systemen sieht und dass offene Standards dabei eine Schlüsselrolle spielen sollen.

Google MCP in der Praxis mit Googles Agent Development Kit (ADK)

Googles Agent Development Kit (ADK) ist ein Werkzeugkasten (Framework) für Entwickler, um KI-Agenten in Python zu bauen. Die Integration von MCP erweitert die Möglichkeiten dieser Agenten erheblich. Die ADK-Dokumentation beschreibt zwei primäre Wege, wie Du MCP mit dem ADK nutzen kannst:

1. ADK-Agent als MCP-Client (Werkzeuge von außen nutzen): Das ist der häufigste Anwendungsfall. Dein mit ADK gebauter Agent muss auf Funktionen zugreifen, die von einem externen Dienst als MCP-Server bereitgestellt werden. Beispiele hierfür sind bereits existierende Community-Server für: * Dateisystem-Operationen (Dateien lesen, schreiben, auflisten) * Google Maps (Routenplanung, Orte finden) * Google Drive, Gmail, Google Calendar * Slack, GitHub, Datenbanken etc.

*Wie funktioniert das im ADK?*
Die Verbindung wird über die Klasse `MCPToolset` im ADK hergestellt. Diese Klasse kümmert sich um:
* Verbindungsaufbau zum MCP-Server (lokal über Standard-Input/Output oder remote über Server-Sent Events).
* Abfrage der verfügbaren Tools vom Server (`list_tools`).
* Umwandlung der MCP-Tool-Definitionen in ein Format, das der ADK `LlmAgent` versteht.
* Bereitstellung dieser Tools für den Agenten.
* Weiterleitung von Tool-Aufrufen vom Agenten an den MCP-Server (`call_tool`) und Rückgabe der Ergebnisse.
* Verwaltung der (oft zustandsbehafteten) Verbindung zum Server, inklusive sauberem Beenden (`exit_stack.aclose()`).

*Voraussetzungen:*
* Python 3.9+
* ADK installiert
* Node.js und npx (für viele Community-Server nötig)

2. MCP-Server mit ADK-Tools (Eigene Werkzeuge bereitstellen): Du kannst auch den umgekehrten Weg gehen: Wenn Du bereits nützliche Werkzeuge innerhalb des ADK entwickelt hast (z. B. das load_web_page Tool zum Laden von Webseiten), kannst Du einen eigenen MCP-Server bauen, der diese ADK-Tools für jeden MCP-kompatiblen Client (z. B. Anthropic’s Claude Desktop oder andere Agenten) verfügbar macht.

*Wie funktioniert das?*
* Du nutzt die `mcp` Python-Bibliothek, um einen Standard-MCP-Server zu erstellen.
* Du implementierst Handler für `list_tools` (um Deine ADK-Tools anzukündigen, konvertiert ins MCP-Format mit `adk_to_mcp_tool_type`) und `call_tool` (um Anfragen entgegenzunehmen, das entsprechende ADK-Tool auszuführen und das Ergebnis im MCP-Format zurückzugeben).

Technische Aspekte und Herausforderungen:

  • Async: Sowohl ADK als auch die MCP-Bibliothek basieren stark auf asyncio in Python. Deine Tool-Implementierungen und Server-Handler müssen in der Regel asynchron sein.
  • Zustandsbehaftete Verbindungen: MCP etabliert oft langlebige, zustandsbehaftete Verbindungen. Das unterscheidet sich von zustandslosen REST-APIs und kann Herausforderungen bei der Skalierung und Bereitstellung (Deployment) mit sich bringen, insbesondere für Server, die viele Clients bedienen. Das MCPToolset im ADK hilft bei der Verwaltung dieser Verbindungen.

Die Integration von MCP ins ADK macht es für Dich als Entwickler also wesentlich einfacher, Deine Gemini-basierten Agenten mit einer Vielzahl externer Fähigkeiten auszustatten oder Deine eigenen Entwicklungen einem breiteren Ökosystem zur Verfügung zu stellen.

Das wachsende MCP-Ökosystem: Community & Industrie ziehen mit

MCP ist kein rein theoretisches Konstrukt oder eine Insellösung von Anthropic und Google. Seit seiner Einführung Ende November 2024 hat das Protokoll bemerkenswert schnell an Fahrt aufgenommen. Unternehmen wie Block (ehemals Square), Apollo (GraphQL-Plattform), Replit (Online-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) haben bereits Unterstützung für MCP angekündigt oder implementiert. Auch OpenAI soll Unterstützung signalisiert haben.

Besonders spannend ist die Dynamik in der Open-Source-Community. Wie bereits erwähnt, gibt es zahlreiche von der Community entwickelte MCP-Server, die beliebte Dienste anbinden. Die Existenz von Servern für Google Drive, Gmail und Google Calendar zeigt, wie MCP genutzt wird, um Lücken zu schließen und Googles eigene Dienste nahtlos in das agentische KI-Ökosystem zu integrieren – oft schneller, als es offizielle Implementierungen könnten. Ein Beispiel ist ein Blogbeitrag, der beschreibt, wie man einen Gmail-Agenten mit MCP baut, der E-Mails abrufen, lesen, senden und verwalten kann.

Diese breite Akzeptanz und die aktive Community sind entscheidend für den Erfolg eines offenen Standards. Sie schaffen einen Netzwerkeffekt: Je mehr Tools über MCP verfügbar sind, desto attraktiver wird es für Entwickler, MCP zu nutzen, was wiederum mehr Anbieter motiviert, MCP-Server bereitzustellen. Googles Einstieg verstärkt diesen Effekt massiv.

MCP vs. Andere Ansätze & Ausblick

MCP tritt an, um die bisherige Landschaft proprietärer Plugin-Systeme (wie z.B. bei ChatGPT) oder individueller API-Integrationen zu vereinheitlichen. Es bietet einen standardisierten Mittelweg.

Interessanterweise hat Google fast zeitgleich mit der MCP-Unterstützung auch ein eigenes Protokoll namens Agent2Agent (A2A) vorgestellt. Dieses konzentriert sich jedoch, wie der Name andeutet, auf die Kommunikation zwischen verschiedenen KI-Agenten untereinander, während MCP primär die Verbindung zwischen Agenten und Werkzeugen/Daten adressiert. Die beiden Protokolle scheinen also eher komplementär als konkurrierend zu sein und könnten gemeinsam Bausteine für komplexe, kollaborative KI-Systeme bilden.

Natürlich ist MCP noch ein junger Standard und nicht ohne Herausforderungen. Wie erwähnt, sind Aspekte wie die Handhabung von zustandsbehafteten Verbindungen in großen Deployments oder die standardisierte Authentifizierung bei Remote-Servern noch Bereiche, die weiterentwickelt werden müssen. Die Tatsache, dass Google nicht nur Unterstützung angekündigt hat, sondern laut Hassabis auch aktiv an der Weiterentwicklung von MCP mitwirken will, ist hier ein positives Zeichen.

Fazit: Google ebnet den Weg für eine vernetzte KI-Zukunft mit MCP

Googles Entscheidung, das Model Context Protocol (MCP) für seine Gemini-Modelle und das Agent Development Kit (ADK) zu unterstützen, ist ein bedeutender Schritt mit weitreichenden Implikationen. Es ist ein klares Bekenntnis zu offenen Standards und Interoperabilität in einer Phase, in der die Entwicklung agentischer KI-Systeme exponentiell an Fahrt gewinnt. Für Dich als Entwickler ist dies eine ausgesprochen positive Nachricht.

Die Integration von MCP in Gemini und das ADK senkt die Hürden für den Bau anspruchsvoller KI-Agenten erheblich. Du kannst einfacher auf ein wachsendes Ökosystem von Tools und Datenquellen zugreifen, die über MCP-Server bereitgestellt werden – seien es offizielle Server, Community-Projekte oder solche von Drittanbietern. Gleichzeitig kannst Du Deine eigenen ADK-basierten Tools leichter für andere Systeme öffnen. Das fördert Modularität, Flexibilität und vermeidet die Abhängigkeit von geschlossenen Systemen.

Die Kompatibilität von MCP mit den SDKs etablierter Player wie OpenAI und Anthropic erleichtert zudem den Einstieg und die Migration bestehender Projekte. MCP fungiert hier tatsächlich wie der erhoffte „USB-C-Stecker“ für die KI-Welt, der die Verbindung unterschiedlicher Komponenten vereinfacht.

Natürlich ist MCP kein Allheilmittel und befindet sich noch in der Entwicklung. Herausforderungen bei Skalierung und Sicherheit müssen weiter adressiert werden. Doch die breite Unterstützung durch die Industrie, angeführt von Schwergewichten wie Anthropic, Google und potenziell OpenAI, verleiht dem Standard enormes Momentum. Googles Engagement, nicht nur zu unterstützen, sondern auch aktiv mitzugestalten, ist ein starkes Versprechen für die Zukunftssicherheit und Weiterentwicklung des Protokolls.

Insgesamt stärkt Google mit diesem Schritt seine Position im Bereich der agentischen KI und bietet Entwicklern gleichzeitig mehr Freiheit und Wahlmöglichkeiten. Es ist ein klares Zeichen dafür, dass die Zukunft der KI nicht in isolierten Silos liegt, sondern in vernetzten, interoperablen Systemen, die auf offenen Standards aufbauen. Das Model Context Protocol ist auf dem besten Weg, einer dieser fundamentalen Standards zu werden – und Google sitzt nun mit am Steuer.


www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.

Quellen


#KI #AI #ArtificialIntelligence #KuenstlicheIntelligenz #MCP #GoogleAI #Gemini #OpenStandard, Model Context Protocol

Ähnliche Beiträge

Business

Google Firebase Studio Deep Dive: Dein Kompletter Guide zur AI-App-Entwicklung

Google Firebase Studio: Die AI-Entwicklungsplattform für Full-Stack-Apps. Entdecke Prototyping, Gemini-Codehilfe, Integrationen & Kosten in diesem Deep Dive.

Business

🧠 ChatGPT Memory Update: Personalisierter – aber umstritten? Alle Details!

ChatGPTs neues Gedächtnis ist da! Die KI lernt aus allen alten Chats für personalisierte Antworten. Erfahre alles über Funktion, Verfügbarkeit.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish