Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung
Search
Close this search box.
Search
Close this search box.

Google Lens erweitert die Suchmöglichkeiten mit neuen AI-gestützten Features

Von Oliver Welling
KINEWS24.de - Google Lens

Einleitung

Google hat kürzlich bedeutende Updates für seine Suchfunktionen angekündigt, die die Art und Weise, wie Nutzer mit der Suchmaschine interagieren, grundlegend verändern sollen. In einer neuen Ankündigung vom 3. Oktober 2024 hat Liz Reid, VP und Head of Google Search, erklärt, dass diese Weiterentwicklungen darauf abzielen, den Nutzern mehr Flexibilität und bessere Ergebnisse zu bieten – sei es durch Text, Bilder, Videos oder gesprochene Anfragen. Mit dem Einsatz fortschrittlicher Künstlicher Intelligenz (KI), insbesondere des neuen Gemini-Modells, bringt Google die Nutzung von visuellen und auditiven Suchanfragen auf ein neues Niveau.

Hauptfrage: Welche neuen Suchmöglichkeiten bietet Google durch den Einsatz von KI im Jahr 2024?

Google erweitert die Sucherfahrungen, indem es visuelle und auditive Suchanfragen stärker in den Fokus rückt. Dies bedeutet, dass Nutzer nun komplexe Fragen zu Videos und Bildern stellen oder durch Spracheingaben noch präzisere Ergebnisse erhalten können. Die Nutzung von KI, insbesondere durch die Integration von generativer KI in Google Lens, eröffnet neue Wege, wie wir mit der digitalen Welt interagieren können. Nachfolgend eine Übersicht der wichtigsten neuen Funktionen.

Folgefragen und Antworten

1. Was sind die neuen Funktionen von Google Lens?

Google Lens, das ursprünglich für visuelle Suchanfragen entwickelt wurde, erhält durch die jüngsten KI-Updates eine Reihe neuer Fähigkeiten:

  • Video-Suche: Nutzer können jetzt Videos in der Google App aufnehmen und Fragen zu den darin gezeigten Objekten stellen. Beispielsweise kann man ein Video von Fischen im Aquarium aufnehmen und fragen: „Warum schwimmen sie zusammen?“ Die KI analysiert sowohl das Video als auch die Frage und liefert eine Übersicht mit relevanten Antworten und weiterführenden Ressourcen.
  • Sprachsuche in Lens: Neben visuellen Suchanfragen kann man nun auch Sprache nutzen, um Fragen zu stellen. Einfach das Kamerabild fixieren, die Aufnahme starten und die Frage mündlich stellen – so, als würde man mit einem Freund sprechen. Diese Funktion ist global auf Android und iOS verfügbar.
  • Verbesserte Shopping-Funktionen: Nutzer können jetzt einfacher Produkte anhand von Bildern identifizieren. Dank Googles Shopping Graph, der über 45 Milliarden Produkte erfasst, zeigt Lens nicht nur ähnliche Produkte, sondern auch Preise, Händler und Rezensionen an.

2. Wie wird Google Lens in der Videosuche eingesetzt?

Die neu eingeführte Videosuche ermöglicht es, während der Videoaufnahme Fragen zu den gezeigten Inhalten zu stellen. Diese Funktion ist besonders nützlich in Umgebungen, in denen Text oder Bild allein nicht ausreichen, um die gewünschten Informationen zu erhalten. Durch die Kombination von Video und Spracheingabe wird es möglich, Kontext und Detailfragen zu verbinden, um präzisere Antworten zu generieren. Dies ist ein entscheidender Schritt, um visuelle Inhalte leichter durchsuchen und verstehen zu können.

3. Wie unterstützt Google Circle to Search die Identifikation von Musik?

Google hat die Funktion Circle to Search erweitert, die nun auf über 150 Millionen Android-Geräten verfügbar ist. Mit dieser Funktion kann man sofort Songs identifizieren, die in Videos auf Social Media, Filmen oder auf Webseiten abgespielt werden. Diese nahtlose Musiksuche macht es einfacher, ohne App-Wechsel direkt nach Songs zu suchen, die im Hintergrund gespielt werden.

4. Was sind die neuen AI-Übersichtsseiten in den Suchergebnissen?

Google führt eine neue Art von Suchergebnisseiten ein, die speziell mit KI organisiert sind. Diese Seiten bieten eine umfassende Übersicht mit Artikeln, Videos und Forenbeiträgen zu offenen Fragestellungen, wie z.B. „Was sind gute vegetarische Vorspeisen für eine Dinnerparty?“. Anstatt nur einfache Textantworten zu präsentieren, werden hier verschiedene Perspektiven und Formate übersichtlich auf einer Seite gebündelt. In den USA startet diese Funktion zunächst mit Rezepten und Inspirationen rund ums Essen.

5. Wie verbessert Google die Verlinkung zu Webseiten in den AI-Übersichten?

Google hat das Design der AI-Übersichten angepasst, um Links zu unterstützenden Webseiten prominenter darzustellen. Nutzer finden nun innerhalb der AI-generierten Texte direkt anklickbare Links zu den Originalquellen, was die Navigation erleichtert. Diese Neuerung hat bereits in Tests zu einer erhöhten Weiterleitung von Nutzern auf die verlinkten Webseiten geführt. Die globale Einführung dieser Funktion unterstreicht Googles Ziel, qualitativ hochwertige Inhalte sichtbarer zu machen und die Quellen klarer hervorzuheben.

6. Wie integriert Google Werbung in AI-gestützte Suchergebnisse?

Auf Basis positiver Rückmeldungen von Nutzern testet Google nun die Integration von Werbeanzeigen direkt in den AI-Übersichten. Diese Anzeigen erscheinen nur für relevante Anfragen und sollen Nutzern helfen, schneller zu passenden Produkten und Dienstleistungen zu gelangen. Diese Funktion startet zunächst in den USA und wird schrittweise für weitere Länder verfügbar gemacht.

Konkrete Tipps und Anleitungen zur Nutzung der neuen Funktionen

Wenn Sie die neuen Suchfunktionen optimal nutzen möchten, helfen die folgenden Tipps:

  1. Für visuelle Fragen:
    • Verwenden Sie Google Lens für komplexe visuelle Suchanfragen, z.B. um Pflanzen oder Tiere zu identifizieren, die Sie filmen oder fotografieren.
    • Nutzen Sie die Sprachsuche innerhalb von Lens, um zusätzliche Fragen zum aufgenommenen Bild oder Video zu stellen.
  2. Für Shopping-Anfragen:
    • Wenn Sie ein Produkt sehen, das Sie interessiert, fotografieren Sie es einfach mit Lens und durchsuchen Sie direkt die verschiedenen Kaufoptionen, um Preise und Bewertungen zu vergleichen.
  3. Für musikalische Erkennungen:
    • Verwenden Sie Circle to Search, um Songs, die im Hintergrund von Videos oder auf Webseiten laufen, ohne Unterbrechung des Browsens zu identifizieren.

Schlussfolgerung und Handlungsaufforderung

Die neuen Updates von Google Search und Lens zeigen deutlich, dass die Zukunft der Suche nicht nur textbasiert ist, sondern sich zunehmend auf visuelle und auditive Eingaben ausweitet. Mit dem Fokus auf den Einsatz von KI, um komplexe Anfragen in unterschiedlichen Kontexten zu beantworten, setzt Google einen neuen Standard für Interaktivität und Benutzerfreundlichkeit. Wenn Sie diese neuen Funktionen ausprobieren möchten, laden Sie die neueste Version der Google-App herunter und testen Sie die erweiterten Möglichkeiten der Suchanfragen. Nutzen Sie die neuen Features, um das Beste aus Ihren Suchanfragen herauszuholen und Antworten auf Fragen zu finden, die bisher schwer zu stellen waren.

Quellen und Referenzen

    Ähnliche Beiträge

    Business

    NVIDIA NIM-Microservices beschleunigt die Wettervorhersage um den Faktor 500

    NVIDIA NIM-Microservices beschleunigt die Wettervorhersage um den Faktor 500 Earth-2 als digitale Zwillingstechnologie: Simuliert und visualisiert präzise Wetter- und Klimabedingungen..

    Business

    Wie Meta durch Llama zu einem AI-Pionier wird

    Meta hat einen beeindruckenden Wandel vollzogen, indem es sich komplett um sein Open-Source-Modell Llama neu ausgerichtet hat. Dieser mutige Schritt.

    Folge uns

    Beliebte Artikel

    About Author

    Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

    TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

    Beraten lassen

    HOT CATEGORIES

    de_DEGerman