Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Die Ära, in der die Google-Suche "sprechen" kann - Der KI-Sprach-Chat "Search Live" startet öffentlichen Test in den USA

Die Ära, in der die Google-Suche "sprechen" kann - Der KI-Sprach-Chat "Search Live" startet öffentlichen Test in den USA

2025年06月19日 12:27

Einleitung

„Ein Schlüsselwort in das Suchfeld eingeben“ – die Benutzererfahrung der Suche, die sich seit Jahrzehnten nicht verändert hat, steht kurz davor, durch Stimme und Konversation revolutioniert zu werden. Am 18. Juni 2025 (US-Zeit) begann Google mit einem öffentlichen Test der neuen Funktion „Search Live“ im AI-Modus für Teilnehmer von Google Labs. Ein auf Gemini basierender Sprach-Chatbot führt natürliche Dialoge mit den Nutzern, während auf dem Bildschirm relevante Links angezeigt werden. Es ist sowohl auf Android als auch auf iOS verfügbar, ohne zusätzliche Kosten. In diesem Artikel werden die Details, Herausforderungen und Perspektiven, einschließlich der Bewegungen der Konkurrenz und der Auswirkungen auf den japanischen Markt, analysiert.theverge.com



1. Was ist Search Live?

Search Live ist eine sprachgesteuerte Dialogschnittstelle, die in den „AI Mode“ integriert ist. Beim herkömmlichen Google-Sprachsuche wurde die Frage vorgelesen, aber die Antwort kam in Textform zurück. Mit der neuen Funktion gibt die KI Antworten in einer menschenähnlichen Stimme, und die Nutzer können durch zusätzliche Fragen oder Umformulierungen tiefer in die Informationen eintauchen. Zudem können Nutzer über die unter den Antworten angezeigten Weblinks zu Primärinformationen springen, was die Sorge vor „Blackbox-Antworten“ verringert.heise.de



2. Technischer Hintergrund – Optimierung von Gemini 2.5 Flash-Lite

Google erklärt, dass dieser Dienst auf einem schnellen und leichten Modell namens Gemini 2.5 Flash-Lite basiert, das direkt mit dem Suchindex verbunden ist. Gemini 2.5 unterstützt mehrere Modalitäten (Text, Bild, Sprache) und ist auf schnelle Inferenzgeschwindigkeit ausgelegt. Für die Spracherkennung wird ein eigenes On-Device-Akustikmodell verwendet, das die Verzögerung auf unter 300 ms reduziert und ein Gesprächserlebnis ohne wahrnehmbare Pausen ermöglicht.blog.google



3. Unterschiede zu herkömmlichen Sprachassistenten

  • Echtzeit-Zweiwegkommunikation
    Der herkömmliche Google Assistant war auf standardisierte Befehle ausgerichtet, während Search Live stark im Kontextbehalten und Nachfragen ist, mit weniger strengen Längenbeschränkungen.

  • Direkte Verbindung zu Suchergebnissen
    Gleichzeitig mit der Antwort werden Quellenlinks aufgelistet, was die Faktenüberprüfung erleichtert.

  • Fortführung von Multitasking
    Das Gespräch wird im Hintergrund gehalten, sodass es nicht unterbrochen wird, wenn man zu einer anderen App wechselt.

  • Erweiterung der visuellen Eingabe geplant
    In Kürze wird eine Funktion implementiert, bei der die KI Objekte, die mit der Kamera erfasst wurden, erklärt.theverge.com



4. Konkurrenzbewegungen: OpenAI, Anthropic, Apple

Im Jahr 2024 führte OpenAI den Voice Mode in ChatGPT ein und erweiterte die mehrsprachige Unterstützung in der ersten Hälfte des Jahres 2025. Auch Anthropic veröffentlichte mit Claude 3 einen Sprachdialog im Beta-Status. Apple kündigte auf der WWDC 2025 ein Upgrade von Siri namens „Cognos“ an, das natürliche Dialoge und ein geräteinternes LLM integrieren soll.Solche Entwicklungen deuten auf das Aufkommen des "Post-Keyword-Zeitalters" hin, in dem sich Suche und Sprach-UI gleichzeitig weiterentwickeln.theverge.com



5. Benutzererfahrung: Konkrete Anwendungsfälle

SzenenBeispiele für die Nutzung von Search LiveErwartete Effekte
ReisevorbereitungFragen nach Tipps, um Falten in Leinen im Koffer zu vermeidenSofortiger Erhalt von Anleitungen mit Referenzlinks
KochenVorlesen der Reste im Kühlschrank und Erhalt von RezeptvorschlägenEinkaufsliste wird ebenfalls erstellt
LernenDefinition von Geschichtsbegriffen→Vertiefungsfragen→Besuch verwandter WebsitesVerbesserung des Verständnisses durch dialogisches Format
Visuelle Unterstützung (geplant)Pflanzen mit der Kamera erfassen und fragen "Wie heißt das?"Sofortige Identifizierung und Anzeige der Pflegehinweise




6. Datenschutz und ethische Herausforderungen

Da Sprachdaten in die Cloud gesendet und Gesprächsverläufe gespeichert werden, ist die Übereinstimmung mit der DSGVO und dem japanischen Datenschutzgesetz unerlässlich. Google erklärt, dass die Daten nicht für zielgerichtete Werbung verwendet werden, es gibt jedoch viele ungelöste Probleme wie das Risiko der Verbreitung von Fehlinformationen und das versehentliche Sammeln von Drittstimmen. Dass der Zeitpunkt der Bereitstellung in Europa noch unklar ist, zeigt die Schwierigkeiten bei der Einhaltung der Vorschriften.heise.de



7. Auswirkungen auf den japanischen Markt

  • Neugestaltung des Suchanzeigenmodells: Wenn sich die Antworten auf Sprache konzentrieren, könnte die CTR bei herkömmlichen klickbasierten Anzeigen sinken.

  • Verbesserung der Benutzererfahrung für ältere Menschen und Sehbehinderte: Vorteile für Personen, die Schwierigkeiten mit der Tastaturbedienung haben.

  • Abgrenzung zur Rundfunkindustrie: Der Erhalt von Nachrichten und Erklärungen über Sprache konkurriert mit Podcasts und Radio.

  • SEO-Strategien von Unternehmen: FAQ-Formate und konversationelle Inhalte gewinnen an Bedeutung, und "Voice SEO" wird unerlässlich.


Aufgrund der Genauigkeit des japanischen Modells, der Unterstützung von Dialekten und der Überprüfung im Store wird erwartet, dass der offizielle Start frühestens 2026 erfolgt, aber das Unternehmen erklärt, dass es mit Blick auf die globale Expansion optimiert wird.


Zusammenfassung

Search Live ist der erste Schritt einer Transformation, die das 20. Jahrhundert-Paradigma "Suchen = Tippen/Lesen" in "Sprechen/Hören" verwandelt.Gemini 2.5 Flash-Lite als Kern bietet eine schnelle, bidirektionale und multimodale Sprachsuche, die die alltägliche Informationssuche auf natürliche Weise in ein „Gespräch“ integriert.

Da der Wiederaufbau von UX und Geschäftsmodellen im Zeitalter der Sprachsteuerung, einschließlich der Konkurrenz, begonnen hat, wird unsere Haltung gegenüber Informationen selbst in Frage gestellt.



Liste der Referenzartikel

  1. Heise Online „Google erlaubt sprachliche Unterhaltung mit KI-Chatbot in der Live-Suche“ (18. Juni 2025) heise.de

  2. Google Blog „Search Live: Talk, listen and explore in real time with AI Mode“ (18. Juni 2025) blog.google

  3. The Verge „Google tests real-time AI voice chats in Search“ (18. Juni 2025) theverge.com

Referenzartikel

Google erlaubt sprachliche Unterhaltung mit KI-Chatbot in der Live-Suche
Quelle: https://www.heise.de/news/Google-erlaubt-sprachliche-Unterhaltung-mit-KI-Chatbot-in-der-Live-Suche-10452190.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.