skip_to_content
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 로고
  • 전체 기사
  • 🗒️ 회원가입
  • 🔑 로그인
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 개인정보처리방침 cookie_banner_and 쿠키 정책 cookie_banner_more_info

쿠키 설정

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Google 검색이 "말할 수 있는" 시대에——AI 음성 채팅 기능 "Search Live"가 미국에서 공개 테스트 시작

Google 검색이 "말할 수 있는" 시대에——AI 음성 채팅 기능 "Search Live"가 미국에서 공개 테스트 시작

2025年06月19日 12:24

시작하기

「검색창에 키워드를 입력하기」——수십 년 동안 변하지 않았던 검색의 사용자 경험이 드디어 음성과 대화로 인해 바뀌려 하고 있다. Google은 2025년 6월 18일(미국 시간), Google Labs 참가자를 대상으로 AI 모드의 새로운 기능 "Search Live"를 공개 테스트했다. Gemini를 기반으로 하는 음성 챗봇이 사용자와 자연스러운 대화를 진행하며, 화면에는 관련 링크가 나열된다. Android와 iOS에서 모두 사용 가능하며, 추가 요금은 없다. 경쟁사의 움직임이나 일본 시장에 미치는 영향도 포함하여, 본고에서는 그 세부 사항과 과제, 전망을 해석한다.theverge.com



1. Search Live란 무엇인가

Search Live는 "AI Mode"에 통합된 음성 대화형 인터페이스다. 기존의 Google 음성 검색은 질문을 읽어도 답변은 텍스트로 반환되는 사양이었다. 새로운 기능에서는 AI가 인간에 가까운 목소리로 응답하며, 사용자는 추가 질문이나 다른 표현을 통해 정보를 깊이 파고들 수 있다. 또한, 응답 하단에 표시되는 웹 링크에서 1차 정보로 이동할 수 있어 “블랙박스 응답”에 대한 불안을 경감하는 설계다.heise.de



2. 기술적 배경—Gemini 2.5 Flash-Lite의 최적화

본 서비스는 Gemini 2.5 Flash-Lite로 불리는 고속·경량 모델을 기반으로, 검색 인덱스와 직접 연계하는 커스텀 버전 Gemini를 사용하고 있다고 Google은 설명한다. Gemini 2.5는 여러 모달(텍스트·이미지·음성)에 대응하며, 추론 속도를 중시한 설계가 특징이다. 음성 인식에는 독자적인 온디바이스 음향 모델이 병용되어, 지연을 300ms 이하로 억제하고, 대화의 “간격”을 느끼지 못하는 경험을 실현하고 있다.blog.google



3. 기존 음성 어시스턴트와의 차이점

  • 실시간 쌍방향성
    기존의 Google Assistant는 정형화된 명령어 중심이었으나, Search Live는 문맥 유지와 추가 질문에 강하며, 길이 제한도 느슨하다.

  • 검색 결과와의 직결
    응답과 동시에 출처 링크를 나열하여, 사실 확인이 용이하다.

  • 멀티태스킹 지속
    배경에서 대화를 유지하며, 다른 앱으로 이동해도 대화가 끊기지 않는다.

  • 시각 입력의 확장 예정
    조만간 카메라로 비춘 대상을 AI가 설명하는 기능을 구현할 예정이다.theverge.com



4. 경쟁 동향: OpenAI·Anthropic·Apple

2024년 OpenAI는 ChatGPT에 Voice Mode를 도입하고, 2025년 전반에는 다국어 지원을 확대. Anthropic도 Claude 3에서 음성 대화를 β 공개했다. Apple은 WWDC 2025에서 Siri의 "Cognos" 업그레이드를 예고하며, 자연 대화와 단말 내 LLM을 통합할 것으로 소문난다.이러한 움직임은 검색과 음성 UI가 동시에 진화하는 "포스트 키워드 시대"의 도래를 시사한다. theverge.com



5. 사용자 경험: 구체적인 유스케이스

장면Search Live 활용 예기대 효과
여행 준비여행 가방 안에서 린넨이 구겨지지 않는 팁을 질문참고 링크가 포함된 방법을 즉시 획득
요리냉장고의 남은 재료를 읽어주고 레시피 제안을 받기추가 구매 리스트도 생성
공부역사 용어 정의→깊이 있는 질문→관련 사이트 열람대화 형식으로 이해도 향상
시각 지원 (예정)카메라로 식물을 비추고 "이름은?"이라고 질문즉석에서 식별+재배 방법 제시




6. 프라이버시 및 윤리 문제

음성 데이터는 클라우드로 전송되고 대화 기록도 저장되기 때문에, GDPR 및 일본의 개인정보 보호법과의 일치가 필수적이다. Google은 "데이터는 광고 타겟팅에 사용하지 않는다"고 설명하지만, 잘못된 정보 확산의 위험이나 제3자 음성의 잘못된 수집 등 해결되지 않은 문제도 많다. 유럽에서의 제공 시기가 미정인 것도 규제 대응의 어려움을 말해준다.heise.de



7. 일본 시장에 미치는 영향

  • 검색 광고 모델의 재설계: 음성 응답 중심이 되면, 기존의 링크 클릭 기반 광고는 CTR이 감소할 가능성.

  • 고령자 및 시각 장애인의 UX 향상: 키보드 조작이 어려운 층에 혜택.

  • 방송 업계와의 구분: 음성으로 뉴스나 해설을 얻는 행위가 팟캐스트나 라디오와 경쟁.

  • 기업의 SEO 전략: FAQ 형식이나 대화형 콘텐츠가 중요성을 더하며, "Voice SEO"가 필수가 됨.


일본어 모델의 정확도나 방언 대응, 스토어 심사 등의 이유로 정식 론칭은 빨라야 2026년 이후라는 견해도 있지만, 회사는 "글로벌 전개를 염두에 두고 최적화 중"이라고 한다.


요약

Search Live는 "검색=입력/읽기"라는 20세기적 패러다임을 "말하기/듣기"로 변화시키는 혁신의 첫걸음이다.Gemini 2.5 Flash-Lite를 핵심으로, 고속·양방향·멀티모달을 갖춘 음성 검색은 일상의 정보 탐색을 “대화”로 자연스럽게 통합합니다.

경쟁자를 포함하여, 음성 우선 시대의 UX와 비즈니스 모델의 재구성이 시작된 지금, 우리가 정보와 마주하는 자세 자체가 시험대에 오르고 있습니다.



참고 기사 목록

  1. Heise Online「Google erlaubt sprachliche Unterhaltung mit KI-Chatbot in der Live-Suche」(2025년 6월 18일) heise.de

  2. Google Blog「Search Live: Talk, listen and explore in real time with AI Mode」(2025년 6월 18일) blog.google

  3. The Verge「Google tests real-time AI voice chats in Search」(2025년 6월 18일) theverge.com

참고 기사

Google은 라이브 검색에서 AI 챗봇과의 음성 대화를 허용
출처: https://www.heise.de/news/Google-erlaubt-sprachliche-Unterhaltung-mit-KI-Chatbot-in-der-Live-Suche-10452190.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag

← 기사 목록으로 돌아가기

문의하기 |  이용약관 |  개인정보처리방침 |  쿠키 정책 |  쿠키 설정

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.