ข้ามไปที่เนื้อหาหลัก
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア โลโก้
  • บทความทั้งหมด
  • 🗒️ สมัครสมาชิก
  • 🔑 เข้าสู่ระบบ
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • हिंदी
cookie_banner_title

cookie_banner_message นโยบายความเป็นส่วนตัว cookie_banner_and นโยบายคุกกี้ cookie_banner_more_info

การตั้งค่าคุกกี้

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Google ค้นหาก้าวสู่ยุค "พูดได้" — ฟีเจอร์แชทเสียง AI "Search Live" เริ่มทดสอบสาธารณะในสหรัฐอเมริกา

Google ค้นหาก้าวสู่ยุค "พูดได้" — ฟีเจอร์แชทเสียง AI "Search Live" เริ่มทดสอบสาธารณะในสหรัฐอเมริกา

2025年06月19日 12:29

เริ่มต้น

"การพิมพ์คำค้นหาในช่องค้นหา" —— ประสบการณ์การค้นหาของผู้ใช้ที่ไม่เปลี่ยนแปลงมาหลายสิบปี กำลังจะถูกเปลี่ยนแปลงด้วยเสียงและการสนทนา ในวันที่ 18 มิถุนายน 2025 (ตามเวลาสหรัฐอเมริกา) Google ได้เปิดตัวการทดสอบฟีเจอร์ใหม่ "Search Live" ในโหมด AI สำหรับผู้เข้าร่วม Google Labs บอทแชทเสียงที่ใช้ Gemini เป็นพื้นฐานจะสนทนากับผู้ใช้อย่างเป็นธรรมชาติ และแสดงลิงก์ที่เกี่ยวข้องบนหน้าจอ สามารถใช้งานได้ทั้งบน Android และ iOS โดยไม่มีค่าใช้จ่ายเพิ่มเติม บทความนี้จะวิเคราะห์รายละเอียด ปัญหา และแนวโน้ม รวมถึงการเคลื่อนไหวของคู่แข่งและผลกระทบต่อตลาดญี่ปุ่นtheverge.com



1. Search Live คืออะไร

Search Live คืออินเทอร์เฟซสนทนาเสียงที่รวมอยู่ใน "AI Mode" การค้นหาเสียงของ Google แบบเดิมจะอ่านข้อความคำถาม แต่คำตอบจะกลับมาในรูปแบบข้อความ ฟีเจอร์ใหม่นี้ AI จะตอบกลับด้วยเสียงที่ใกล้เคียงกับมนุษย์ และผู้ใช้สามารถถามคำถามเพิ่มเติมหรือเปลี่ยนคำถามเพื่อขุดค้นข้อมูลได้มากขึ้น นอกจากนี้ยังสามารถกระโดดไปยังข้อมูลต้นฉบับจากลิงก์เว็บที่แสดงด้านล่างคำตอบ ซึ่งออกแบบมาเพื่อลดความกังวลเกี่ยวกับ "คำตอบกล่องดำ"heise.de



2. พื้นฐานทางเทคนิค — การปรับแต่ง Gemini 2.5 Flash-Lite

บริการนี้ใช้โมเดลที่เรียกว่า Gemini 2.5 Flash-Lite ซึ่งเป็นโมเดลที่รวดเร็วและเบาเป็นพื้นฐาน โดยใช้ Gemini รุ่นปรับแต่งที่เชื่อมต่อโดยตรงกับดัชนีการค้นหา Google อธิบายว่า Gemini 2.5 รองรับหลายโมดอล (ข้อความ ภาพ เสียง) และออกแบบมาเพื่อเน้นความเร็วในการสรุปผล การรู้จำเสียงใช้โมเดลเสียงบนอุปกรณ์ที่เป็นเอกลักษณ์ ซึ่งช่วยลดความล่าช้าให้น้อยกว่า 300 มิลลิวินาที ทำให้ประสบการณ์การสนทนาไม่สะดุดblog.google



3. ความแตกต่างจากผู้ช่วยเสียงแบบเดิม

  • การโต้ตอบแบบสองทางเรียลไทม์
    Google Assistant แบบเดิมเน้นคำสั่งที่เป็นรูปแบบ แต่ Search Live มีความสามารถในการรักษาบริบทและการถามต่อเนื่อง และมีข้อจำกัดความยาวที่ผ่อนคลาย

  • การเชื่อมต่อโดยตรงกับผลการค้นหา
    แสดงลิงก์ที่มาในเวลาเดียวกับคำตอบ ทำให้การตรวจสอบข้อเท็จจริงง่ายขึ้น

  • การทำงานหลายอย่างต่อเนื่อง
    รักษาการสนทนาในพื้นหลัง และไม่ขาดตอนแม้ย้ายไปยังแอปอื่น

  • การขยายการป้อนข้อมูลด้วยภาพ
    มีแผนที่จะเพิ่มฟีเจอร์ที่ AI จะอธิบายวัตถุที่ถ่ายด้วยกล้องในเร็วๆ นี้theverge.com



4. การเคลื่อนไหวของคู่แข่ง: OpenAI, Anthropic, Apple

ในปี 2024 OpenAI ได้เพิ่ม Voice Mode ให้กับ ChatGPT และในช่วงต้นปี 2025 ได้ขยายการรองรับหลายภาษา Anthropic ก็เปิดตัวการสนทนาเสียงใน Claude 3 แบบเบต้า Apple ได้ประกาศอัปเกรด Siri "Cognos" ในงาน WWDC 2025 โดยมีข่าวลือว่าจะรวมการสนทนาธรรมชาติและ LLM ในอุปกรณ์การเคลื่อนไหวเหล่านี้บ่งบอกถึงการมาถึงของ "ยุคหลังคีย์เวิร์ด" ที่การค้นหาและ UI เสียงพัฒนาไปพร้อมกัน theverge.com



5. ประสบการณ์ผู้ใช้: กรณีการใช้งานที่เฉพาะเจาะจง

ฉากตัวอย่างการใช้ Search Liveผลที่คาดหวัง
การเตรียมการเดินทางถามเคล็ดลับไม่ให้ผ้าลินินยับในกระเป๋าเดินทางรับวิธีการพร้อมลิงก์อ้างอิงทันที
การทำอาหารอ่านวัตถุดิบที่เหลือในตู้เย็นและรับคำแนะนำสูตรอาหารสร้างรายการซื้อของเพิ่มเติม
การศึกษานิยามคำศัพท์ทางประวัติศาสตร์→ถามเจาะลึก→ดูเว็บไซต์ที่เกี่ยวข้องเพิ่มความเข้าใจในรูปแบบสนทนา
การสนับสนุนด้านการมองเห็น (แผน)ถ่ายภาพพืชด้วยกล้องและถาม "ชื่ออะไร?"ระบุทันทีพร้อมแนะนำวิธีการดูแล




6. ความเป็นส่วนตัวและปัญหาด้านจริยธรรม

ข้อมูลเสียงถูกส่งไปยังคลาวด์และประวัติการสนทนาถูกบันทึกไว้ ดังนั้นการสอดคล้องกับ GDPR และกฎหมายคุ้มครองข้อมูลส่วนบุคคลของญี่ปุ่นจึงเป็นสิ่งจำเป็น Google อธิบายว่า "ข้อมูลจะไม่ถูกใช้เพื่อการโฆษณาแบบกำหนดเป้าหมาย" แต่ยังมีปัญหาที่ยังไม่แก้ไขมากมาย เช่น ความเสี่ยงในการแพร่กระจายข้อมูลที่ผิดและการเก็บเสียงของบุคคลที่สามโดยไม่ได้ตั้งใจ ความยากลำบากในการปฏิบัติตามกฎระเบียบยังสะท้อนให้เห็นในเวลาที่ไม่แน่นอนในการให้บริการในยุโรปheise.de



7. ผลกระทบต่อตลาดญี่ปุ่น

  • การออกแบบใหม่ของโมเดลโฆษณาการค้นหา: เมื่อการตอบสนองด้วยเสียงกลายเป็นศูนย์กลาง โฆษณาแบบคลิกผ่านลิงก์แบบเดิมอาจมี CTR ลดลง

  • การปรับปรุง UX สำหรับผู้สูงอายุและผู้ที่มีปัญหาทางสายตา: เป็นประโยชน์สำหรับกลุ่มที่มีความยากลำบากในการใช้คีย์บอร์ด

  • การแบ่งแยกกับอุตสาหกรรมการออกอากาศ: การรับข่าวสารหรือคำอธิบายด้วยเสียงจะแข่งขันกับพอดแคสต์และวิทยุ

  • กลยุทธ์ SEO ของบริษัท: เนื้อหาในรูปแบบ FAQ หรือการสนทนาจะมีความสำคัญมากขึ้น และ "Voice SEO" จะกลายเป็นสิ่งจำเป็น


มีมุมมองว่าการเปิดตัวอย่างเป็นทางการอาจไม่เกิดขึ้นจนถึงปี 2026 หรือหลังจากนั้น เนื่องจากความแม่นยำของโมเดลภาษาญี่ปุ่น การรองรับภาษาถิ่น และการตรวจสอบร้านค้า แต่บริษัทกล่าวว่ากำลังปรับให้เหมาะสมโดยคำนึงถึงการขยายตัวทั่วโลก


สรุป

Search Live เป็นก้าวแรกของการเปลี่ยนแปลงที่เปลี่ยนพาราไดม์การค้นหาแบบ "พิมพ์/อ่าน" ของศตวรรษที่ 20 ไปสู่ "พูด/ฟัง"
Gemini 2.5 Flash-Lite เป็นแกนหลัก การค้นหาด้วยเสียงที่รวดเร็ว ทวิภาคี และหลายโหมดรวมกัน นำการสำรวจข้อมูลในชีวิตประจำวันเข้าสู่ "การสนทนา" อย่างเป็นธรรมชาติ

ในขณะที่การสร้าง UX และโมเดลธุรกิจใหม่ในยุคเสียงมาก่อนเริ่มขึ้น รวมถึงคู่แข่ง ท่าทีของเราต่อข้อมูลก็ถูกตั้งคำถาม



รายการบทความอ้างอิง

  1. Heise Online「Google erlaubt sprachliche Unterhaltung mit KI-Chatbot in der Live-Suche」(18 มิถุนายน 2025) heise.de

  2. Google Blog「Search Live: Talk, listen and explore in real time with AI Mode」(18 มิถุนายน 2025) blog.google

  3. The Verge「Google tests real-time AI voice chats in Search」(18 มิถุนายน 2025) theverge.com

บทความอ้างอิง

Google อนุญาตให้สนทนาด้วยเสียงกับแชทบอท AI ในการค้นหาแบบสด
แหล่งที่มา: https://www.heise.de/news/Google-erlaubt-sprachliche-Unterhaltung-mit-KI-Chatbot-in-der-Live-Suche-10452190.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag

← กลับไปที่รายการบทความ

contact |  ข้อกำหนดการใช้งาน |  นโยบายความเป็นส่วนตัว |  นโยบายคุกกี้ |  การตั้งค่าคุกกี้

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア สงวนลิขสิทธิ์