ข้ามไปที่เนื้อหาหลัก
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア โลโก้
  • บทความทั้งหมด
  • 🗒️ สมัครสมาชิก
  • 🔑 เข้าสู่ระบบ
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • हिंदी
cookie_banner_title

cookie_banner_message นโยบายความเป็นส่วนตัว cookie_banner_and นโยบายคุกกี้ cookie_banner_more_info

การตั้งค่าคุกกี้

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

1 GPU สามารถสร้างเสียง 1 นาทีใน 1 วินาที ไมโครซอฟท์เปิดตัว AI ภายใน ─ Copilot จะพัฒนา "หัวใจ" ด้วยตัวเองหรือไม่

1 GPU สามารถสร้างเสียง 1 นาทีใน 1 วินาที ไมโครซอฟท์เปิดตัว AI ภายใน ─ Copilot จะพัฒนา "หัวใจ" ด้วยตัวเองหรือไม่

2025年08月30日 08:23

โมเดลที่พัฒนาภายในเปิดทางสู่ "การแข่งขันร่วมกัน"

ไมโครซอฟท์ได้ตัดสินใจเปิดตัว AI ที่พัฒนาภายในอย่างเต็มรูปแบบ การประกาศนี้มีขึ้นเมื่อวันที่ 28 สิงหาคม 2025 (ตามเวลาท้องถิ่น) The Verge ได้แสดงความเห็นว่าเป็น "การบิดใหม่ในความร่วมมือที่ซับซ้อนกับ OpenAI" และจัดให้เป็น "โมเดลคู่แข่ง" ที่ยืนเคียงข้าง GPT-5 และ DeepSeek นั่นหมายความว่าบริษัทได้ก้าวเข้าสู่ขั้นตอนของ "การแข่งขันร่วมกัน" โดยร่วมมือกับ OpenAI ในขณะที่ยังคงยืนอยู่ในแนวหน้าด้วยตนเองThe Verge


MAI-Voice-1: เสียง 1 นาทีด้วย 1 GPU ในเวลาน้อยกว่า 1 วินาที

หนึ่งในไฮไลท์คือโมเดลการสร้างเสียง "MAI-Voice-1" ตามการประกาศอย่างเป็นทางการ โมเดลนี้สามารถสังเคราะห์เสียง 1 นาทีได้ในเวลาน้อยกว่า 1 วินาทีด้วย GPU เดียว ได้ถูกนำไปใช้ใน "Copilot Daily" ที่อ่านข่าว และฟังก์ชันที่อธิบายหัวข้อในรูปแบบ "พ็อดคาสต์" นอกจากนี้ยังสามารถทดลองเปลี่ยนแปลงคุณภาพเสียงและสไตล์การพูดของผู้พูดใน Copilot Labs ได้อีกด้วยMicrosoft AI


MAI-1-preview: MoE LLM ที่ฝึกด้วย H100 ประมาณ 15,000 ตัว

อีกหนึ่งโมเดลใหม่ "MAI-1-preview" เป็นโมเดลภาษาขนาดใหญ่แบบ Mixture-of-Experts ที่มีความสามารถในการติดตามคำสั่งได้ดี ได้ใช้ NVIDIA H100 ประมาณ 15,000 ตัวในการฝึกทั้งก่อนและหลังการเรียนรู้ เริ่มต้นด้วยการทดสอบสาธารณะบนแพลตฟอร์มประเมินชุมชน "LMArena" และเก็บความคิดเห็นผ่านการเข้าถึง API ที่จำกัด มีการประกาศว่าจะมีการเปิดตัวแบบค่อยเป็นค่อยไปสำหรับการใช้งานข้อความเฉพาะใน Copilot ภายในไม่กี่สัปดาห์Microsoft AIPYMNTS.com


แนวคิดการออกแบบที่ "เหมาะสมที่สุดสำหรับผู้บริโภค"

Mustafa Suleyman จาก Microsoft AI ได้กล่าวไว้ว่าความสำคัญของโมเดลที่พัฒนาภายในคือ "ประสบการณ์ของผู้บริโภค" โดยใช้ข้อมูลทรัพย์สินของบริษัทเช่นโฆษณาและการวัดผลการใช้งานของผู้บริโภค เพื่อปรับให้เหมาะสมกับ "AI Companion" เมื่อพิจารณาจากบริบทของบริษัทที่มุ่งเน้นการนำผลิตภัณฑ์เป็นหลัก จะเห็นได้ว่าการพัฒนาภายในนี้มีเป้าหมายเพื่อปรับปรุง "เส้นทางประจำวัน" ของ CopilotThe Verge


Copilot มุ่งสู่ "การจัดการโมเดลที่ดีที่สุด"

บริษัทได้แสดงเจตนาที่จะใช้ "โมเดลที่ดีที่สุด" จาก OpenAI และโอเพ่นซอร์สต่อไป ในขณะเดียวกันก็เริ่มใช้ MAI-1-preview ในบางฟังก์ชันของ Copilot สิ่งที่สำคัญคือแนวคิดในการ "จัดการโมเดลที่เหมาะสมที่สุดสำหรับแต่ละกรณีการใช้งาน" ในขั้นตอนนี้ไม่ใช่การแทนที่ทั้งหมด แต่ความแม่นยำในการเลือกใช้จะเป็นตัวตัดสินMicrosoft AI


ความทะเยอทะยานด้านโครงสร้างพื้นฐาน: การทำงานของคลัสเตอร์ GB200

ในเอกสารประกาศยังได้กล่าวถึงการทำงานของคลัสเตอร์ NVIDIA GB200 รุ่นต่อไป ซึ่งหมายความว่าบริษัทได้เตรียมการเพื่อปรับปรุงโมเดลที่พัฒนาภายในอย่างต่อเนื่องและในขนาดใหญ่ ความสามารถในการดำเนินการอัปเดตบ่อยครั้งในขณะที่ลดต้นทุนการเรียนรู้และการคาดการณ์จะเป็นปัจจัยที่สร้างความแตกต่างจากคู่แข่งMicrosoft AI


การทดลองใช้: Copilot Labs และ LMArena

เส้นทางการทดลองได้เปิดแล้ว MAI-Voice-1 สำหรับการสร้างเสียงสามารถทดลองได้จาก Copilot Labs ส่วน MAI-1-preview ทางด้าน LLM สามารถเข้าร่วมการประเมินใน LMArena และบริษัทยังเปิดรับผู้ทดสอบผ่าน API ที่จำกัดอีกด้วย นี่เป็นกระบวนการเพื่อระบุ "ลักษณะเฉพาะ" และ "ขอบเขตที่ถนัด" ร่วมกับชุมชนก่อนการนำไปใช้ในผลิตภัณฑ์Microsoft AI


ผลตอบรับจากโซเชียลมีเดีย: "ท่วงทำนองสองเสียง" ของความคาดหวังและความระมัดระวัง

 


ใน X (ชื่อเดิม Twitter) Suleyman ได้ประกาศ "โมเดลที่พัฒนาภายในครั้งแรก" ด้วยตนเอง บัญชีที่เกี่ยวข้องกับเทคโนโลยีได้เผยแพร่ต่อกันอย่างรวดเร็ว โดยมีโพสต์ที่รับรู้ในเชิงบวกว่าเป็น "ก้าวแรกสู่การพึ่งพาตนเองทางกลยุทธ์จาก OpenAI"X (formerly Twitter)


ในทางกลับกัน PhoneArena ได้เน้นถึงความกังวลเกี่ยวกับ "ยุคที่สามารถสร้างเสียงได้เหมือนใครก็ได้" โดยมีการเรียกร้องให้มีการจัดการการแพร่กระจายของเสียงปลอมและการพัฒนาวิธีการตรวจสอบ นอกจากนี้ใน Reddit ยังมีการอภิปรายเกี่ยวกับ "ความปลอดภัยจะถูกประกันได้อย่างไร" และการนิยามความสัมพันธ์ใหม่กับ OpenAIPhoneArenaReddit


ผลกระทบทางกลยุทธ์: "สมดุลใหม่" กับ OpenAI

โมเดลที่พัฒนาภายในครั้งนี้ไม่ได้หมายความว่าจะ "ยุติ" ความสัมพันธ์ระหว่าง OpenAI และไมโครซอฟท์ในทันที แต่ตามที่ The Verge ชี้ให้เห็น บริษัทได้แสดงให้เห็นถึงสถานการณ์ใหม่ที่ไม่เพียงแต่เป็น "ผู้จัดหาโมเดลชั้นนำ" แต่ยังเป็น "คู่แข่ง" ด้วย หากสามารถทำให้หัวใจของ Copilot เป็นของตนเองได้ จะสามารถเร่งความเร็วในการแตกต่างได้ตามความต้องการของบริษัทThe Verge


จุดที่ต้องประเมินในอนาคต

  1. ประสิทธิภาพ: การวัดผลใน LMArena เป็นต้น จะสามารถขึ้นสู่อันดับสูงสุดได้มากน้อยเพียงใด

  2. ประสบการณ์: การนำเข้า Copilot แบบค่อยเป็นค่อยไป คุณภาพการตอบสนอง ความเร็วในการตอบสนอง และความเป็นธรรมชาติของเสียงจะดีขึ้นหรือไม่

  3. ความปลอดภัย: การตรวจจับและติดฉลากเสียงปลอม การควบคุมอัตราและการติดตามเมื่อมีการใช้งานในทางที่ผิด

  4. ความประหยัด: การสร้างที่รวดเร็วด้วย GPU เดียว ความได้เปรียบด้านต้นทุนการคาดการณ์จะส่งผลต่อการดำเนินงานอย่างไร

  5. การกำกับดูแล: การออกแบบการใช้ร่วมกับโมเดลของ OpenAI และบริษัทอื่นๆ จะสามารถรักษาความโปร่งใสและความรับผิดชอบได้หรือไม่Microsoft AI


บทสรุป: การพัฒนาภายในไม่ใช่ "เป้าหมาย" แต่เป็น "วิธีการ"

การนำโมเดลที่พัฒนาภายในมาใช้ไม่ใช่ "เป้าหมาย" เพื่อแข่งขันในเวทีเดียวกับ OpenAI แต่เป็น "วิธีการ" เพื่อปรับปรุงประสบการณ์ Copilot ที่เข้าถึงชีวิตประจำวันของผู้ใช้ด้วยความเร็วของบริษัท การเปิดตัว MAI-Voice-1 และ MAI-1-preview เป็นเพียงบทเริ่มต้นของเรื่องราวนี้ กุญแจของบทต่อไปอยู่ที่ข้อมูลประสิทธิภาพในสถานการณ์จริง การดำเนินงานที่ปลอดภัย และการจัดการ "โมเดลที่ดีที่สุด" ได้มากน้อยเพียงใดMicrosoft AI


บทความอ้างอิง

ไมโครซอฟท์เปิดตัวโมเดล AI ที่พัฒนาภายในครั้งแรก
ที่มา: https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai

Powered by Froala Editor

← กลับไปที่รายการบทความ

contact |  ข้อกำหนดการใช้งาน |  นโยบายความเป็นส่วนตัว |  นโยบายคุกกี้ |  การตั้งค่าคุกกี้

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア สงวนลิขสิทธิ์