ข้ามไปที่เนื้อหาหลัก
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア โลโก้
  • บทความทั้งหมด
  • 🗒️ สมัครสมาชิก
  • 🔑 เข้าสู่ระบบ
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • हिंदी
cookie_banner_title

cookie_banner_message นโยบายความเป็นส่วนตัว cookie_banner_and นโยบายคุกกี้ cookie_banner_more_info

การตั้งค่าคุกกี้

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

"ภาพลวงตาของ AI ที่คิดได้ ─ AI ติดขัดตรงไหน? บทความของ Apple และรายงานของ CNBC ที่เจาะลึกถึงแก่น"

"ภาพลวงตาของ AI ที่คิดได้ ─ AI ติดขัดตรงไหน? บทความของ Apple และรายงานของ CNBC ที่เจาะลึกถึงแก่น"

2025年06月27日 00:57

1. บทนำ: ความรู้สึกแปลกๆ ที่เพิ่มขึ้นภายใต้ความคลั่งไคล้

คำสำคัญที่บ่งบอกถึงฉากที่สองของบูม AI ที่สร้างขึ้นคือ "การให้เหตุผล (Reasoning)" เมื่อ ChatGPT และ Google Gemini นำเสนอแนวคิดการคิดแบบเสียงดัง (Chain-of-Thought) มีเสียงยกย่องว่า "ครั้งนี้ใกล้เคียงกับการคิดแบบมนุษย์มากขึ้น" แต่ในวันที่ 26 มิถุนายน CNBC ได้ตั้งคำถามที่ทำให้บรรยากาศการเฉลิมฉลองเย็นลง — "โมเดลที่แสดงความคิดนั้นฉลาดขึ้นจริงหรือ?" คำถามนี้ไม่ต้องใช้เวลานานในการเรียกพายุเข้ามา


2. โครงสร้างของบทความ CNBC: จุดวิกฤตของการล่มสลายของความแม่นยำ

ตาม CNBC ดิจิทัลและรายการโทรทัศน์ TechCheck มีการวิจัยอิสระหลายชิ้นที่แสดงให้เห็นว่า "เมื่อโมเดลทำการให้เหตุผลเป็นขั้นตอนมากขึ้น เมื่อถึงจุดซับซ้อนที่เกินกว่าอัตราความถูกต้องจะลดลงอย่างรวดเร็ว" ซึ่งเป็นปรากฏการณ์ที่ถูกทำซ้ำ สัญลักษณ์ของสิ่งนี้คือบทความของ Apple The Illusion of Thinking ทีมวิจัยได้เปรียบเทียบ LLM ที่ล้ำสมัยกว่า 20 รายการในสามด้าน: คณิตศาสตร์ การเขียนโปรแกรม และแนวคิดที่ไม่รู้จัก และแสดงกราฟที่แสดงให้เห็นว่าโมเดลที่สร้างร่องรอยความคิดจะลดลงในประสิทธิภาพเมื่อถึง “critical complexity” โมเดลจะสร้างการให้เหตุผลที่ยาวนาน แต่คำตอบสุดท้ายผิดพลาด ซึ่งเป็นความล้มเหลวที่ "คิดแล้วพลาด"theverge.com


CNBC ได้ตั้งชื่อพฤติกรรมนี้ว่า “accuracy collapse” รายงานว่าผู้ลงทุนเริ่มตั้งคำถามว่า "มีคุณค่าหรือไม่ที่จะรวมโมเดลการให้เหตุผลที่มีต้นทุนสูง"


3. โมเดล Reasoning คืออะไร — "การพูดคนเดียวที่ยาวนาน" ที่สะดวกสบาย

ในขณะที่โหมดมาตรฐานของ LLM คือ "การทำนายโทเค็นถัดไป" โมเดลการให้เหตุผลมีจุดขายคือ "การแสดงความคิดเป็นขั้นตอน" การเรียงลำดับสมการ การเรียกฟังก์ชัน การระบุความรู้ — กระบวนการเหล่านี้ถูกเก็บไว้ในรูปแบบที่มนุษย์อ่านได้ ทำให้ได้รับการประเมินว่าช่วยเพิ่ม การดีบัก และ ความรับผิดชอบในการอธิบาย แต่บทความของ Apple ได้วิจารณ์ว่า "สิ่งที่เห็นไม่ใช่ความคิด แต่เป็นเพียงร่องรอยของ 'เกมการเชื่อมโยงตัวเอง'" แม้จะดูเหมือนมีเหตุผล แต่เมื่อความซับซ้อนเกินขีดจำกัด โมเดลจะลดการคิดลงอย่างรวดเร็วและอาจให้ผลลัพธ์ที่สั้นเท่ากับ “I don’t know”itpro.com


4. พายุแห่งการโต้แย้ง: การตอบโต้จาก Anthropic และ Meta

ต่อข้อสรุปที่ท้าทายของ Apple, Anthropic ได้โต้แย้งทันทีว่า "เบนช์มาร์กผิดพลาด" และได้ทำการตรวจสอบใหม่ร่วมกับ Open Philanthropy ผลลัพธ์คือ "เป็นเพียงการสูญเสียคะแนนเนื่องจากการกำหนดรูปแบบและการหมดเวลา" และเน้นว่า **"โมเดลความคิดยังคงอยู่"** Meta ก็เช่นกัน แม้จะมีรายงานความล้มเหลวในการซื้อ Safe Superintelligence แต่ได้อธิบายว่าความล่าช้าของโมเดลที่พัฒนาขึ้นเอง Behemoth เป็นเพราะ "การปรับความแม่นยำ" และให้สัมภาษณ์เพิ่มเติมกับ CNBC ว่า "ในระยะยาวโมเดลการคิดเป็นสิ่งจำเป็น"rcrwireless.com


5. ปฏิกิริยาบนโซเชียลมีเดีย: การระเบิดของ #ReasoningGate

บน X (เดิมคือ Twitter) ภายใน 24 ชั่วโมงหลังจากการเผยแพร่บทความ #ReasoningGate ได้กลายเป็นเทรนด์ "โมเดลไม่ใช่ 'Thinking Out Loud' แต่เป็น 'Guessing Out Loud'" "เราถูกหลอกโดยการพูดคนเดียวของ AI หรือไม่" มีการเสียดสีมากมาย โดยเฉพาะนักลงทุน Venture Capitalist @AIThesis ได้โพสต์ว่า "ความโปร่งใสไม่จำเป็นต้องถูกต้องเสมอไป การลงทุนต้องพิจารณาเนื้อหา" และได้รับ 23,000 ไลค์ บัญชีทางการของสื่อ @CNBC ก็ได้โพสต์วิดีโอสั้นๆ หัวข้อ "Why ‘thinking’ models may not actually be smarter" ซึ่งมีผู้ชมถึง 145,000 ครั้ง

 



ในขณะเดียวกันใน Reddit /r/ArtificialIntelligence มีการกลับมาอีกครั้งของกระทู้ Are current AI models really reasoning, or just predicting the next token? ซึ่งกลายเป็นการถกเถียงใหญ่ระหว่าง "มันก็แค่การทำให้การเติมคำอัตโนมัติมีความยาวขึ้น" กับ "การเชื่อมโยงก็เป็นรูปแบบหนึ่งของการคิดที่เพียงพอ" กระทู้มีความคิดเห็นมากกว่า 1,200 รายการภายใน 48 ชั่วโมงreddit.com


6. ประเด็นทางเทคนิค: การคิดมากเกินไปและความซับซ้อนที่สำคัญ

การวิเคราะห์ของ IEEE Spectrum รายงานว่า "โมเดลการให้เหตุผลจะมีอัตราความสำเร็จลดลงเมื่อ 'คิดมากเกินไป'" การเพิ่มขั้นตอนการคิดไม่ได้เชื่อมโยงกับการเพิ่มความแม่นยำเสมอไป แต่กลับนำไปสู่ "การลงโทษจากการคิดมากเกินไป" นอกจากนี้ การวิจัยจาก NUS และ Johns Hopkins ชี้ให้เห็นว่า "เนื่องจากขาดกลไกหน่วยความจำการทำงานของมนุษย์ ไม่สามารถเก็บรักษาเส้นทางกลางได้และนำไปสู่ความขัดแย้งในตัวเอง"spectrum.ieee.orgarxiv.org


7. ผลกระทบต่ออุตสาหกรรม: การปรับโครงสร้างเงินทุนและแผนที่ทาง

จากฝั่งนักลงทุน มีการประมาณการว่าต้นทุนเพิ่มเติมในการคำนวณโซ่เหตุผลจะเท่ากับ "ราคาต่อโทเค็น +30〜50%" ซึ่งทำให้ความได้เปรียบด้านราคาสั่นคลอน บาง VC เริ่มปรับพอร์ตโฟลิโอโดยกล่าวว่า "การเชื่อมต่อ LLM ที่มีอยู่ในระดับ API จะมีความเสี่ยงน้อยกว่าการเพิ่มจำนวนโมเดลโดยไม่คิด" โมเดลที่มีประสิทธิภาพสูงและราคาถูกเช่น DeepSeek ได้รับการประเมินสูงขึ้น และการลงทุน GPU มูลค่ามหาศาลของ Google และ Nvidia ถูกตั้งคำถามอีกครั้งreuters.com


8. เส้นทางทางเลือก: รูปแบบไฮบริดและ Neural Symbolic

กุญแจในการแก้ปัญหาที่เกิดขึ้นคือ AI แบบ Neural Symbolic และ ตัวแทนแบบโมดูลาร์ ซึ่งเป็นวิธีการที่รวมข้อดีของ "กฎเชิงสัญลักษณ์" และ "การเรียนรู้เชิงลึก" โดยแยกส่วน "การคิด" ออกมาอย่างชัดเจน แนวทางนี้ที่เสนอโดย Gary Marcus และคนอื่นๆ กล่าวกันว่าสามารถ "รับประกันการให้เหตุผลเชิงสาเหตุ ในระดับวงจร" และมีการเพิ่มขึ้นของการลงทุนในสตาร์ทอัพหลังจาก ReasoningGateen.wikipedia.org


9. อะไรคือ "การคิด" — มุมมองทางปรัชญา

John Mark Bishop ได้กล่าวไว้ตั้งแต่ปี 2020 ในบทความที่ชื่อว่า "AI is stupid and causal reasoning won’t fix it" ว่า "การคำนวณไม่ใช่ความเข้าใจ" ความวุ่นวายในครั้งนี้เป็นการอัปเดตคำเตือนนั้นในเวอร์ชันปี 2025 ช่องว่างระหว่าง "ความเข้าใจในความหมาย" ที่มนุษย์ทำกับ "การเชื่อมโยงเชิงสถิติ" ที่ LLM ทำยังคงไม่ถูกเติมเต็มarxiv.org


10. มุมมองในอนาคต: การก้าวข้ามความขัดแย้งระหว่างความโปร่งใสและความถูกต้อง

ในระยะสั้น (1) การออกแบบเบนช์มาร์กใหม่, (2) เครื่องมือการตรวจสอบอัตโนมัติของร่องรอยความคิด, (3) การเพิ่มประสิทธิภาพฮาร์ดแวร์ เป็นสิ่งที่จำเป็นเร่งด่วน ในขณะที่วิสัยทัศน์ระยะยาวคือ "การติดตั้งหน่วยความจำการทำงานใน AI", "การนำเสนอการสร้างแบบจำลองเชิงสาเหตุในรูปแบบเนทีฟ", "การแก้ไขข้อผิดพลาดด้วยการทำงานร่วมกันของหลายตัวแทน" การออกแบบปรัชญาอาจถูกพิจารณาใหม่


บทความอ้างอิง

ปัญหาการให้เหตุผลของ AI — เหตุผลที่โมเดล "การคิด" อาจไม่ฉลาดจริงๆ
ที่มา: https://www.cnbc.com/2025/06/26/ai-reasoning-models-problem.html

← กลับไปที่รายการบทความ

contact |  ข้อกำหนดการใช้งาน |  นโยบายความเป็นส่วนตัว |  นโยบายคุกกี้ |  การตั้งค่าคุกกี้

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア สงวนลิขสิทธิ์