ข้ามไปที่เนื้อหาหลัก
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア โลโก้
  • บทความทั้งหมด
  • 🗒️ สมัครสมาชิก
  • 🔑 เข้าสู่ระบบ
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • Deutsch
    • हिंदी
cookie_banner_title

cookie_banner_message นโยบายความเป็นส่วนตัว cookie_banner_and นโยบายคุกกี้ cookie_banner_more_info

การตั้งค่าคุกกี้

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

เหตุผลที่ไม่มอบหมายการลงทุนให้ AI ไม่ใช่เพราะความสามารถ ─ กุญแจสำคัญคือ "ความไว้วางใจจากความผูกพัน"

เหตุผลที่ไม่มอบหมายการลงทุนให้ AI ไม่ใช่เพราะความสามารถ ─ กุญแจสำคัญคือ "ความไว้วางใจจากความผูกพัน"

2026年01月08日 00:20

การตัดสินใจลงทุนครั้งนั้น ผู้ที่ผลักดันสุดท้ายไม่ใช่ "AI" แต่เป็น "คนรัก"

AI กำลังกลายเป็นที่ปรึกษาใกล้ชิดในเรื่องการเงินและการลงทุน ตั้งแต่การสรุปบทความ การจัดประเภทบัญชีครัวเรือน ไปจนถึงการเสนอพอร์ตการลงทุน เพียงแค่กดปุ่มก็จะได้รับคำตอบที่ดูเหมือนจะใช่ แต่เมื่อถึงเวลาตัดสินใจทางการเงินที่สำคัญ เช่น "จะรับความเสี่ยงหรือไม่" หรือ "จะเลือกแนวทางปลอดภัย" คนมักจะเชื่อคำแนะนำจากคนรักหรือคู่ครองมากกว่า AI — การวิจัยล่าสุดที่ Phys.org นำเสนอได้แสดงให้เห็นถึงความเป็นจริงที่สำคัญนี้ด้วยข้อมูล Phys.org


การวิจัยนี้ดำเนินการโดย Erik Hermann และทีมงานจาก European University Viadrina ในเยอรมนี จุดสำคัญไม่ใช่ว่า "AI ฉลาดหรือไม่" แต่คือ "ความไว้วางใจเกิดจากที่ไหน" โดยเปรียบเทียบกับคนรักซึ่งเป็น "บุคคลที่ใกล้ชิดที่สุด" Phys.org



การทดลอง 4 รูปแบบ: คนรัก, Robo-advisor, AI ที่มีลักษณะมนุษย์, และ "คนรัก×AI"

การทดลองนี้จัดขึ้นกับผู้เข้าร่วมชาวอเมริกันกว่า 1,400 คนที่มีความสัมพันธ์ โดยให้ผู้เข้าร่วมเลือกกองทุนที่มีความเสี่ยงต่ำและผลตอบแทนต่ำ หรือกองทุนที่มีความเสี่ยงสูงและผลตอบแทนสูง จากนั้นคำแนะนำในการเปลี่ยนแปลงการเลือกจะถูกนำเสนอจาก "ที่ปรึกษา" หลายคน เช่น คนรัก, Robo-advisor (AI), AI ที่มีชื่อมนุษย์ (ในบทความนี้เรียกว่า "Alex"), หรือคนรักที่ใช้ AI ในการให้คำแนะนำ Phys.org


ผลลัพธ์นั้นเรียบง่าย ผู้เข้าร่วมมีแนวโน้มที่จะเชื่อคำแนะนำจากคนรักมากกว่าจากคอมพิวเตอร์ (AI) อย่างมีนัยสำคัญ บทความของ Phys.org ระบุปัจจัยสำคัญสองประการที่ทำให้เกิดความแตกต่างนี้ หนึ่งคือ "การหลีกเลี่ยงอัลกอริทึม" — ความต้านทานทางจิตวิทยาต่อการมอบหมายการตัดสินใจสำคัญให้กับ AI อีกประการหนึ่งคือ "ความไว้วางใจทางอารมณ์" ที่มีต่อคนรัก กล่าวคือ คนตัดสินใจน้ำหนักของคำแนะนำไม่ใช่เพราะคนรักเป็นผู้เชี่ยวชาญทางการเงิน แต่เพราะรู้สึกว่าคนรักใส่ใจในความสุขของตนจริงๆ Phys.org


สิ่งที่น่าสนใจยิ่งกว่าคือการที่ "การปรับปรุงจากฝั่ง AI" สามารถลดช่องว่างนี้ได้ ตามบทคัดย่อของงานวิจัย การทำให้ AI มีลักษณะมนุษย์สามารถลดการหลีกเลี่ยง AI และคำแนะนำจาก Robo-advisor ที่มีลักษณะมนุษย์ได้รับการยอมรับในระดับเดียวกับคำแนะนำจากคนรัก นอกจากนี้ "คำแนะนำที่คนรักใช้ AI ช่วย" ก็มีอัตราการยอมรับสูงเท่ากับคนรักเพียงคนเดียว และชัดเจนว่าแข็งแกร่งกว่า AI เพียงอย่างเดียว ScienceDirect



ทำไม "คำพูดของคนรัก" ถึงสำคัญกว่า "AI ที่ดูเหมือนจะถูกต้อง"

สิ่งสำคัญที่งานวิจัยนี้แสดงให้เห็นคือ "โครงสร้างสองชั้นของความไว้วางใจ" ความไว้วางใจมีทั้งความคาดหวังในความสามารถและความแม่นยำ (ความไว้วางใจทางปัญญา) และความคาดหวังในความปรารถนาดีและความห่วงใย (ความไว้วางใจทางอารมณ์) ในสถานการณ์ที่มีผลกระทบต่อชีวิตอย่างการเงิน ส่วนหลังจะมีผลมากกว่า Phys.org อธิบายว่า "เราวางใจคนรักเพราะรู้สึกว่าพวกเขาใส่ใจในความสุขของเราจริงๆ" Phys.org


AI อาจแสดง "ความฉลาด" ได้จากข้อมูลการเรียนรู้และประสิทธิภาพของโมเดล แต่สร้างวงจรที่ผู้ใช้รู้สึกว่า "คำแนะนำนี้เพื่อฉัน" (ความไว้วางใจทางอารมณ์) ได้ยาก ดังนั้น การออกแบบให้มีลักษณะมนุษย์หรือการทำงานร่วมกันจึงมีประสิทธิภาพ งานวิจัยแนะนำว่าบริษัทการเงินควรออกแบบ AI ให้เป็น "ผู้ช่วยในการคิดร่วมกับมนุษย์" แทนที่จะขาย Robo-advisor เป็นตัวแทนมนุษย์ "ไม่ใช่การแทนที่มนุษย์" Phys.org



ประเด็นต่อไป: การทำให้มีลักษณะมนุษย์เป็น "ประโยชน์" แต่ก็ "เสี่ยง"

การทำให้มีลักษณะมนุษย์เพิ่มความไว้วางใจ — ผลลัพธ์นี้น่าสนใจในมุมมองการสร้างผลิตภัณฑ์ แต่ในขณะเดียวกัน "ความเป็นมนุษย์" ก็อาจนำไปสู่ความเข้าใจผิดได้ ผู้ใช้อาจเข้าใจผิดว่า AI มีอารมณ์หรือผลประโยชน์ และประเมินคำแนะนำเกินจริง


ในความเป็นจริง การอภิปรายเกี่ยวกับ AI บนอินเทอร์เน็ตมีการชี้ให้เห็นซ้ำๆ ว่า "มนุษย์ทำให้ทุกอย่างมีลักษณะมนุษย์" ในการอภิปรายบน Hacker News มีความคิดเห็นว่า "มนุษย์พูดคุยกับรถยนต์ เรือ และพืช นั่นเป็นธรรมชาติของมนุษย์" Hacker News


การทำให้มีลักษณะมนุษย์ช่วยให้ประสบการณ์ผู้ใช้ราบรื่นขึ้น แต่ก็อาจทำให้ความรับผิดชอบในการตัดสินใจและความเข้าใจในความเสี่ยงไม่ชัดเจน การเงินเป็นพื้นที่ที่อันตรายหากดำเนินไปด้วย "ความรู้สึกดี" เพียงอย่างเดียว



ปฏิกิริยาบนโซเชียลมีเดีย (ในขอบเขตที่สามารถตรวจสอบได้)

เนื่องจาก X (Twitter เดิม) มีข้อจำกัดในการเข้าถึง ทำให้ยากต่อการติดตามโพสต์และการตอบกลับจะสรุปแนวโน้มปฏิกิริยาโดยเน้นที่การสนทนาที่เปิดเผยซึ่งสามารถตรวจสอบได้โดยไม่ต้องเข้าสู่ระบบ


ปฏิกิริยา 1: เห็นด้วย "แน่นอนว่าฉันเชื่อคนรัก ในที่สุดมันคือการบริหารชีวิตร่วมกัน"

โพสต์อย่างเป็นทางการของ Phys.org บน LinkedIn ได้สรุปประเด็นสำคัญของการวิจัยว่า "ความไว้วางใจทางอารมณ์ต่อคนรักแข็งแกร่งกว่า AI" และ "การออกแบบ AI ให้ทำงานร่วมกันเป็นกุญแจสำคัญมากกว่าแทนที่" ซึ่งได้รับการยอมรับถึงความสำคัญของ "การตัดสินใจร่วมกับคนรัก (ครอบครัว)" ในบริบทธุรกิจ LinkedIn


ปฏิกิริยา 2: ผู้ที่เน้นประโยชน์ "AI ไม่ใช่สำหรับ 'การตัดสินใจครั้งสุดท้าย' แต่เป็นเครื่องมือในการจัดระเบียบความคิด"

ในบริบทอื่นๆ บน Hacker News มีการแชร์ประสบการณ์ว่า "ใช้ AI ในการถามคำถามเกี่ยวกับการลงทุน อสังหาริมทรัพย์ และการตัดสินใจทางการเงินอื่นๆ เพื่อ 'จัดโครงสร้างความคิด'" ในขณะที่มีการตอบสนองที่ระมัดระวังว่า "นั่นอาจจะมากเกินไป" Hacker News


ความแตกต่างนี้สอดคล้องกับทิศทางที่การวิจัยกล่าวถึง "ความต้านทานต่อ AI เพียงอย่างเดียว" และ "AI ที่ช่วยเสริมการตัดสินใจของมนุษย์จะได้รับการยอมรับมากกว่า"


ปฏิกิริยา 3: ความระมัดระวัง "การทำให้มีลักษณะมนุษย์เพื่อสร้างความเชื่อถือเป็นอันตรายโดยเฉพาะในด้านการเงิน"

การอภิปรายเกี่ยวกับการทำให้มีลักษณะมนุษย์ยังคงมีประเด็นที่ว่า "การทำให้มีลักษณะมนุษย์เป็นวิธีที่สะดวกในการเข้าใจ แต่ก็เพิ่มความเข้าใจผิด" บน Hacker News มีการพูดถึงการใช้การทำให้มีลักษณะมนุษย์เป็น "การทำให้เป็นนามธรรมที่สะดวก" และการที่บริษัทใช้การทำให้มีลักษณะมนุษย์มากเกินไปเพื่อกระตุ้นความคาดหวังเป็นเรื่องที่แยกออกจากกัน Hacker News


ในสถานการณ์ทางการเงิน หากเกิดความผิดพลาดตรงนี้ อาจนำไปสู่การสรุปว่า "AI ที่มีลักษณะมนุษย์ = AI ที่เชื่อถือได้" และการอภิปรายเกี่ยวกับความรับผิดชอบในการอธิบายหรือการเปิดเผยความเสี่ยงอาจถูกละเลย



สรุป: จุดสำคัญคือ "การออกแบบความสัมพันธ์" มากกว่า "ความแม่นยำ"

การวิจัยนี้ชี้ให้เห็นถึง "ช่องว่างของความไว้วางใจ" ที่ไม่สามารถเติมเต็มได้ด้วยการแข่งขันด้านประสิทธิภาพของ AI เพียงอย่างเดียว ในการตัดสินใจที่เกี่ยวข้องกับเงินจำนวนมาก คนไม่ได้เคลื่อนไหวด้วยความถูกต้องเพียงอย่างเดียว แต่ถูกดึงดูดโดยความไว้วางใจทางอารมณ์ที่เติบโตในความสัมพันธ์กับผู้ที่ใส่ใจในความสุขของตน Phys.org


แล้ว AI จะพ่ายแพ้ตลอดไปหรือไม่? — ไม่จำเป็น การทำให้มีลักษณะมนุษย์สามารถลดการหลีกเลี่ยง AI และการทำงานร่วมกันระหว่าง "คนรัก×AI" ที่แข็งแกร่งแสดงให้เห็นถึงภาพอนาคตของ AI ทางการเงิน ScienceDirect


เมื่อ AI กลายเป็น "คู่หูในการตัดสินใจที่คุณ (ทั้งสอง) ยอมรับ" แทนที่จะเป็น "ผู้ตัดสินใจแทนคุณ" อาจจะสามารถยืนอยู่บนเวทีเดียวกับคำพูดของคนรักได้



บทความอ้างอิง

ทำไมถึงเชื่อคนรักมากกว่า AI ในการตัดสินใจทางการเงินใหญ่ๆ
ที่มา: https://phys.org/news/2026-01-romantic-partners-ai-big-financial.html

← กลับไปที่รายการบทความ

contact |  ข้อกำหนดการใช้งาน |  นโยบายความเป็นส่วนตัว |  นโยบายคุกกี้ |  การตั้งค่าคุกกี้

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア สงวนลิขสิทธิ์