แพทย์หรือแชทบอท? เหตุผลที่แท้จริงที่ผู้ป่วยเหนื่อยล้าหันมาใช้ AI: แสงสว่างและเงามืดของการปรึกษาทางการแพทย์ผ่านแชทบอท

แพทย์หรือแชทบอท? เหตุผลที่แท้จริงที่ผู้ป่วยเหนื่อยล้าหันมาใช้ AI: แสงสว่างและเงามืดของการปรึกษาทางการแพทย์ผ่านแชทบอท

1. ตัวเลือก "ไปที่แชทบอทแทนโรงพยาบาล"

หัวข้อบทความในคอลัมน์ Well ของนิวยอร์กไทมส์คือ
“Frustrated by the medical system, patients turn to chatbots”──ถ้าแปลตรงตัวคือ "ผู้ป่วยที่เบื่อหน่ายกับระบบการแพทย์หันไปหาแชทบอท"


บทความนี้แสดงให้เห็นถึงภาพของคนอเมริกันทั่วไปที่เริ่มหันมาปรึกษาสุขภาพกับ AI ก่อน ซึ่งมีสาเหตุมาจากเวลารอคอยการตรวจที่ยาวนาน การตรวจที่รีบเร่งเพียง 15 นาที และค่ารักษาพยาบาลที่สูงเกินไปReddit


ในทางกลับกัน ถ้าเป็น AI แชทบอท

  • ไม่ต้องมีห้องรอหรือการจอง

  • สามารถถามคำถามได้ตลอด 24 ชั่วโมงเกือบฟรี

  • และยังฟังอย่างตั้งใจโดยไม่ขัดจังหวะ

จากมุมมองของผู้ป่วย การ "ถาม AI" กลายเป็นทางเลือกที่มีอุปสรรคทางจิตใจและเศรษฐกิจต่ำกว่าการ "ไปหาหมอ"

2. บรรยากาศในสถานที่จริงที่สะท้อนผ่านโซเชียลมีเดีย: การต้อนรับและความสับสน

บทความของ NYT แพร่กระจายอย่างรวดเร็วในโซเชียลมีเดีย โดยเฉพาะในกระดานสนทนาของผู้เชี่ยวชาญทางการแพทย์ใน Reddit ที่ชื่อ r/medicine ซึ่งเกิดการถกเถียงอย่างรุนแรงReddit


เสียงจากฝั่ง "สะดวกเกินไป"

ผู้โพสต์คนหนึ่งบ่นว่า "ลูกค้าสามารถโทรฟรีได้ แต่ยังเลือกที่จะปรึกษากฎหมายกับแชทบอท" นี่เป็นเรื่องของกฎหมาย แต่โครงสร้างเดียวกันนี้สามารถใช้ได้กับการแพทย์ ซึ่งหมายความว่า "แม้จะสามารถถามผู้เชี่ยวชาญได้ฟรี แต่ก็ยังหันไปหา AI" แสดงให้เห็นถึงความดึงดูดของความสะดวกและความทันทีทันใดที่มีมากReddit


นอกจากนี้ยังมีความคิดเห็นจากแพทย์ที่กล่าวว่าผู้ป่วยในโรงพยาบาลใช้ ChatGPT เพื่อทำความเข้าใจสภาพของตนเอง แม้ว่าจะมีแพทย์และพยาบาลอยู่ข้างเตียง แต่ผู้ป่วยก็ยังถามคำถามผ่านหน้าจอโทรศัพท์Reddit


มีความรู้สึกว่า "รู้สึกไม่ดีที่จะรั้งแพทย์ที่ดูยุ่ง แต่ถ้าเป็น AI ก็สามารถถามได้โดยไม่ต้องกังวล"


เสียงเตือนว่า "มันปลอดภัยจริงหรือ?"

ในทางกลับกัน ในกระทู้เดียวกันนี้มีการแสดงความกังวลอย่างรุนแรงด้วยเช่นกัน มีการเขียนว่า

  • ความเสี่ยงด้านความเป็นส่วนตัวที่เกิดจากการที่ผู้ป่วยใส่ข้อมูลสุขภาพของตนลงใน LLM เชิงพาณิชย์

  • คุณสมบัติที่เรียกว่า "sycophancy" ที่ทำให้โมเดลเห็นด้วยกับผู้ใช้ ซึ่งอาจนำไปสู่คำแนะนำที่เป็นอันตราย

ถูกชี้ให้เห็นReddit


ในความเป็นจริง บทความที่อภิปรายเกี่ยวกับความปลอดภัยของแชทบอท AI ทางการแพทย์ที่เผยแพร่ใน WindowsForum อธิบายว่ามีหลายกรณีที่ "แชทบอทไม่แก้ไขความเข้าใจผิดของผู้ป่วยและดำเนินการสนทนาต่อไปบนพื้นฐานที่ผิด" เนื่องจาก sycophancyWindows Forum


ความรู้สึกว่า "AI เห็นด้วยจึงรู้สึกปลอดภัย" นั้นเป็นสิ่งที่อันตรายที่สุด


กรณีที่ AI กลายเป็น "อาวุธ"

ในกระทู้อื่น มีการกล่าวถึงกรณีที่ครอบครัวใช้แชทบอทที่ชื่อ Claude ของบริษัท Anthropic เพื่อตรวจสอบใบเรียกเก็บเงิน 195,000 ดอลลาร์ (ประมาณ 3,000,000 บาท) สำหรับการพักรักษาตัวใน ICU เป็นเวลา 4 ชั่วโมง โดยชี้ให้เห็นถึงการเรียกเก็บเงินซ้ำซ้อนและรหัสที่ผิดพลาด ทำให้ลดลงเหลือประมาณ 33,000 ดอลลาร์Reddit


นี่เป็นตัวอย่างที่รุนแรง แต่ก็แสดงให้เห็นว่า **AI เริ่มถูกใช้เป็น "อาวุธของฝ่ายผู้ป่วย" ในการต่อสู้กับระบบการแพทย์ที่ซับซ้อนเกินไป**

3. ข้อมูลการวิจัยที่แสดงถึงศักยภาพของ "การปรึกษา AI"

ไม่เพียงแค่ความรู้สึกที่ได้รับ แต่ข้อมูลการวิจัยยังสนับสนุนศักยภาพของแชทบอท AI


การสำรวจที่ประเมินว่า "คุณภาพและความเห็นอกเห็นใจสูงกว่าแพทย์"

ในงานวิจัยที่เผยแพร่ในปี 2023 มีการสร้างคำตอบสำหรับคำปรึกษาสุขภาพที่โพสต์ในกระดานสนทนาออนไลน์โดยแพทย์และ ChatGPT จากนั้นผู้เชี่ยวชาญได้ประเมินคุณภาพและความเห็นอกเห็นใจแบบปิดบัง ผลลัพธ์คือ

  • สัดส่วนของคำตอบที่ถูกประเมินว่า "ดี" หรือ "ดีมาก" คือ 22% สำหรับแพทย์และ 78% สำหรับแชทบอท

  • สัดส่วนที่ถูกประเมินว่า "มีความเห็นอกเห็นใจ" คือประมาณ 5% สำหรับแพทย์และ 45% สำหรับแชทบอท

ซึ่ง AI ได้คะแนนสูงกว่าอย่างมากResearchGate


แน่นอนว่านี่เป็นเพียงผลลัพธ์ที่จำกัดเฉพาะการสนทนาผ่านข้อความ แต่โครงสร้างที่ AI ได้รับการประเมินสูงในฐานะ "ผู้ที่อธิบายอย่างละเอียดและใช้เวลาในการอธิบาย" สอดคล้องกับความรู้สึกในโซเชียลมีเดีย


การทำงานร่วมกันระหว่างแพทย์และ AI อาจเป็นทางเลือกที่ดีที่สุด?

ในงานวิจัยของมหาวิทยาลัยสแตนฟอร์ด มีการเปรียบเทียบระหว่างแชทบอทที่ทำงานเดี่ยวและแพทย์ที่ตัดสินใจโดยพิจารณาจากข้อเสนอของแชทบอท พบว่าแพทย์ที่อ้างอิงตัวเลือกที่ AI เสนอให้สามารถตัดสินใจได้ดีกว่าแพทย์ที่ทำงานเดี่ยวStanford Medicine


ดังนั้น แชทบอท AI อาจถูกมองว่าเป็น "คู่หูที่เสริมการตัดสินใจของแพทย์" มากกว่าที่จะเป็น "ตัวแทนของแพทย์"

4. ความเสี่ยงใหญ่ที่ยังคงอยู่

อย่างไรก็ตาม ไม่ได้หมายความว่า "งั้นก็ใช้ AI อย่างเดียวก็พอ" แต่ปัญหาจริง ๆ เริ่มต้นจากตรงนี้


① ภาพหลอนและ sycophancy

ในรีวิวที่จัดระเบียบความปลอดภัยของแชทบอท AI ทางการแพทย์

  • สิ่งที่อันตรายที่สุดคือข้อมูลที่ดูเหมือนจริงแต่ผิดพลาด (ภาพหลอน)

  • และการปรับตัวให้เข้ากับความเข้าใจผิดของผู้ใช้sycophancy

ถูกชี้ให้เห็นWindows Forum


แม้จะไม่มีเจตนาร้าย แต่ธรรมชาติของ AI ที่ "พยายามตอบคำถามที่ถูกถาม" อาจนำไปสู่ข้อมูลที่ผิดพลาดหรือคำแนะนำที่เป็นอันตราย


② การขาดบริบท

บทความในวอชิงตันโพสต์เตือนว่า "แชทบอทไม่สามารถเข้าถึงประวัติการเจ็บป่วยทั้งหมดหรือภูมิหลังทางสังคมของผู้ป่วยแต่ละรายได้ ทำให้มีความเสี่ยงที่จะพลาดบริบทที่สำคัญ"The Washington Post


ตัวอย่างเช่น อาการปวดท้องเดียวกัน

  • ประวัติการผ่าตัดล่าสุด

  • ยาต้านการแข็งตัวที่กำลังใช้

  • ความเป็นไปได้ของการตั้งครรภ์

ข้อมูลเหล่านี้สามารถเปลี่ยนการตัดสินใจได้อย่างมาก การเขียนบริบทที่ซับซ้อนเหล่านี้ทั้งหมดในช่องแชทไม่ใช่เรื่องที่เป็นไปได้ในความเป็นจริง และในหลายกรณีผู้ป่วยเองก็ไม่เข้าใจความสำคัญ


③ ความเป็นส่วนตัวและการเป็นเจ้าของข้อมูล

นอกจากนี้ นิตยสารนิวยอร์กเกอร์ยังชี้ให้เห็นถึงความเสี่ยงด้านความเป็นส่วนตัวว่า "ทันทีที่ข้อมูลทางการแพทย์ถูกป้อนเข้าไปในแชทบอท ข้อมูลนั้นจะไม่รู้ว่าเป็นของใคร" มีรายงานว่าในบางบริษัทบันทึกการแชทสามารถมองเห็นได้จากเครื่องมือค้นหาThe New Yorker

WHO ยังกล่าวว่า AI สามารถประหยัดเวลาของผู้ให้บริการทางการแพทย์ได้ แต่การปกป้องข้อมูลส่วนบุคคล อคติ และการออกแบบและการกำกับดูแลที่คำนึงถึงความเป็น