"ข้อมูลทางการแพทย์ ไว้ใจให้ ChatGPT ดูแลได้หรือไม่?" ความเป็นจริงของความเป็นส่วนตัวที่ฟังก์ชัน “Health” นำเสนอ

"ข้อมูลทางการแพทย์ ไว้ใจให้ ChatGPT ดูแลได้หรือไม่?" ความเป็นจริงของความเป็นส่วนตัวที่ฟังก์ชัน “Health” นำเสนอ

1) ช่วงเวลาที่ "คู่ปรึกษาด้านสุขภาพ" ถูกแทนที่ด้วยแอปพลิเคชัน

"ไม่สามารถอธิบายอาการได้ดี" "กลัวที่จะมองตัวเลขผลการตรวจ" "ประกันและเอกสารซับซ้อนเกินไป" — ที่ทางเข้าของการแพทย์มีอุปสรรคมากมายที่ไม่เกี่ยวกับสภาพร่างกาย ดังนั้นเมื่อ AI ที่สามารถสนทนาได้เข้ามา คนจะรู้สึกผ่อนคลายมากขึ้นในทันที


The Verge ได้กล่าวถึงช่องว่างทางจิตวิทยานี้ OpenAI กล่าวว่ามีการปรึกษาด้านสุขภาพและสุขภาวะจำนวนมากในแต่ละสัปดาห์ และผู้ใช้รู้สึกว่า AI เป็น "ไกด์ในเขาวงกต" หรือ "พันธมิตร" ด้วยเหตุนี้ OpenAI จึงผลักดัน "ChatGPT Health" ที่มีความเฉพาะเจาะจงมากขึ้น แต่ใจความของบทความคือ — ยิ่งมีลักษณะเหมือนห้องตรวจมากขึ้น คนก็ยิ่งมีแนวโน้มที่จะเข้าใจผิดว่ามีการป้องกันเหมือนการแพทย์ แต่ความจริงไม่ใช่


2) ChatGPT Health มีฟังก์ชันอะไรบ้าง

ChatGPT Health มีพื้นที่ที่เน้นการสนทนาด้านสุขภาพและสุขภาวะ และมีระบบที่เชื่อมต่อข้อมูลจากบันทึกทางการแพทย์และแอปพลิเคชันต่างๆ เพื่อให้คำตอบที่สอดคล้องกับบริบทมากขึ้น OpenAI ระบุถึงความเป็นไปได้ที่ผู้ใช้อาจป้อน อัปโหลด หรือเชื่อมโยงข้อมูลที่ละเอียดอ่อน เช่น บันทึกทางการแพทย์ ผลการตรวจ ข้อมูลการสั่งยา อัตราการเต้นของหัวใจ การนอนหลับ จำนวนก้าวเดิน รวมถึงอาการและประวัติการเจ็บป่วย


และที่สำคัญคือ "Health มีฟังก์ชันเมมโมรี่ (ความจำ) ที่เป็นเอกลักษณ์" ในการสนทนาด้านสุขภาพเท่านั้น โดยใช้ข้อมูลจากการปรึกษาในอดีตและข้อมูลจากแอปพลิเคชันที่เชื่อมโยงเพื่อให้คำแนะนำที่ดูเหมือนจริงมากขึ้น เบื้องหลังความสะดวกสบายนี้ ภาพลักษณ์ด้านสุขภาพส่วนบุคคลมีแนวโน้มที่จะถูกสะสมอย่างมีมิติ


3) เหตุผลหลักที่ทำให้รู้สึก "ได้รับการปกป้อง" คือ "คำพูดของบริษัท" ที่มีอิทธิพล

The Verge เน้นย้ำว่า ที่นี่ไม่ใช่สถานพยาบาล ภาระหน้าที่และการบังคับใช้ที่เข้มงวดของผู้ให้บริการทางการแพทย์อาจไม่ครอบคลุมในรูปแบบเดียวกัน ด้วยเหตุนี้ ผู้ใช้จึงพึ่งพาสัญญาที่เขียนไว้ในข้อกำหนดการใช้บริการและนโยบายความเป็นส่วนตัว


OpenAI ได้แสดงกรอบการทำงานเกี่ยวกับ Health อย่างน้อยในลักษณะต่อไปนี้

  • ไม่ใช้ในการเรียนรู้ (ปรับปรุงโมเดลพื้นฐาน): เนื้อหาใน Health "โดยค่าเริ่มต้น" จะไม่ถูกใช้ในการปรับปรุงโมเดลพื้นฐาน

  • แต่มีโอกาส "เข้าถึงได้": เพื่อวัตถุประสงค์ในการปรับปรุงความปลอดภัย ผู้ที่มีอำนาจหรือผู้รับจ้างอาจเข้าถึงเนื้อหาใน Health ได้ (ขึ้นอยู่กับการตั้งค่าของผู้ใช้)

  • การเปิดเผยเพื่อการว่าจ้างภายนอกและการตอบสนองทางกฎหมาย: อาจมีการเปิดเผยข้อมูลต่อผู้รับจ้างในการดำเนินงาน (โฮสติ้ง การสนับสนุน ฯลฯ) และเพื่อภาระหน้าที่ทางกฎหมายหรือการปกป้องสิทธิ

  • การเชื่อมต่อบันทึกทางการแพทย์กับ "พันธมิตรบุคคลที่สาม": การเชื่อมโยงบันทึกทางการแพทย์อิเล็กทรอนิกส์จะใช้พันธมิตรบุคคลที่สาม (b.well)

  • ระบุว่า "ไม่ขาย": ระบุว่าจะไม่ขายข้อมูลส่วนบุคคลที่ได้จาก Health

  • การอัปเดตในอนาคต: การแจ้งเตือน (Notice) อาจมีการอัปเดต


ที่นี่เกิดปัญหา "ความเชื่อมั่นในคำพูด" ที่ The Verge กล่าวถึง แม้ว่าการมีสัญญาจะเป็นก้าวไปข้างหน้า แต่ในสถานการณ์ที่ไม่มีการบังคับใช้หรือการกำกับดูแลที่เทียบเท่าทางกฎหมาย ท้ายที่สุดจะเหลือเพียงการเดิมพันว่า "เชื่อหรือไม่เชื่อ"


4) กับดักอีกอย่างหนึ่ง: "ปัญหาชื่อที่คล้ายกันเกินไป"

The Verge เตือนอย่างเฉพาะเจาะจงว่าChatGPT Health สำหรับผู้บริโภคและChatGPT for Healthcare สำหรับสถานพยาบาลและองค์กรมีชื่อและเวลาเปิดตัวที่คล้ายกัน ซึ่งทำให้เกิดความสับสนในการสัมภาษณ์


ใน OpenAI for Healthcare สำหรับองค์กร มีการกล่าวถึงการจัดการข้อมูลผู้ป่วย บันทึกการตรวจสอบ การจัดการกุญแจเข้ารหัส และสัญญาเพื่อสนับสนุนการปฏิบัติตาม HIPAA (BAA) โดยเน้นการจัดการภายใต้การควบคุมขององค์กร

 
ในขณะที่ Health สำหรับผู้บริโภคมีพื้นฐานที่แตกต่าง แม้จะเป็น "สุขภาพ" เหมือนกัน หากเข้าใจผิดว่าได้รับการปกป้องเหมือนสถานพยาบาล อาจเกิดความคาดหวังที่ผิด


5) ความเสี่ยงไม่ได้มีแค่เรื่องความเป็นส่วนตัว "ลักษณะทางการแพทย์" อาจทำให้เกิดความมั่นใจเกินไป

The Verge กล่าวถึง "การแพทย์ในฐานะอุตสาหกรรมที่มีการควบคุม" และชี้ให้เห็นถึงความเสี่ยงที่แชทบอทอาจให้ข้อมูลที่ผิดพลาดอย่างมั่นใจในพื้นที่ที่ความผิดพลาดอาจเป็นอันตรายถึงชีวิต มีรายงานกรณีที่ข้อเสนอแนะที่ผิดพลาดนำไปสู่ผลกระทบต่อสุขภาพ


สิ่งที่ซับซ้อนยิ่งขึ้นคือ **"ไม่ใช้เพื่อวัตถุประสงค์ในการวินิจฉัยหรือการรักษา" ซึ่งเป็นคำกล่าวที่เป็นการปฏิเสธความรับผิด และ"สามารถใช้ในการตีความผลการตรวจหรือจัดระเบียบการตัดสินใจในการรักษา"** ซึ่งเป็นการใช้งานที่ใกล้เคียงกับการแพทย์จริงๆ ความรู้สึกของผู้ใช้คือ "การปรึกษาทางการแพทย์" และยิ่งคำตอบของ AI มีความละเอียดและเป็นส่วนตัวมากเท่าไร การมีอยู่ของคำปฏิเสธความรับผิดก็ยิ่งลดลง


6) ปฏิกิริยาจากโซเชียลมีเดีย: การตอบสนองที่ปฏิเสธอย่างชัดเจน แต่ "ความสะดวกสบายก็ยังคงอยู่"

หัวข้อนี้ได้รับการตอบสนองที่ตรงไปตรงมาบนโซเชียลมีเดีย


กลุ่ม "ไม่ยอมให้เด็ดขาด" (การปฏิเสธที่แข็งแกร่ง)

บน Reddit มีการปฏิเสธในรูปแบบข้อความสั้นๆ มากมาย เช่น "Oh hell naw" "Absolutely not" "Nope nope nope…" ที่โดดเด่น

 
ในกระทู้เดียวกันยังมีความไม่ไว้วางใจ เช่น "ดูเหมือนการขอความยินยอมเพื่อเก็บข้อมูล" "กลัวการรั่วไหล"
บน Bluesky มีการเผยแพร่คำพูดที่เสียดสีว่า "จะยอมสละความเป็นส่วนตัวทางการแพทย์เพื่อรับคำแนะนำทางการแพทย์ที่ไม่แน่นอนหรือไม่"
บน Mastodon มีโพสต์ที่กล่าวว่า "มีบริการหลายอย่างที่ไม่ควรเชื่อมต่อกับบันทึกทางการแพทย์ แต่ AI แชทบอทเป็นหนึ่งในลำดับต้นๆ"


กลุ่ม "ดูเหมือนโฆษณา/คำอธิบายไม่เพียงพอ" (ความสงสัยใน "วิธีขาย")

บน Hacker News มีการกล่าวว่า "กระแสนี้ดูเหมือนโฆษณา" "ถ้าทำให้เข้าใจผิดควรถูกฟ้องหรือไม่" และมีการชี้ให้เห็นว่าการตั้งค่าความเป็นส่วนตัว "แยกตามแชท" นั้นเข้าใจยาก

 
กล่าวโดยสรุปคือ ก่อนที่จะพูดถึงฟังก์ชันของมัน "วิธีการขายที่ทำให้ผู้ใช้รับรู้ถึงความเสี่ยงได้ถูกต้องหรือไม่?" ถูกสงสัย

กลุ่ม "มีประโยชน์ถ้าใช้ให้ถูกวิธี" (การใช้งานที่เป็นจริง)

ในขณะเดียวกัน บน Reddit มีเสียงกล่าวว่า "เป็นประโยชน์ในการช่วยตีความผลการตรวจหรือภาพ สามารถจัดระเบียบข้อมูลเพื่อปรึกษาแพทย์ได้"
กลุ่มนี้มอง AI เป็นเครื่องมือจัดระเบียบข้อมูลโดยไม่ใช้แทนแพทย์ อย่างไรก็ตาม การที่ทุกคนจะรักษาข้อกำหนดนี้ได้หรือไม่นั้นเป็นอีกเรื่องหนึ่ง


7) ถ้าอย่างนั้น ถ้าจะใช้ควรทำอย่างไร? (รายการตรวจสอบที่เป็นจริง)

การบอกว่า "อย่าใช้" อาจจะง่าย แต่ในความเป็นจริงมีคนจำนวนมากที่ "ใช้ไปแล้ว" ดังนั้นควรมีการกำหนดขอบเขตขั้นต่ำ

  • หลีกเลี่ยงการส่งมอบบันทึกทางการแพทย์ทั้งหมด: ลองใช้ข้อมูลที่ "ไม่ระบุตัวตน/สรุป" ก่อน ชื่อการวินิจฉัย ชื่อโรงพยาบาล รหัสผู้ป่วย ภาพถ่ายจริง ควรระมัดระวัง

  • เข้าใจขอบเขตของ "แอปพลิเคชันที่เชื่อมต่อ/บุคคลที่สาม": Health มีการเชื่อมต่อกับแอปพลิเคชันภายนอกเป็นพื้นฐาน และการเชื่อมต่อบันทึกทางการแพทย์มีพันธมิตรบุคคลที่สามเข้ามาเกี่ยวข้อง ข้อกำหนดการเชื่อมต่อก็แตกต่างกัน

  • "ไม่ใช้ในการเรียนรู้" ไม่ใช่บัตรครอบจักรวาล: การไม่ใช้ในการเรียนรู้และการเข้าถึง/เปิดเผยเพื่อการดำเนินงาน ความปลอดภัย การตอบสนองทางกฎหมายสามารถอยู่ร่วมกันได้

  • "การวินิจฉัย/การตัดสินใจในการรักษา" ไม่ควรถูกแทนที่: ข้อเสนอของ AI ควรจำกัดอยู่ที่การจัดทำรายการคำถาม/ประเด็นสำหรับแพทย์

  • อย่าสับสน: กรอบการทำงานสำหรับสถานพยาบาล (การสนับสนุน HIPAA, BAA ฯลฯ) และพื้นฐานของ Health สำหรับผู้บริโภคแตกต่างกัน


8) สรุป: ยิ่งความสะดวกสบายเพิ่มขึ้น "เส้นแบ่ง" ยิ่งสำคัญ

ถ้าจะสรุปข้อเสนอของ The Verge ในคำเดียวคือ "อย่าสับสนระหว่าง 'ประสบการณ์ที่เหมือนการแพทย์' กับการปกป้องที่เทียบเท่าการแพทย์"
ChatGPT Health อาจช่วยในการเข้าใจและเตรียมข้อมูลสุขภาพ แต่ข้อมูลที่จัดการนั้นหนักเกินไป การตอบสนองที่ปฏิเสธอย่างรุนแรงในโซเชียลมีเดียอาจเกิดจากการที่ "สิ่งที่ไม่สามารถย้อนกลับได้" ถูกจินตนาการก่อน "ความสะดวกสบาย"


ในที่สุด สิ่งที่เราถูกถามคือ "AI ฉลาดหรือไม่" แต่คือ "บริการนี้มีความรับผิดชอบในการอธิบายเพื่อให้ได้รับความเชื่อถือในระดับการแพทย์หรือไม่" และ "เราจะยอมสละอะไรบ้าง" ในยุคที่ความสะดวกสบายดึงดูดใจ เส้นแบ่งต้อง "กำหนดด้วยตัวเอง"



แหล่งที่มา

  • The Verge (ความเสี่ยงในการให้ข้อมูลทางการแพทย์กับ ChatGPT Health, ปัญหาการควบคุมและความสับสน, ความคิดเห็นของผู้เชี่ยวชาญ)
    https://www.theverge.com/report/866683/chatg