เหตุใดระบบการจับคู่ที่ควรจะยุติธรรมจึงก่อให้เกิดความไม่เท่าเทียมกัน? ความแตกต่างในการเข้าใจนำไปสู่ความแตกต่างในผลลัพธ์

เหตุใดระบบการจับคู่ที่ควรจะยุติธรรมจึงก่อให้เกิดความไม่เท่าเทียมกัน? ความแตกต่างในการเข้าใจนำไปสู่ความแตกต่างในผลลัพธ์

เมื่อ "อัลกอริทึมที่ยุติธรรม" ก่อให้เกิดความไม่ยุติธรรม — ความเหลื่อมล้ำเกิดขึ้นนอกโค้ด

"ถ้าอัลกอริทึมยุติธรรม ผลลัพธ์ก็จะยุติธรรม"

เมื่อ AI และระบบการตัดสินใจอัตโนมัติกำลังแพร่กระจายไปในสังคม เราคาดหวังในบางที่ว่าจะเป็นเช่นนั้น การตัดสินใจโดยปราศจากอคติและความลำเอียงของมนุษย์ และการตัดสินใจตามกฎเกณฑ์จะทำให้การตัดสินใจในเรื่องสำคัญๆ เช่น การจ้างงาน การศึกษา การจัดสรร และการเลื่อนตำแหน่งมีความยุติธรรมมากขึ้น อย่างน้อยก็ดูเหมือนจะมีความโปร่งใสและมีอคติน้อยกว่าการตัดสินใจโดยมนุษย์ที่อยู่เบื้องหลัง

แต่การวิจัยใหม่กำลังทำให้สมมติฐานนี้เย็นชา

แม้ว่าระบบการจับคู่จะถูกออกแบบมาอย่างยุติธรรม แต่หากผู้ใช้ไม่เข้าใจระบบนั้นเพียงพอ ผลลัพธ์ที่ไม่เท่าเทียมกันก็อาจเกิดขึ้นได้ ปัญหาไม่ได้อยู่แค่ในอัลกอริทึมเท่านั้น แต่มันอยู่ที่ฝั่งของมนุษย์ที่ใช้มัน และสภาพแวดล้อมข้อมูลที่ล้อมรอบพวกเขา

สิ่งที่ได้รับความสนใจในครั้งนี้คือระบบที่เรียกว่า "Residency Match" ซึ่งนักศึกษาแพทย์ในสหรัฐอเมริกาใช้ในการตัดสินใจเลือกสถานที่ฝึกงาน นักศึกษาแพทย์ที่กำลังจะจบการศึกษาและโปรแกรมฝึกงานจะส่งลำดับความหวังของตนเอง และระบบการจับคู่ที่คอมพิวเตอร์จะเป็นผู้ตัดสินใจการจับคู่ สำหรับแพทย์ในอนาคต การฝึกงานที่ไหนจะมีผลกระทบอย่างมากต่ออาชีพของพวกเขา กล่าวคือ นี่ไม่ใช่แค่การปรับเส้นทาง แต่เป็นจุดเปลี่ยนในชีวิต

ระบบนี้ถูกออกแบบมาเพื่อให้นักศึกษาเรียงลำดับโปรแกรมตามความหวังที่แท้จริงของตนเองได้ดีที่สุด กล่าวอีกนัยหนึ่งคือ ไม่จำเป็นต้องมีการเจรจาเช่น "โปรแกรมยอดนิยมนี้ดูเหมือนจะเป็นไปไม่ได้ ดังนั้นควรลดลำดับลง" หรือ "ควรวางที่ปลอดภัยไว้ด้านบนเพื่อให้มีโอกาสมากขึ้น" การจัดลำดับเชิงกลยุทธ์เช่นนี้อาจทำให้ผลลัพธ์ที่ต้องการห่างไกลออกไป

ในฐานะที่เป็นหลักการของระบบ มันมีความสมเหตุสมผลมาก แค่ส่งความหวังอย่างตรงไปตรงมา ไม่ต้องเล่นเกม ดังนั้นมันควรจะยุติธรรมสำหรับทุกคน

แต่ในความเป็นจริง มันไม่ได้ง่ายขนาดนั้น

นักวิจัยได้วิเคราะห์ข้อมูลการจำลองที่มีการจูงใจจากนักศึกษาแพทย์กว่า 1,700 คน และสัมภาษณ์อย่างละเอียดกับนักศึกษาแพทย์ 66 คนที่มีประสบการณ์ในระบบ Residency Match ผลลัพธ์แสดงให้เห็นว่า แม้ระบบจะถูกออกแบบมาอย่างยุติธรรม แต่ความเข้าใจและพฤติกรรมการเก็บข้อมูลของนักศึกษาที่แตกต่างกันสามารถนำไปสู่การตัดสินใจที่ไม่เหมาะสม

ตัวอย่างเช่น นักศึกษาบางคนคิดว่า "จริงๆ แล้วอยากไปโรงพยาบาล A แต่ดูเหมือนว่าโรงพยาบาล A จะมีการแข่งขันสูง ดังนั้นควรเขียนโรงพยาบาล B ไว้ในลำดับที่สูงกว่าเพื่อให้มีโอกาสมากขึ้น" นี่ดูเหมือนจะเป็นการตัดสินใจที่รอบคอบ แต่ในระบบการจับคู่ประเภทนี้ การปกปิดลำดับความหวังที่แท้จริงของตนเองอาจทำให้พลาดผลลัพธ์ที่ดีที่สุดสำหรับตนเอง

กล่าวคือ ระบบถูกออกแบบมาให้ "การเลือกอย่างตรงไปตรงมา" เป็นประโยชน์ แต่หากผู้ใช้ไม่เข้าใจสิ่งนี้ พวกเขาจะไม่สามารถใช้ระบบได้อย่างถูกต้อง แม้ว่าจะมีระบบที่ยุติธรรม แต่หากความรู้และความมั่นใจของผู้เข้าถึงแตกต่างกัน ผลลัพธ์ก็จะไม่ยุติธรรม

สิ่งที่ได้รับความสนใจเป็นพิเศษในการวิจัยนี้คือความแตกต่างระหว่างเพศ นักศึกษาแพทย์ชายมีแนวโน้มที่จะค้นหาข้อมูลเพิ่มเติมเกี่ยวกับระบบมากกว่านักศึกษาแพทย์หญิง ตรวจสอบเว็บไซต์ทางการ ดูวิดีโออธิบาย เปรียบเทียบแหล่งข้อมูลหลายแหล่ง ค้นหาด้วยตนเอง นักศึกษาที่ทำเช่นนี้มีความเข้าใจในอัลกอริทึมการจับคู่มากขึ้นและสามารถใช้กลยุทธ์ที่เหมาะสมได้ง่ายขึ้น

ในทางกลับกัน นักศึกษาที่พึ่งพาการอธิบายระบบมาตรฐานหรือคำแนะนำทั่วไปจากมหาวิทยาลัยมีแนวโน้มที่จะเข้าใจผิด คำแนะนำจากโรงเรียนแพทย์มักจะเป็น "เรียงลำดับตามความหวังที่แท้จริง" "ทำตามสัญชาตญาณ" "อย่าคิดมาก" ซึ่งไม่ผิด แต่เป็นหลักการของระบบที่ถูกต้อง

แต่คำแนะนำที่ถูกต้องและคำแนะนำที่เพียงพอไม่เหมือนกัน

"ทำไมการเรียงลำดับตามความหวังที่แท้จริงจึงดีที่สุด"
"การเขียนโปรแกรมยอดนิยมไว้ด้านบนจะทำให้เสียเปรียบหรือไม่"
"แนวคิดเรื่องโรงเรียนที่ปลอดภัยสามารถใช้ได้ในระบบนี้หรือไม่"
"การเปลี่ยนลำดับจะเปลี่ยนอัตราการจับคู่ของตนเองอย่างไร"

หากไม่สามารถตอบคำถามเหล่านี้ได้ นักศึกษาจะดำเนินการตามความกังวล แม้ว่าระบบจะถูกออกแบบมาให้ "ไม่ต้องเจรจา" แต่หากผู้ใช้ไม่เชื่อเช่นนั้น พวกเขาก็จะยังคงเจรจา

นี่คือจุดบอดใหญ่ในเรื่องความยุติธรรมของอัลกอริทึม

จนถึงขณะนี้ การอภิปรายเกี่ยวกับ "อัลกอริทึมที่ยุติธรรม" มุ่งเน้นไปที่เนื้อหาของระบบเป็นหลัก ว่ามีการเลือกปฏิบัติต่อคุณสมบัติเฉพาะหรือไม่ เรียนรู้จากข้อมูลที่มีอคติมาก่อนหรือไม่ เกณฑ์การตัดสินใจไม่โปร่งใสหรือไม่ ผลลัพธ์มีอคติหรือไม่ แน่นอนว่าสิ่งเหล่านี้สำคัญ

แต่การวิจัยครั้งนี้แสดงให้เห็นว่า แม้อัลกอริทึมจะไม่มีอคติ ความไม่เท่าเทียมก็ยังเกิดขึ้นได้ ไม่มีโค้ดที่เลือกปฏิบัติ แต่ผลลัพธ์ที่มีอคติก็ยังสามารถเกิดขึ้นได้ เพราะผู้ใช้ไม่ได้เริ่มต้นจากจุดเดียวกัน

บางคนมีเวลาและความมั่นใจในการค้นหาข้อมูลเพิ่มเติม บางคนได้รับการสนับสนุนในการทำความเข้าใจระบบ บางคนได้รับคำแนะนำที่เฉพาะเจาะจงจากรุ่นพี่หรือผู้สอน บางคนลังเลที่จะตั้งคำถามเกี่ยวกับระบบ บางคนไม่รู้ด้วยซ้ำว่านี่คือสิ่งที่ควรค้นหาด้วยตนเอง

ความแตกต่างนี้ไม่ใช่แค่ความแตกต่างส่วนบุคคล แต่ถูกสร้างขึ้นโดยเพศ ชั้นเรียน โรงเรียนที่จบมา สภาพแวดล้อมในครอบครัว พื้นหลังทางวัฒนธรรม เครือข่ายรอบตัว แม้อัลกอริทึมจะคิดว่ากำลังใช้กฎเดียวกันกับทุกคน แต่ก็ไม่ได้เติมเต็มช่องว่างของข้อมูลและความมั่นใจที่มีอยู่ในฝั่งมนุษย์โดยอัตโนมัติ

ยิ่งระบบซับซ้อนเท่าใด ผู้ที่เข้าใจระบบจะยิ่งได้เปรียบมากขึ้น

โครงสร้างนี้ไม่ได้จำกัดอยู่แค่การจับคู่สถานที่ฝึกงานของนักศึกษาแพทย์ การสอบเข้าโรงเรียน การจ้างงาน การจัดสรรในบริษัท การประเมินการเลื่อนตำแหน่ง ตลาดแรงงาน การจัดสรรงานในภาครัฐ การคัดเลือกทุนการศึกษา การจับสลากที่อยู่อาศัย การเข้าเรียนในศูนย์เด็กเล็ก การจัดสรรในกองทัพ ในสังคมของเรามีการจับคู่และการตัดสินใจอัตโนมัติเพิ่มขึ้นบ่อยครั้ง ที่นั่นมักจะมีการอธิบายว่า "ระบบกำลังดำเนินการอย่างยุติธรรม ดังนั้นไม่ต้องกังวล"

แต่การที่ผู้ใช้เข้าใจระบบนั้นอย่างไรกลับถูกละเลยอย่างน่าประหลาดใจ

ลองคิดถึงระบบการสมัครภายในของบริษัท พนักงานจัดลำดับแผนกที่ต้องการ และระบบจะตัดสินใจการจัดสรรตามความเหมาะสมและความหวัง แม้ระบบจะยุติธรรม แต่หากพนักงานเข้าใจผิดว่า "การเขียนแผนกยอดนิยมไว้ในลำดับแรกจะทำให้เสียเปรียบ" พวกเขาอาจลดความหวังตั้งแต่แรก ในทางกลับกัน พนักงานที่เข้าใจระบบดีจะส่งความหวังที่แท้จริงโดยไม่ลังเล ผลลัพธ์คือ ภายใต้กฎเดียวกัน ผู้ที่เข้าใจระบบจะได้เปรียบมากกว่า

สิ่งเดียวกันอาจเกิดขึ้นในการสอบเข้าโรงเรียนหรือการเลือกโรงเรียน หากผู้ปกครองหรือนักเรียนไม่เข้าใจระบบการคัดเลือกอย่างถูกต้อง พวกเขาอาจทำการเลือกที่ไม่เหมาะสมด้วยความตั้งใจที่จะปลอดภัย ครอบครัวที่มีข้อมูลมากกว่าจะใช้ระบบได้ดีขึ้น ขณะที่ครอบครัวที่ไม่มีข้อมูลจะเข้าใจผิดเกี่ยวกับเจตนาของระบบ ความยุติธรรมของอัลกอริทึมจะสะท้อนถึงความแตกต่างของทุนข้อมูลในครอบครัว

ในความหมายนี้ ระบบที่ยุติธรรมไม่เพียงพอที่จะเป็น "ระบบที่คำนวณโดยไม่มีอคติ" แต่ต้องเป็นระบบที่ผู้ใช้เข้าใจได้อย่างถูกต้อง ใช้อย่างมั่นใจ และได้รับการสนับสนุนเมื่อจำเป็น

นักวิจัยเสนอแนวทางปฏิบัติ เช่น การอธิบายที่ชัดเจนยิ่งขึ้น สื่อการเรียนรู้ซ้ำได้ การจำลอง การฝึกปฏิบัติแบบโต้ตอบ การสนับสนุนให้เข้าถึงแหล่งข้อมูลหลายแหล่ง สิ่งสำคัญคือไม่ใช่แค่บอกว่า "เขียนตามลำดับความหวังที่แท้จริง" แต่ต้องทำให้เข้าใจว่า "ทำไมมันถึงดีที่สุด"

นี่เป็นปัญหาของการศึกษาผู้ใช้และปัญหาของการออกแบบระบบ

หากผู้ใช้เข้าใจผิดง่าย นั่นไม่ใช่ความรับผิดชอบของผู้ใช้เพียงอย่างเดียว หากคำอธิบายคลุมเครือ มีส่วนที่ขัดกับสัญชาตญาณของระบบถูกละเลย มีบรรยากาศที่ทำให้ยากที่จะถามคำถาม และคำแนะนำมาตรฐานที่เป็นนามธรรมเกินไป นั่นคือปัญหาของการดำเนินการระบบ หากต้องการบรรลุความยุติธรรมอย่างจริงจัง ต้องออกแบบไม่เพียงแค่ขั้นตอนการออกแบบอัลกอริทึม แต่ต้องออกแบบการเชื่อมต่อกับผู้ใช้ด้วย

เมื่อดูปฏิกิริยาบนโซเชียลมีเดีย การวิจัยนี้ยังคงได้รับความสนใจอย่างจำกัด แต่ในชุมชนผู้เชี่ยวชาญเริ่มมีความสนใจ โพสต์ที่แนะนำเนื้อหาการวิจัยโดยหนึ่งในผู้เขียนบน LinkedIn มีการตอบสนอง 69 ครั้งและความคิดเห็น 3 ข้อในขณะที่ตรวจสอบ มีการแสดงความยินดีและความคิดเห็นเชิงบวกเช่น "เป็นบทความที่น่าสนใจ" แม้จะไม่มีการถกเถียงขนาดใหญ่จากผู้ใช้ทั่วไป แต่ในขณะนี้กำลังถูกแบ่งปันอย่างเงียบๆ ในกลุ่มที่สนใจด้านการจัดการ การศึกษาแพทย์ และความยุติธรรมของอัลกอริทึม

ในขณะที่หน้าเว็บบทความของ Phys.org มีจำนวนการแชร์น้อยและแทบไม่มีความคิดเห็น นี่ไม่ได้หมายความว่าการวิจัยนี้ไม่มีความสำคัญ แต่เนื่องจากหัวข้อมีความเชี่ยวชาญและผู้อ่านทั่วไปอาจไม่สามารถเชื่อมโยงกับตนเองได้ทันที แต่ปัญหาที่การวิจัยนี้แสดงให้เห็นนั้นเกี่ยวข้องโดยตรงกับชีวิตของคนจำนวนมาก

เพราะเรากำลังอาศัยอยู่ในสังคมที่ "คนที่เข้าใจระบบได้มากกว่าจะได้เปรียบ"

ระบบภาษี ทุนการศึกษา ประกันภัย สินเชื่อที่อยู่อาศัย ระบบคะแนน การหางาน เว็บไซต์การเปลี่ยนงาน การเลือกโรงเรียน กระบวนการทางการปกครอง ทุกอย่างแม้จะมีกฎเดียวกัน แต่ผลลัพธ์จะแตกต่างกันตามความเข้าใจ เมื่ออัลกอริทึมเข้ามาเกี่ยวข้อง ปัญหาจะยิ่งมองไม่เห็นมากขึ้น หากเป็นผู้ดูแลมนุษย์ เราสามารถบอกได้ว่า "คำอธิบายไม่เพียงพอ" แต่เมื่อเป็นระบบ เรามักจะยอมรับว่า "มันเป็นอย่างนั้น"

แต่ความยุติธรรมไม่ใช่การผลักภาระความรับผิดชอบให้กับผู้ใช้

"คนที่ไม่ตรวจสอบให้ดีเองเป็นฝ่ายผิด"
"คนที่ไม่เข้าใจระบบเป็นฝ่ายผิด"
"คนที่ไม่ถามคำถามเองเป็นฝ่ายผิด"

การตัดสินเช่นนี้เป็นเรื่องง่าย แต่หากระบบมีความสำคัญต่อสังคม ความรับผิดชอบในการสนับสนุนความเข้าใจของผู้ใช้ก็อยู่ที่ผู้ดำเนินการด้วย โดยเฉพาะอย่างยิ่งหากระบบนั้นเกี่ยวข้องกับเส้นทางชีวิต อาชีพ รายได้ โอกาสทางการศึกษา การขาดคำอธิบายไม่ใช่แค่ความไม่เป็นมิตร แต่สามารถเป็นแหล่งของความไม่เท่าเทียมได้

คำถามที่การวิจัยนี้ตั้งขึ้นมีความสำคัญอย่างยิ่งต่อการออกแบบระบบในยุค AI

เราควรพอใจแค่การสร้างอัลกอริทึมที่ยุติธรรมหรือไม่
หากผู้ใช้เข้าใจผิดเกี่ยวกับระบบและทำการเลือกที่ไม่เหมาะสม นั่นถือว่ายุติธรรมจริงหรือ
เพียงแค่บอกว่า "ข้อมูลที่ถูกต้องได้ถูกเผยแพร่แล้ว" เพียงพอที่จะถือว่าได้ทำตามความรับผิดชอบในการอธิบายหรือไม่
เมื่อมีความแตกต่างในความสามารถหรือความมั่นใจในการทำความเข้าใจระบบ เราควรสนับสนุนถึงระดับไหน

ในสังคมที่กำลังจะมาถึง ความสำคัญจะอยู่ที่ "ความสามารถในการเข้าใจ" ไม่ใช่แค่ความโปร่งใสของอัลกอริทึม แม้ว่าจะมีคำอธิบายที่โปร่งใส