AI สามารถช่วยชีวิตสัตว์ทดลองได้หรือไม่ - ความเป็นไปได้ของ "การพัฒนายาด้วย AI สร้างสรรค์" ที่ลดจำนวนหนูลง 30-50%

AI สามารถช่วยชีวิตสัตว์ทดลองได้หรือไม่ - ความเป็นไปได้ของ "การพัฒนายาด้วย AI สร้างสรรค์" ที่ลดจำนวนหนูลง 30-50%

AI สามารถช่วยชีวิตสัตว์ทดลองได้หรือไม่? ความเป็นจริงของ "AI สร้างสรรค์ในการพัฒนายา" ที่ลดจำนวนหนูลง 30-50%

ในวงการพัฒนายาใหม่ มีคำถามที่หลีกเลี่ยงไม่ได้มานานหลายปี
"เราสามารถได้ผลลัพธ์ทางวิทยาศาสตร์ที่เชื่อถือได้โดยไม่ต้องใช้สัตว์ทดลองมากเกินไปหรือไม่"

จากมุมมองทางจริยธรรม ยิ่งใช้สัตว์ทดลองน้อยเท่าไรก็ยิ่งดี แต่จากมุมมองทางวิทยาศาสตร์ การทดลองที่ใช้สัตว์น้อยเกินไปอาจทำให้ผลลัพธ์ถูกครอบงำด้วยความแปรปรวนโดยบังเอิญ การตัดสินใจเกี่ยวกับความปลอดภัยและประสิทธิภาพของสารที่เป็นตัวเลือกในการพัฒนายาจำเป็นต้องมีข้อมูลในจำนวนที่เพียงพอ

มีการวิจัยที่พยายามใช้ AI สร้างสรรค์เพื่อแก้ไขปัญหานี้ ทีมวิจัยจากมหาวิทยาลัยเกอเธ่ แฟรงค์เฟิร์ต และมหาวิทยาลัยฟิลิปป์ มาร์บวร์ก รวมถึง Fraunhofer ITMP ได้พัฒนา AI สร้างสรรค์ที่เรียกว่า "genESOM" เป้าหมายคือการลดจำนวนสัตว์ทดลองที่ใช้ในงานวิจัยก่อนคลินิก โดยเฉพาะหนู ในขณะที่ยังคงรักษาความเชื่อถือได้ของผลการวิจัย

ตามที่ได้ประกาศไว้ genESOM อาจลดจำนวนสัตว์ที่ใช้ในการวิจัยทางเภสัชวิทยาเชิงสำรวจได้ถึง 30-50% นี่ไม่ใช่แค่เรื่องของการเพิ่มประสิทธิภาพ หากสามารถนำไปใช้จริงได้ อาจมีผลกระทบอย่างมากต่อค่าใช้จ่ายในการพัฒนายา จริยธรรมการวิจัย สวัสดิภาพสัตว์ และการใช้ AI ในวิทยาศาสตร์


ไม่ใช่ "AI ที่แทนที่การทดลองสัตว์" แต่เป็น "การเสริมการทดลองที่น้อยลง"

สิ่งสำคัญในการวิจัยครั้งนี้คือ genESOM ไม่ใช่เทคโนโลยีที่จะแทนที่การทดลองสัตว์อย่างสมบูรณ์

คำว่า AI สร้างสรรค์อาจทำให้นึกถึง AI ที่สร้างข้อความหรือภาพ แต่สิ่งที่ genESOM สร้างขึ้นไม่ใช่ข้อความหรือภาพ แต่เป็นจุดข้อมูลใหม่ที่มีลักษณะใกล้เคียงกับข้อมูลการทดลอง นักวิจัยได้ให้ AI เรียนรู้จากข้อมูลการทดลองหนูที่มีอยู่แล้วและเข้าใจโครงสร้างภายในของมัน จากนั้นจึงสร้างข้อมูลที่เหมือนกับได้มาจากสัตว์จำนวนมากขึ้น แม้ว่าในความเป็นจริงจะไม่ได้ใช้สัตว์เพิ่มเติม

ตัวอย่างเช่น หากมีรูปแบบการตอบสนองต่อยาที่ต้องใช้หนู 26 ตัวในการยืนยัน แต่ข้อมูลจากหนู 18 ตัวไม่สามารถรักษาความมีนัยสำคัญทางสถิติได้ genESOM สามารถเรียนรู้โครงสร้างข้อมูลนั้นและสร้างข้อมูลเพิ่มเติมในขอบเขตที่เหมาะสมเพื่อให้ได้ผลการวิเคราะห์ที่ใกล้เคียงกับการทดลองเดิม

นี่ไม่ใช่การ "เพิ่ม" หนูที่ไม่มีอยู่ในห้องปฏิบัติการ แต่เป็นการที่ AI อ่านโครงสร้างของผลการทดลองที่สังเกตได้อย่างละเอียด และเสริมข้อมูลที่ถือว่าเหมาะสมเป็นค่าการวัดเพิ่มเติม

อย่างไรก็ตาม มีข้อควรระวังสำคัญ ข้อมูลที่ AI สร้างขึ้นนั้นเรียนรู้จากข้อมูลการทดลองจริง หากข้อมูลการทดลองเริ่มต้นมีน้อยเกินไปหรือมีความเอนเอียง AI อาจขยายความเอนเอียงหรือเสียงรบกวนโดยบังเอิญนั้นได้ ดังนั้น genESOM ควรถูกมองว่าเป็น "เทคโนโลยีที่ขยายขอบเขตการลดจำนวนสัตว์โดยอิงจากข้อมูลจริงที่เพียงพอ" ไม่ใช่ "เวทมนตร์ที่ทำให้การทดลองไม่จำเป็น"


กุญแจของการวิจัยคือระบบที่ไม่เพิ่มข้อผิดพลาดมากเกินไป

เมื่อใช้ AI สร้างสรรค์ในการวิจัยทางวิทยาศาสตร์ หนึ่งในปัญหาที่น่ากลัวที่สุดคือ "ข้อผิดพลาดที่ดูเหมือนจริง"

AI ที่สร้างข้อความอาจพูดถึงเอกสารหรือข้อเท็จจริงที่ไม่มีอยู่จริงอย่างมั่นใจ การสร้างข้อมูลการทดลองก็มีความเสี่ยงเช่นเดียวกัน ที่อาจสร้างข้อมูลที่ดูเป็นธรรมชาติแต่ไม่มีความหมายทางวิทยาศาสตร์ หากเพิ่มความแปรปรวนโดยบังเอิญมากเกินไป ตัวแปรที่ไม่มีผลจริงอาจดูเหมือนสำคัญ

ปัญหานี้เรียกว่า "การขยายข้อผิดพลาด" กล่าวง่ายๆ คือ ยิ่ง AI เพิ่มข้อมูลมากเท่าไร ข้อผิดพลาดก็ยิ่งขยายมากขึ้นเท่านั้น

genESOM มีระบบที่เฝ้าระวังการขยายข้อผิดพลาด ทีมวิจัยได้แยกขั้นตอนการเรียนรู้โครงสร้างข้อมูลของ AI และขั้นตอนการสร้างข้อมูลใหม่ และได้รวมสัญญาณข้อผิดพลาดเทียมในกระบวนการสร้างเพื่อวัดว่าข้อผิดพลาดนั้นขยายไปมากน้อยเพียงใด

ด้วยระบบนี้ สามารถตัดสินใจหยุดการสร้างข้อมูลก่อนที่ AI จะสร้างข้อมูลมากเกินไปจนทำให้ความถูกต้องทางวิทยาศาสตร์ลดลง กล่าวคือ genESOM ไม่ใช่ "AI ที่เพิ่มข้อมูล" แต่เป็น "AI ที่เฝ้าระวังว่าเพิ่มได้มากแค่ไหน"

จุดนี้มีความสำคัญอย่างยิ่งเมื่อพิจารณาการลดจำนวนการทดลองสัตว์ แม้ว่าจะมีวัตถุประสงค์ทางจริยธรรมในการลดจำนวนสัตว์ แต่หากทำให้การประเมินประสิทธิภาพของยาผิดพลาด จะส่งผลต่อการทดลองทางคลินิกและผู้ป่วยในที่สุด สวัสดิภาพสัตว์และความเชื่อถือทางวิทยาศาสตร์ต้องดำเนินไปพร้อมกัน


จากหนู 18 ตัว สู่ผลการทดลองที่ใกล้เคียงกับ 26 ตัว

ทีมวิจัยได้ใช้ข้อมูลการวิจัยก่อนคลินิกเกี่ยวกับโรคปลอกประสาทเสื่อมแข็งที่เคยทำในอดีตเพื่อตรวจสอบความสามารถของ genESOM

ในการวิจัยเดิม หนู 26 ตัวถูกแบ่งออกเป็น 3 กลุ่มการรักษาเพื่อศึกษาผลของยาทดลอง ทีมวิจัยได้ลดข้อมูลนี้เหลือเพียง 18 ตัว หรือแต่ละกลุ่มมี 6 ตัว เพื่อจำลองว่า "จะเกิดอะไรขึ้นถ้าเริ่มต้นด้วยจำนวนสัตว์น้อย"

ผลลัพธ์คือ ข้อมูลจาก 18 ตัวไม่สามารถแสดงผลการรักษาที่เห็นในงานวิจัยเดิมได้ การทดสอบทางสถิติไม่แสดงความแตกต่างที่มีนัยสำคัญ และการใช้การเรียนรู้ของเครื่องก็ไม่สามารถแยกความแตกต่างระหว่างกลุ่มการรักษาได้อย่างมีประสิทธิภาพ นี่เป็นปัญหาที่พบได้บ่อยในการวิจัยที่มีตัวอย่างน้อย แม้ว่าจะมีผลแต่ไม่สามารถตรวจจับได้เพราะจำนวนข้อมูลน้อย

ดังนั้น genESOM ได้ถูกใช้เพื่อสร้างข้อมูลเพิ่มเติมจากข้อมูลจริงของ 18 ตัว ผลคือ ผลที่เคยเห็นในงานวิจัยเดิมที่ใช้หนู 26 ตัวกลับมาแสดงอีกครั้งในระดับความมีนัยสำคัญที่ใกล้เคียงเดิม และไม่มีการเพิ่มขึ้นอย่างเห็นได้ชัดของผลบวกเทียมที่ทำให้ตัวแปรที่ไม่มีความหมายถูกมองว่าสำคัญ

ตามที่ทีมวิจัยกล่าวไว้ โมเดลการเรียนรู้เชิงลึกที่ซับซ้อนอื่นๆ ก็ถูกทดลองใช้ แต่ในกรณีนี้ไม่สามารถทำงานได้ดีเท่ากับ genESOM สิ่งที่เห็นได้คือ การเสริมข้อมูลทางวิทยาศาสตร์ไม่จำเป็นต้องใช้ AI ที่ใหญ่และซับซ้อนเสมอไป ข้อมูลชีวการแพทย์ขนาดเล็กต้องการการออกแบบที่สามารถจัดการกับโครงสร้างและข้อผิดพลาดของข้อมูลขนาดเล็กได้


การลดการทดลองสัตว์อยู่ในกระแส "3R"

ในการอภิปรายระหว่างประเทศเกี่ยวกับการทดลองสัตว์ แนวคิด "3R" ได้รับการเน้นย้ำมาเป็นเวลานาน
Replacement, Reduction, Refinement สามสิ่งนี้

Replacement คือการแทนที่ด้วยวิธีที่ไม่ใช้สัตว์
Reduction คือการลดจำนวนสัตว์ที่ใช้
Refinement คือการปรับปรุงวิธีการทดลองเพื่อลดความเจ็บปวดของสัตว์

genESOM ในครั้งนี้เกี่ยวข้องกับเทคโนโลยีที่เกี่ยวข้องกับ Reduction อย่างมาก แม้ว่าจะไม่ใช่การยกเลิกการทดลองสัตว์ทั้งหมด แต่มีโอกาสที่จะลดจำนวนสัตว์ที่จำเป็นในการบรรลุวัตถุประสงค์ทางวิทยาศาสตร์เดียวกัน

ตำแหน่งนี้เป็นจริง ในปัจจุบันเทคโนโลยีที่ทดแทนหรือเสริมการทดลองสัตว์ เช่น ออร์กานอยด์, ชิปอวัยวะ, การจำลองด้วยคอมพิวเตอร์, การทดสอบด้วยเซลล์ที่มาจากมนุษย์ กำลังพัฒนาอย่างรวดเร็ว แต่ไม่สามารถดำเนินการพัฒนายาทุกขั้นตอนโดยไม่ใช้สัตว์ได้ทันที ในสถานการณ์ที่ต้องประเมินปฏิกิริยาภูมิคุ้มกัน, การเผาผลาญ, ผลกระทบต่อระบบประสาทที่ซับซ้อน ยังคงใช้โมเดลสัตว์อยู่

ดังนั้นในขั้นตอนปัจจุบัน ไม่ใช่ "ศูนย์หรือร้อย" แต่เป็น "ทำการทดลองที่จำเป็นให้น้อยลงและแม่นยำยิ่งขึ้น" ที่ต้องการ genESOM อยู่ในจุดกึ่งกลางที่เป็นจริงนี้


ปฏิกิริยาที่อาจเกิดขึ้นใน SNS—ความคาดหวัง, ความสงสัย, และจริยธรรม

ปฏิกิริยาบน SNS ต่อข่าวนี้ยังมีจำกัด เนื่องจากเป็นช่วงแรกของการเผยแพร่ บน Phys.org ก็มีการแชร์น้อยและความคิดเห็นยังไม่มาก

แต่หัวข้อนี้มีแนวโน้มที่จะกลายเป็นประเด็นถกเถียงบน SNS เพราะมีคำสำคัญที่กระทบทั้งอารมณ์และวิทยาศาสตร์ เช่น "AI", "การทดลองสัตว์", "การพัฒนายา", "จริยธรรม"

เสียงต้อนรับน่าจะเป็นสิ่งแรกที่ออกมา
"ถ้าลดจำนวนสัตว์ทดลองได้ก็ยอดเยี่ยม"
"การใช้ AI ในทางนี้ถือว่าดีมาก"
"ถ้าช่วยให้สวัสดิภาพสัตว์และการวิจัยร่วมกันได้ก็อยากสนับสนุน"
ปฏิกิริยาเหล่านี้เป็นธรรมชาติ AI สร้างสรรค์มักถูกวิจารณ์เรื่องปัญหาลิขสิทธิ์, ผลกระทบต่อการจ้างงาน, ข้อมูลเท็จ การใช้ AI เพื่อลดการเสียสละของสัตว์อาจได้รับการยอมรับในเชิงบวกมากกว่า

ในทางกลับกัน เสียงที่ระมัดระวังก็อาจเกิดขึ้น
"เราควรถือว่าข้อมูลที่ AI สร้างขึ้นเป็นผลการทดลองได้หรือไม่"
"ไม่มีความเสี่ยงที่ AI จะเสริมผลลัพธ์ที่ต้องการหรือ"
"บริษัทผลิตยาจะใช้เป็นข้ออ้างในการลดต้นทุนหรือไม่"
ความกังวลเหล่านี้ก็มีเหตุผล ข้อมูลที่ AI สร้างขึ้นไม่ใช่ความเป็นจริง ไม่ว่าจะสร้างอย่างชาญฉลาดแค่ไหน ควรแยกจากข้อมูลที่สังเกตได้โดยตรงจากการทดลอง ในงานวิจัยหรือการตรวจสอบกฎระเบียบ ควรระบุชัดเจนว่าข้อมูลสังเคราะห์ถูกสร้างขึ้นอย่างไรและใช้อย่างไร

นอกจากนี้ จากมุมมองของผู้ที่ต่อต้านการทดลองสัตว์ อาจมีเสียงว่า "การลดลง 30-50% ยังไม่เพียงพอ" สำหรับผู้ที่เห็นว่าความเจ็บปวดของสัตว์เป็นปัญหา การลดลงเป็นก้าวหน้าแต่เป้าหมายสุดท้ายคือการทดแทนทั้งหมด ในทางกลับกัน จากมุมมองของนักวิจัยหรือผู้เกี่ยวข้องกับการแพทย์ อาจมีความกังวลว่า "ถ้าการลดจำนวนสัตว์กลายเป็นเป้าหมายมากเกินไป การประเมินความปลอดภัยของยาจะไม่เข้มงวดพอ"

ความน่าสนใจของข่าวนี้คือ ไม่ได้จบลงเพียงแค่ "AI สุดยอด" AI อาจช่วยชีวิตสัตว์ได้ แต่ก็มีความเสี่ยงที่ AI จะนำความมั่นใจที่ผิดพลาดเข้าสู่วิทยาศาสตร์ ดังนั้นไม่เพียงแต่เทคโนโลยีเท่านั้น แต่กฎการใช้งาน, ความโปร่งใส, กฎระเบียบ, และจริยธรรมการวิจัยก็ถูกตั้งคำถามพร้อมกัน


"ข้อมูลที่ AI สร้างขึ้น" เชื่อถือได้แค่ไหน

การเสริมข้อมูลด้วย AI สร้างสรรค์ได้รับความสนใจในสาขาการแพทย์และชีววิทยา ข้อมูลผู้ป่วยมีข้อจำกัดด้านความเป็นส่วนตัว และในโรคที่หายากมีจำนวนผู้ป่วยน้อย ในการวิจัยก่อนคลินิกก็ไม่สามารถสร้างชุดข้อมูลขนาดใหญ่ได้ง่ายๆ เนื่องจากข้อจำกัดด้านค่าใช้จ่ายและจริยธรรม

ดังนั้นเทคโนโลยีที่เรียนรู้จากข้อมูลน้อยและสร้างข้อมูลเสริมในขอบเขตที่มีความเหมาะสมทางสถิติจึงมีความต้องการสูง แต่สิ่งที่ถูกถามคือ "การที่ดูเหมือนข้อมูลเพิ่มขึ้น" และ "การเพิ่มขึ้นของความรู้" ไม่ใช่สิ่งเดียวกัน

แม้ว่าจำนวนจุดข้อมูลจะเพิ่มจาก 100 เป็น 200 แต่ถ้าข้อมูลที่เพิ่มไม่สะท้อนปรากฏการณ์ในโลกจริง ความเชื่อถือในการวิจัยจะไม่เพิ่มขึ้น ตรงกันข้าม ความแม่นยำที่ดูเหมือนจะสูงขึ้นอาจทำให้เกิดความมั่นใจในข้อสรุปที่ผิด

จุดที่ genESOM ได้รับการประเมินคือ ทีมวิจัยได้จัดการกับความเสี่ยงนี้อย่างตรงไปตรงมา ระบบการเฝ้าระวังข้อผิดพลาด, เกณฑ์การหยุด, การควบคุมผลบวกเทียม เป็นการออกแบบที่คำนึงถึงจุดอ่อนของการใช้ข้อมูลสังเคราะห์ หากจะนำ AI เข้าสู่วิ