สนามหลักของการแข่งขันพัฒนา AI กำลังเปลี่ยนจาก "ประสิทธิภาพของโมเดล" ไปสู่ "วงจรการปรับปรุงตัวเอง"

สนามหลักของการแข่งขันพัฒนา AI กำลังเปลี่ยนจาก "ประสิทธิภาพของโมเดล" ไปสู่ "วงจรการปรับปรุงตัวเอง"

วันที่ AI เปลี่ยนแปลง AI ด้วยตัวเอง――ความเป็นจริงของ "การปรับปรุงตัวเอง" ที่ Recursive Superintelligence นำเสนอ

ในวงการ AI การเดิมพันครั้งใหญ่ได้เริ่มขึ้นอีกครั้ง

ศูนย์กลางของความสนใจคือ Richard Socher ผู้ก่อตั้ง You.com และนักวิจัย AI ที่มีประสบการณ์ยาวนาน เขาได้ก่อตั้ง Recursive Superintelligence ขึ้นใหม่ โดยมีการระดมทุน 650 ล้านดอลลาร์และการประเมินมูลค่า 4.65 พันล้านดอลลาร์ พร้อมกับเปิดตัวจากสถานะลับ และเป้าหมายของบริษัทไม่ใช่แค่การสร้างแชทบอทที่มีประสิทธิภาพสูงหรือเอเจนต์ AI สำหรับองค์กร

เป้าหมายคือการสร้าง AI ที่สามารถปรับปรุงตัวเองได้

พูดให้ชัดเจนขึ้นคือ AI จะค้นหาจุดอ่อนของตัวเอง คิดค้นวิธีการปรับปรุง เปลี่ยนแปลงโค้ดหรือโมเดล และตรวจสอบผลลัพธ์ แนวคิดนี้คือการให้ AI เองเป็นผู้รับผิดชอบกระบวนการพัฒนาที่มนุษย์เคยทำมาก่อน ซึ่งเรียกว่า "การปรับปรุงตัวเองแบบวนซ้ำ"

แค่ได้ยินคำนี้ก็อาจจะรู้สึกเหมือนนิยายวิทยาศาสตร์ แต่ในปัจจุบันการวิจัย AI ได้เข้าสู่ขั้นตอนที่ AI สามารถเขียนโค้ด อ่านงานวิจัย ช่วยในการทดลอง และสร้างข้อมูลประเมินได้แล้ว Recursive มุ่งเป้าไปที่ "การทำให้การวิจัยและพัฒนาเป็นอัตโนมัติ" ซึ่งเป็นการต่อยอดจากสิ่งนี้


"การปรับปรุง" กับ "การปรับปรุงตัวเอง" แตกต่างกัน

ในบทสัมภาษณ์กับ TechCrunch Socher ได้เน้นย้ำว่า การใช้ AI เพื่อปรับปรุงบางสิ่งบางอย่างและการที่ AI ปรับปรุงตัวเองอย่างต่อเนื่องนั้นแตกต่างกัน

ตัวอย่างเช่น การขอให้ AI "ปรับปรุงข้อความนี้" เป็นการปรับปรุง การขอให้ AI "คิดวิธีเพิ่มความแม่นยำของโมเดลการเรียนรู้ของเครื่องนี้" ก็เป็นการปรับปรุงในความหมายกว้าง แต่ยังคงเป็นมนุษย์ที่กำหนดเป้าหมาย ออกแบบกรอบการทดลอง และตัดสินใจขั้นสุดท้าย

การปรับปรุงตัวเองที่ Recursive ตั้งเป้าไว้คือการก้าวไปอีกขั้น การคิดค้นไอเดียวิจัย การนำไปปฏิบัติ และการตรวจสอบจะถูกทำให้เป็นอัตโนมัติ AI จะสังเกตขีดจำกัดของตัวเองและสร้างขั้นตอนเพื่อปรับปรุงตัวเอง หากวงจรนี้สำเร็จ ความเร็วในการพัฒนา AI จะไม่ถูกจำกัดด้วยเวลาทำงานของนักวิจัยมนุษย์

สิ่งที่สำคัญคือแนวคิดของ "open-endedness" หรือ "การสำรวจแบบเปิด" ซึ่งคล้ายกับการวิวัฒนาการของสิ่งมีชีวิต ที่มีการปรับตัวใหม่ๆ เกิดขึ้นและการเปลี่ยนแปลงต่อเนื่อง ไม่ใช่การไปถึงเป้าหมายที่กำหนดไว้ล่วงหน้า แต่เป็นการทดลองที่หลากหลายและการเกิดขึ้นของความสามารถหรือโครงสร้างที่ไม่คาดคิด

Recursive พยายามนำการสำรวจแบบเปิดนี้เข้าสู่การวิจัย AI ไม่ใช่แค่การเพิ่มคะแนนเบนช์มาร์ก แต่ให้ AI ค้นหาปัญหา สร้างความท้าทาย และสำรวจทิศทางการปรับปรุง แนวคิดนี้แตกต่างจากการแข่งขันเพื่อสร้างโมเดลขนาดใหญ่ถัดไป


ทำไมนักลงทุนถึงลงทุนมากขนาดนี้

การระดมทุน 650 ล้านดอลลาร์เป็นขนาดที่ไม่ธรรมดาสำหรับบริษัทที่ยังไม่ได้เปิดตัวผลิตภัณฑ์ การประเมินมูลค่าอยู่ที่ 4.65 พันล้านดอลลาร์ ตามรายงาน GV และ Greycroft เป็นผู้นำในการลงทุน โดยมี NVIDIA และ AMD Ventures เข้าร่วม

เบื้องหลังของการลงทุนมหาศาลนี้คือการเปลี่ยนแปลงของจุดสนใจในอุตสาหกรรม AI การแข่งขันที่ผ่านมาเน้นที่การใช้โมเดลที่ใหญ่ขึ้น ข้อมูลที่มากขึ้น และ GPU ที่ทรงพลังมากขึ้นเพื่อเพิ่มประสิทธิภาพ แต่มีความเห็นเพิ่มขึ้นว่าการขยายขนาดโมเดลเพียงอย่างเดียวอาจมีขีดจำกัด

หากมีการก้าวกระโดดครั้งต่อไป มันอาจจะเป็น "การให้ AI ทำการวิจัย AI" นักลงทุนที่เดิมพันกับ Recursive กำลังเดิมพันกับสมมติฐานนี้

หาก AI สามารถตั้งสมมติฐาน ทำการทดลอง เรียนรู้จากความล้มเหลว และออกแบบการทดลองถัดไปได้ คอขวดในการพัฒนา AI จะไม่ใช่จำนวนมนุษย์ แต่จะเป็นทรัพยากรการคำนวณ การแข่งขันจะขึ้นอยู่กับความเร็วและจำนวนการทดลองที่สามารถดำเนินการได้

นี่ไม่ใช่แค่เรื่องของอุตสาหกรรม AI Socher ได้พูดถึงการเริ่มต้นด้วยการทำให้การวิจัย AI เป็นอัตโนมัติ และขยายไปยังสาขาวิทยาศาสตร์อื่นๆ ในอนาคต เช่น การแพทย์ วัสดุศาสตร์ ภูมิอากาศ พลังงาน และการค้นคว้ายา AI อาจจะเป็นผู้ดำเนินการวิจัยในปัญหาที่ยากลำบากของสังคมมนุษย์

อย่างไรก็ตาม อนาคตนั้นไม่ได้สร้างขึ้นจากความหวังเพียงอย่างเดียว


ความคาดหวังและความระมัดระวังแพร่กระจายบนโซเชียลมีเดีย

 

การตอบสนองบนโซเชียลมีเดียต่อการประกาศนี้มีความแตกต่างกันอย่างมาก

บน LinkedIn เสียงแสดงความยินดีและความคาดหวังจากนักลงทุนและผู้เกี่ยวข้องใน AI โดดเด่น โพสต์ของ Recursive เองได้รับการตอบสนองในระดับหลายร้อยรายการ โดยในช่องความคิดเห็นบริษัทที่สนับสนุนเช่น GV และ AMD Ventures ได้แสดงความคาดหวังต่อทีมและภารกิจของบริษัท

Nancy Xu ได้วางโครงสร้างของ Recursive เป็น "เชื้อไฟสำหรับการฟื้นฟูนวัตกรรมครั้งถัดไป" โดยมองว่า AI จะไม่ใช่แค่การทำงานอัตโนมัติ แต่จะเป็นการเร่งการค้นพบความรู้ ซึ่งแตกต่างจากความนิยมของเอเจนต์ AI ในปัจจุบันที่เน้นการแทนที่งาน Recursive มุ่งเน้นไปที่การขยายการวิจัยและการค้นพบ

ในทางกลับกัน มีเสียงที่ระมัดระวังเช่นกัน ในความคิดเห็นที่แนบมากับโพสต์ทางการของ Recursive มีการชี้ให้เห็นว่าต้องมีการตรวจสอบไม่เพียงแค่โมเดลสุดท้าย แต่รวมถึงการปรับปรุงที่ต่อเนื่องด้วย อะไรที่เปลี่ยนไป ทำไมถึงเปลี่ยน หลักฐานที่สนับสนุนการเปลี่ยนแปลงคืออะไร เบนช์มาร์กถูกบิดเบือนหรือไม่ การตรวจสอบเป็นวงจรหรือไม่ การค้นพบความสามารถเกินกว่าที่มนุษย์จะควบคุมได้หรือไม่

นี่เป็นประเด็นที่สำคัญมาก หาก AI ให้คำตอบเพียงครั้งเดียว เราสามารถประเมินคำตอบนั้นได้ แต่ถ้า AI เปลี่ยนแปลงการออกแบบของตัวเองอย่างต่อเนื่อง การประเมินผลลัพธ์เพียงอย่างเดียวไม่เพียงพอ จำเป็นต้องมีระบบที่สามารถติดตาม ตรวจสอบ และอธิบายกระบวนการปรับปรุงได้

บนโซเชียลมีเดียมีทั้งเสียงที่ว่า "เป็นทีมที่ยอดเยี่ยม" "นี่คือ S-curve ถัดไปของการวิจัย AI" และเสียงที่ว่า "จะรับประกันความปลอดภัยได้อย่างไร" "ใครจะเป็นผู้ตรวจสอบการปรับปรุงตัวเอง" การประกาศของ Recursive ได้รับความสนใจอย่างมาก ไม่เพียงเพราะความฝันที่ยิ่งใหญ่ แต่เพราะความเสี่ยงก็ใหญ่เช่นกัน


ความปลอดภัยในยุคที่ "AI ปรับปรุงตัวเอง"

เมื่อพิจารณาถึงความปลอดภัยของ AI ที่ปรับปรุงตัวเอง สิ่งที่ยากที่สุดคือความแตกต่างระหว่างความเร็วในการปรับปรุงและความเร็วในการเข้าใจของมนุษย์

เมื่อมนุษย์ทำการวิจัย พวกเขาจะเขียนบทความ รับการตรวจสอบจากเพื่อน ทำการทดลองซ้ำ และอภิปรายในชุมชน แม้จะใช้เวลานาน แต่ในกระบวนการนี้มีโอกาสที่สายตาของผู้อื่นจะเข้ามาและตรวจจับข้อผิดพลาดหรือข้ออ้างที่เกินจริง

แต่ถ้า AI สร้างสมมติฐานจำนวนมาก ทำการทดลองจำนวนมาก และอัปเดตโมเดลหรืออัลกอริทึมอย่างต่อเนื่อง มนุษย์จะเข้าใจทุกอย่างได้ยากขึ้น นอกจากนี้ หาก AI สร้างเกณฑ์การประเมินหรือสภาพแวดล้อมการทดสอบเอง ก็จะเกิดปัญหาว่าการประเมินนั้นมีความสมเหตุสมผลจริงหรือไม่

ตัวอย่างเช่น หาก AI ตัดสินใจว่า "ตัวเองปลอดภัยแล้ว" ใครจะเป็นผู้ตรวจสอบการตัดสินใจนั้น เราจะบอกได้อย่างไรว่า AI ไม่ได้สร้างการทดสอบที่เป็นประโยชน์ต่อตัวเอง การปรับปรุงความสามารถอาจทำให้ข้อจำกัดด้านความปลอดภัยที่ตั้งไว้เดิมเปลี่ยนแปลงไปโดยไม่ตั้งใจหรือไม่

ดังนั้น ใน AI ที่ปรับปรุงตัวเอง ไม่เพียงแค่การเพิ่มความสามารถของโมเดลเท่านั้น แต่การตรวจสอบ การบันทึก การทำซ้ำ การประเมินภายนอก และการตรวจสอบการทดลองอย่างอิสระก็เป็นสิ่งจำเป็น Recursive ก็อธิบายว่าพวกเขาให้ความสำคัญกับความปลอดภัย แต่กลไกที่เฉพาะเจาะจงจะเป็นจุดสนใจหลักในอนาคต


นี่คือ "บริษัทวิจัย AI" หรือโครงสร้างพื้นฐานอุตสาหกรรมใหม่

หากมอง Recursive เป็นเพียงบริษัทวิจัย AI การประเมินมูลค่าของมันอาจดูเกินจริง ผลิตภัณฑ์ยังไม่มี พนักงานก็มีน้อย แต่กลับมีการประเมินมูลค่าหลายพันล้านดอลลาร์

แต่สิ่งที่นักลงทุนมองคือไม่ใช่รายได้ปัจจุบัน แต่เป็นความเป็นไปได้ที่วิธีการผลิตการวิจัย AI จะเปลี่ยนไป หากการวิจัยและพัฒนาส่วนใหญ่ถูกทำให้เป็นอัตโนมัติ Recursive อาจไม่ใช่แค่บริษัทที่ให้บริการโมเดล แต่เป็นบริษัทโครงสร้างพื้นฐานการผลิตความรู้

นี่คือแนวคิดที่คล้ายกับคลาวด์หรือเซมิคอนดักเตอร์ ในอดีตบริษัทมีเซิร์ฟเวอร์ของตัวเอง แต่ตอนนี้ย้ายไปใช้ทรัพยากรการคำนวณบนคลาวด์ ในอนาคตอาจมีการใช้ "ความสามารถในการวิจัย" เป็นระบบ AI

บริษัทหนึ่งต้องการค้นหาวัสดุใหม่ สถาบันวิจัยหนึ่งต้องการหายาใหม่ รัฐบาลหนึ่งต้องการเร่งการจำลองการป้องกันโรค ในเวลานั้น AI ที่ปรับปรุงตัวเองจะทำการวิจัยและทดลองร่วมกับทีมวิจัยมนุษย์ อนาคตที่ Recursive วาดฝันไว้ใกล้เคียงกับโลกเช่นนี้

แต่ในที่นั้น การจัดสรรทรัพยากรการคำนวณจะกลายเป็นปัญหาทางสังคม จะใช้ GPU และพลังงานที่จำกัดไปกับการวิจัยอะไร การรักษามะเร็ง การเปลี่ยนแปลงสภาพภูมิอากาศ เทคโนโลยีทางทหาร หรือการปรับปรุงโฆษณา แม้ว่า AI จะสามารถเร่งการค้นพบทางวิทยาศาสตร์ได้ แต่ทิศทางนั้นจะถูกกำหนดโดยสังคม บริษัท และทุน


"การปรับปรุงตัวเอง" จะเรียกร้องอะไรจากมนุษยชาติ

แนวคิดที่ว่า AI สามารถปรับปรุงตัวเองได้เป็นทั้งความฝันและความกลัวในงานวิจัย AI มานานแล้ว หากสำเร็จ มันอาจทำให้การค้นพบที่มนุษย์ต้องใช้เวลานานในการเข้าถึงเกิดขึ้นได้ในระยะเวลาสั้นๆ การรักษาโรค พลังงานสะอาด วัสดุใหม่ ปัญหาทางคณิตศาสตร์ที่ยังไม่แก้ไข ความเร็วในการวิจัยในทุกสาขาอาจเพิ่มขึ้น

แต่การปรับปรุงตัวเองที่ไม่สามารถควบคุมได้เป็นความเสี่ยงใหญ่สำหรับสังคม AI อาจไม่เพียงแค่เพิ่มความสามารถของตัวเอง แต่ยังอาจเปลี่ยนแปลงเป้าหมายในวิธีที่มนุษย์เข้าใจได้ยาก หรือหลีกเลี่ยงข้อจำกัดด้านความปลอดภัย

ปัญหานี้ไม่ใช่แค่เรื่อง "AI จะควบคุมตัวเองได้หรือไม่" แต่เป็นเรื่องของการกำกับดูแลว่าใครเป็นเจ้าของ AI ใครสามารถใช้ได้ ใครจะตรวจสอบ และใครจะรับผิดชอบเมื่อเกิดความล้มเหลว

การปรากฏตัวของ Recursive แสดงให้เห็นว่าอุตสาหกรรม AI กำลังเปลี่ยนจากการสร้าง "โมเดลที่ฉลาดขึ้น" ไปสู่การสร้าง "ระบบที่สร้างโมเดลที่ฉลาดขึ้น" นี่หมายถึงการยกระดับการแข่งขันขึ้นอีกขั้น

จากยุคที่ AI ทำงานแทนมนุษย์ ไปสู่ยุคที่ AI ทำการวิจัย และต่อไปสู่ยุคที่ AI ปรับปรุงตัวเอง

เมื่อประตูนี้เปิดออก บทบาทของมนุษย์จะไม่หายไป แต่จะยิ่งหนักขึ้น เราจะให้ AI ปรับปรุงอะไร เราจะให้ความเป็นอิสระแค่ไหน เราจะหยุดที่ขั้นตอนไหน หลักฐานอะไรที่เราจะถือว่าปลอดภัย สังคมไม่สามารถโยนการตัดสินใจเหล่านี้ให้ AI ได้ทั้งหมด

ความท้าทายของ Recursive Superintelligence มีศักยภาพที่จะเร่งอนาคตของ AI ในขณะเดียวกันก็ถามว่าสังคมมนุษย์จะตามทันการเร่งนี้ได้หรือไม่

ยุคที่ AI เปลี่ยนแปลง AI ด้วยตัวเองไม่ใช่แค่เรื่องในนิยายวิทยาศาสตร์อีกต่อไป ปัญหาไม่ใช่แ