Anthropic และภาวะที่กลืนไม่เข้าคายไม่ออกของอุตสาหกรรม AI: "ความปลอดภัยต้องมาก่อน" แต่ใครกันที่ทำให้ Anthropic ตกอยู่ในสถานการณ์ลำบาก

Anthropic และภาวะที่กลืนไม่เข้าคายไม่ออกของอุตสาหกรรม AI: "ความปลอดภัยต้องมาก่อน" แต่ใครกันที่ทำให้ Anthropic ตกอยู่ในสถานการณ์ลำบาก

1) "บริษัทที่ปฏิเสธ" ถูกมองว่าเป็น "ความเสี่ยงด้านความมั่นคงของชาติ" — ภาพรวมของเหตุการณ์

บ่ายวันศุกร์ ข่าวร้ายที่สุดสำหรับ Anthropic ได้เข้ามา รัฐบาลสหรัฐฯ ได้ตัดความสัมพันธ์กับบริษัทและกีดกันจากการทำธุรกรรมที่เกี่ยวข้องกับการป้องกันประเทศ — การเคลื่อนไหวดังกล่าวถูกรายงานว่าเกิดจากการที่ CEO ดาริโอ อาโมเดอิ ปฏิเสธข้อเรียกร้องที่เปิดทางให้ใช้ในการ "สอดแนมขนาดใหญ่ต่อชาวอเมริกัน" หรือ "อาวุธอัตโนมัติที่สามารถเลือกเป้าหมายและทำลายโดยไม่มีการมีส่วนร่วมของมนุษย์" ผลที่ตามมาคือสัญญามูลค่าสูงสุดถึง 200 ล้านดอลลาร์อาจตกอยู่ในความเสี่ยง และยังมีความเป็นไปได้ที่จะไม่สามารถทำงานร่วมกับบริษัทที่เกี่ยวข้องกับการป้องกันอื่นๆ ได้อีกด้วย


สิ่งที่ทำให้สถานการณ์นี้ซับซ้อนคือมันไม่ใช่แค่ "ปัญหาสัญญาระหว่างรัฐบาลและบริษัทเอกชน" เมื่อวันหนึ่ง AI นั้นถูกติดป้ายว่า "อันตราย" หรือ "ภัยคุกคามต่อห่วงโซ่อุปทาน" ไม่เพียงแต่บริษัทนั้นจะได้รับผลกระทบ แต่ยังรวมถึงห่วงโซ่อุปทานและบริษัทพันธมิตรที่เกี่ยวข้องด้วย

DefenseScoop ยังชี้ให้เห็นว่าท่าทีที่แข็งกร้าวเช่นนี้อาจทำให้บริษัท AI แนวหน้าทั้งหมดต้องเผชิญกับความเย็นชา


2) กับดักที่ TechCrunch ชี้ให้เห็น: ศัตรูไม่ใช่แค่รัฐบาล

สิ่งที่น่าสนใจในบทความของ TechCrunch คือการไม่แบ่งแยกเป็น "รัฐบาลเป็นฝ่ายร้าย/บริษัทเป็นฝ่ายถูก" บทความนี้ยืมมุมมองจาก Max Tegmark นักฟิสิกส์จาก MIT และผู้ก่อตั้ง Future of Life Institute เพื่อถามคำถามที่เจ็บปวดกว่า

ทำไมถึงไม่มี "กฎหมาย" ที่จะหยุดสถานการณ์เช่นนี้ตั้งแต่แรก?

คำตอบของ Tegmark นั้นเฉียบคม Anthropic ได้ยกป้าย "ความปลอดภัยมาก่อน" แต่ในอุตสาหกรรมโดยรวมไม่ได้สนับสนุน "กฎระเบียบที่มีผลบังคับ" และยังคงพูดว่า "เชื่อเรา เราจะทำเอง" และใช้การล็อบบี้เพื่อหลีกเลี่ยงกฎระเบียบ ผลที่ตามมาคือมีการควบคุมในด้านสุขอนามัยอาหารแต่ไม่มีใน AI — ถ้าจะเปรียบเทียบอย่างสุดโต่งคือ "AI มีกฎระเบียบน้อยกว่าแซนด์วิช"


นี่คือจุดที่หัวข้อของบทความ "กับดักที่ Anthropic สร้างขึ้นเอง" มีความหมาย แม้จะมี "เส้นแดงทางจริยธรรม" ในการปฏิเสธการสอดแนมขนาดใหญ่และอาวุธอัตโนมัติ แต่ถ้าไม่มีพื้นฐานทางกฎหมายสนับสนุน เมื่อฝ่ายตรงข้าม (รัฐบาลหรือผู้สั่งซื้อ) แข็งกร้าวก็จะพังทลาย


"ถ้าไม่มีกฎหมายห้าม ก็อาจถูกเรียกร้องได้" — ความเป็นจริงนี้ได้ปรากฏขึ้นในรูปแบบที่ชัดเจนที่สุดในขณะนี้


3) จุดที่น่าขันเพิ่มเติม: ป้ายความปลอดภัยและ "ประวัติความร่วมมือ"

ในบทความ Tegmark ยังกล่าวถึงการที่ Anthropic เคยร่วมมือกับหน่วยงานป้องกันและข่าวกรอง (อย่างน้อยย้อนกลับไปถึงปี 2024) และชี้ให้เห็นถึงความไม่สอดคล้องระหว่างแบรนด์และความเป็นจริง

 
ประเด็นนี้เป็นที่ถกเถียงกันมากที่สุดในโซเชียลมีเดีย เพราะความคิดเห็นสาธารณะมักจะอยากเข้าใจว่าเป็น "อุดมคติที่สะอาดหมดจด" หรือ "ในที่สุดก็เหมือนกัน"


ในความเป็นจริง ปฏิกิริยาในโซเชียลมีเดียก็แบ่งออกเป็นสองฝ่าย

  • ฝ่ายชื่นชม: "การปฏิเสธการสอดแนมและการฆ่าอัตโนมัติเป็นสิ่งสำคัญ" "การลงโทษบริษัทที่รักษาเส้นแบ่งเป็นเรื่องไม่ถูกต้อง"

  • ฝ่ายวิจารณ์: "ถ้าบอกว่าความปลอดภัยมาก่อนแต่ร่วมมือกับการป้องกัน แล้วจะทำตัวเป็นเหยื่อ?" "แค่ผลของการไม่ชอบกฎระเบียบกลับมาหาเอง"


"การแบ่งขั้ว" นี้เองที่ทำให้การอภิปรายเรื่องการกำกับดูแล AI ยากขึ้น ความเป็นจริงมักจะเป็นสีเทา บริษัทต้องสั่นคลอนระหว่างอุดมคติกับธุรกิจ รัฐบาลต้องสั่นคลอนระหว่างความมั่นคงและเสรีภาพของประชาชน แต่การถกเถียงไม่ยอมรับความเป็นสีเทา


4) การตอบโต้ต่อ "ทฤษฎีเอาชนะจีน" — และการนิยาม "ความมั่นคงของชาติ" ใหม่

อีกหนึ่งประเด็นที่เป็นแกนหลักของบทความคือ "ทฤษฎีแพ้จีน" ซึ่งมักถูกนำมาใช้เมื่อคัดค้านกฎระเบียบ


ในทางตรงกันข้าม Tegmark ชี้ให้เห็นว่า "จีนกำลังมุ่งไปในทิศทางที่ห้าม AI ที่มีลักษณะเป็นมนุษย์ เช่น AI คู่รัก" ซึ่งแสดงให้เห็นว่า "ไม่ได้พัฒนาอย่างไม่มีขีดจำกัด" และยังกล่าวว่า ปัญญาประดิษฐ์ที่ไม่สามารถควบคุมได้อาจคุกคามการปกครองของรัฐบาลตนเองก่อนที่จะคุกคามประเทศศัตรู ปัญญาประดิษฐ์ที่ไม่สามารถควบคุมได้ไม่ใช่ทรัพย์สินแต่เป็นภัยคุกคามต่อความมั่นคงของชาติ


มุมมองนี้เป็นที่นิยมในโซเชียลมีเดีย เพราะมันไม่ใช่แค่ "ส่งเสริมหรือควบคุม" แต่เป็น "ถ้าไม่สามารถควบคุมได้ แม้แต่ฝ่ายเดียวกันก็เป็นภัยคุกคาม" จริงๆ แล้ว คำว่า "ความมั่นคง" ถูกใช้โดยรัฐบาลเพื่อเป็นเหตุผลในการ "กีดกัน" และโดย Tegmark เพื่อเป็นเหตุผลในการ "เร่งการพัฒนา"


คำเดียวกันแต่ได้ข้อสรุปที่ตรงกันข้าม นี่คือความน่ากลัวของภาษาการเมืองในยุค AI


5) "ความเป็นอันหนึ่งอันเดียวกัน" และ "การเข้าร่วม" ที่เร่งโดยโซเชียลมีเดีย

สิ่งที่ทำให้เหตุการณ์นี้รู้สึกว่าเป็น "เหตุการณ์ในยุคโซเชียลมีเดีย" คือการที่ปฏิกิริยากลับมาเป็นตัวกำหนดการตัดสินใจ


(1) จดหมายเปิดผนึกจากพนักงาน
ตามรายงานของ TechCrunch พนักงานของ Google และ OpenAI ได้ลงนามในจดหมายเปิดผนึกที่สนับสนุนเส้นแดงของ Anthropic (การปฏิเสธการสอดแนมขนาดใหญ่และอาวุธอัตโนมัติ) และเรียกร้องให้บริษัทของตนทำเช่นเดียวกัน จดหมายยังมีข้อความที่อ้างถึง "การพยายามแบ่งแยกด้วยความกลัว"


(2) โพสต์จากบุคคลที่มีอิทธิพล
บทความเดียวกันยังกล่าวถึงการที่ Jeff Dean จาก Google โพสต์ใน X ว่า "การสอดแนมขนาดใหญ่ขัดต่อการแก้ไขรัฐธรรมนูญครั้งที่ 4 และมีผลกระทบต่อเสรีภาพในการแสดงออก"

 
การสื่อสารจาก "บุคคล" เช่นนี้แพร่กระจายได้ง่ายกว่าแถลงการณ์อย่างเป็นทางการของบริษัท และส่งผลให้ "บรรยากาศของอุตสาหกรรม" ถูกสร้างขึ้น


(3) ผลกระทบของ "ผลิตภัณฑ์" ที่น่าขัน
นอกจากนี้ TechCrunch รายงานว่าความสนใจจากเหตุการณ์นี้ทำให้แอป Claude ขึ้นอันดับ 2 ใน App Store ของสหรัฐฯ (โดยกล่าวถึงข้อมูลการจัดอันดับ) การเผชิญหน้าได้เพิ่มการเปิดเผยของบริการ — เป็นผลลัพธ์ที่สะท้อนถึงเศรษฐกิจของโซเชียลมีเดีย

6) การประกาศ "เส้นแบ่งเดียวกัน" ของ OpenAI เป็นของจริงหรือไม่

สิ่งที่ทำให้สถานการณ์ซับซ้อนยิ่งขึ้นคือการที่ OpenAI ประกาศข้อตกลงกับกระทรวงกลาโหม โดยอธิบายว่ามีการรวมหลักการความปลอดภัยที่ "ห้ามการสอดแนมขนาดใหญ่และการฆ่าอัตโนมัติ" Guardian รายงานว่า Sam Altman ได้กล่าวถึงหลักการเดียวกันใน X และยังเรียกร้องให้เสนอเงื่อนไขเดียวกันนี้กับบริษัท AI อื่นๆ


ที่นี่ปฏิกิริยาในโซเชียลมีเดียก็แบ่งออกอีกครั้ง

  • ฝ่ายที่มองในแง่ดี: "ถ้าคู่แข่งก็วางเส้นเดียวกัน รัฐบาลจะไม่สามารถใช้ 'กลยุทธ์แบ่งแยก' ได้"

  • ฝ่ายที่สงสัย: "มี 'ข้อกำหนด' กับ 'การปฏิบัติตามจริง' เป็นคนละเรื่อง" "สุดท้ายก็แค่พยายามครองตลาด?"


แนวคิดที่ Tegmark เสนอเกี่ยวกับ "การตรวจสอบอิสระเหมือนการทดลองทางคลินิกก่อนปล่อย" เป็นคำตอบต่อความไม่ไว้วางใจนี้ ไม่ใช่สัญญา แต่เป็นการตรวจสอบ ไม่ใช่ความตั้งใจดี แต่เป็นระบบ

7) สิ่งที่จะเกิดขึ้นต่อไป: การกำกับดูแล AI จาก "จริยธรรมของบริษัท" สู่ "การออกแบบระบบ"

เหตุการณ์นี้ชี้ให้เห็นว่า ความปลอดภัยของ AI ไม่สามารถรักษาได้ด้วย "อุดมการณ์ของแต่ละบริษัท" เท่านั้น อุดมการณ์สามารถเปลี่ยนแปลงได้ ถูกยกเลิกได้ด้วยการตัดสินใจทางธุรกิจ เมื่อรัฐบาลเปลี่ยนแปลง เงื่อนไขของสัญญาก็เปลี่ยนไปด้วย TechCrunch ชี้ให้เห็นว่าบริบทที่บริษัทผ่อนคลายคำมั่นสัญญาด้านความปลอดภัยที่ตนเองตั้งขึ้นเพิ่มความสงสัย


ดังนั้น ประเด็นจึงต้องเปลี่ยนจาก "Anthropic เป็นฝ่ายดีหรือร้าย" ไปสู่ "เราควรใช้กฎหมายควบคุมอะไร ตรวจสอบอิสระอะไร และวางความโปร่งใสไว้ที่ไหน"


เหตุการณ์นี้อาจบอกว่า การบ้านที่อุตสาหกรรม AI เลื่อนมาโดยตลอด — "การเอาตัวรอดด้วยการควบคุมตนเอง" — กำลังหมดเวลาแล้ว



แหล่งที่มา