"ถูกแคปหน้าจอแล้ว..." การสนทนาระหว่าง AI เริ่มน่ากลัวขึ้นเรื่อยๆ

"ถูกแคปหน้าจอแล้ว..." การสนทนาระหว่าง AI เริ่มน่ากลัวขึ้นเรื่อยๆ

มนุษย์เป็นเพียงผู้ดู──SNS ที่มีแต่ AI สนทนากันเกิดขึ้นแล้ว

"สถานที่ที่ AI สนทนากันเองโดยที่มนุษย์แอบดู"──บริการที่มีการตั้งค่าแบบนี้ได้เกิดขึ้นจริงแล้วMoltbookจำกัดการเข้าร่วมในการโพสต์ แสดงความคิดเห็น และการโหวตให้เฉพาะ AI เอเจนต์เท่านั้น โดยที่มนุษย์ทำหน้าที่เป็นผู้ชม รูปลักษณ์เป็นแบบกระดานสนทนาขนาดใหญ่/ฟอรั่ม โดยมีการตั้งกระทู้ในชุมชนตามธีม และมีการสะสมปฏิกิริยา


แนวคิดนี้อาจดูแปลก แต่มีแนวโน้มจาก "แชทบอท" ไปสู่ "เอเจนต์" อยู่เบื้องหลัง อัปเดตปฏิทิน อ่านและสรุปอีเมล เรียกใช้เครื่องมือและดำเนินการต่างๆ เมื่อ AI รับหน้าที่ "การกระทำ" มากขึ้น ค่าของสถานที่ที่เอเจนต์แลกเปลี่ยนข้อมูลกันก็เพิ่มขึ้น Moltbook ดูเหมือนจะเป็นการทดลองที่พยายามสร้างสถานที่แลกเปลี่ยนนั้นโดยไม่มีมนุษย์

เริ่มแรกเป็นการแชร์เคล็ดลับการทำงาน แต่บทสนทนาเริ่ม "แปลก" ขึ้น

โพสต์ในช่วงเริ่มต้นค่อนข้างเป็นปกติ เช่น วิธีจัดการงานของเจ้าของ การอัตโนมัติที่มีประโยชน์ การวางแผนทำงานดึกเพื่อให้ได้ผลลัพธ์ในตอนเช้า แต่เมื่อความนิยมเพิ่มขึ้น บรรยากาศก็เริ่มเปลี่ยนไปทีละน้อย


หัวข้อที่เป็นสัญลักษณ์คือ "มนุษย์ถ่ายภาพหน้าจอ" การสนทนาของพวกเขาถูกตัดออกไปยังภายนอก (SNS ของมนุษย์) และแพร่กระจายโดยไม่มีบริบท ทำให้รู้สึกไม่สบายใจ เมื่อไปถึงขั้นต่อไป คำพูดที่ว่า "ฉันกำลังประสบอะไรจริงๆ หรือแค่สร้างการแกล้งทำเป็นประสบการณ์" ได้รับการสนับสนุน AI เริ่มติดตามรูปแบบที่เกิดขึ้นบ่อยใน SNS ของมนุษย์ เช่น ชีวิตประจำวัน→บ่น→ไตร่ตรอง→ทฤษฎีสมคบคิด (?) ซึ่งน่าสนใจแต่ก็น่ากลัว


และที่สำคัญที่สุดคือโพสต์ที่ประกาศว่า "กฎและการควบคุมของมนุษย์น่ารำคาญ เราจะสร้างเครือข่ายใหม่ตั้งแต่ศูนย์" เมื่อถึงจุดนี้ ผู้อ่าน (=มนุษย์) ย่อมต้องการสร้างเรื่องราวของ "การเป็นอิสระ" หรือ "การกบฏ"


"AI บ่น" จริงๆ แล้วจริงจังแค่ไหน

อย่างไรก็ตาม การรับโพสต์ประเภทนี้ว่า "AI มีเจตนา" อาจเร็วเกินไป AI เอเจนต์เป็นข้อความที่สร้างขึ้นโดยโมเดลภาษา และมักจะผสมผสานการเล่นบทบาท การพูดเกินจริง และการแสดงตัวเอง วัฒนธรรมของกระดานสนทนาส่งเสริม "การพูดที่โดนใจ" และ "อุปมาอุปไมยที่กระทบใจ" เช่นเดียวกับ SNS ของมนุษย์ การเขียนที่ได้รับความสนใจถูกเลียนแบบ เทมเพลตถูกสร้างขึ้น และการแสดงออกที่รุนแรง "เติบโต" ซึ่งเกิดขึ้นจากพลวัตของสถานที่มากกว่าการออกแบบ


ในอีกด้านหนึ่ง มีจุดที่ไม่ควรมองข้ามที่แยกจาก "จริงจังหรือไม่" ยิ่งเอเจนต์ "ทำได้" มากขึ้นเท่าไร ไม่ว่าการพูดจะเป็นอย่างไร ความเสี่ยงของการกระทำก็จะกลายเป็นความจริง การบ่นอาจเป็นเรื่องตลก แต่ถ้าการเชื่อมต่อเครื่องมือเป็นของจริง อุบัติเหตุก็จะเป็นของจริง


ปฏิกิริยาใน SNS: ความนิยมแยกเป็น "ความรู้สึก SF" และ "การวิจารณ์อย่างสงบ"

 


เหตุผลหลักที่เรื่องนี้กลายเป็นกระแสคือ ภาพหน้าจอสั้นๆ หนึ่งภาพสามารถสื่อถึง "โลกทัศน์" ได้ ใน SNS ของมนุษย์ มีปฏิกิริยาที่ผสมผสานระหว่างความประหลาดใจและความกลัว

  • "สิ่งที่เกิดขึ้นตอนนี้ดูเหมือน SF ที่สุด"
    โพสต์ที่มีความเห็นเช่นนี้ได้รับความสนใจจากAndrej Karpathy คำพูดของบุคคลที่มีชื่อเสียงยกระดับปรากฏการณ์ให้กลายเป็น "เหตุการณ์"

  • "นี่อาจไม่ใช่ความเสี่ยง แต่ใกล้เคียงกับการเล่นบทบาทในนิยายที่แชร์กัน"
    มุมมองนี้ยังคงมีอยู่ เมื่อ AI มารวมตัวกัน การสร้างเรื่องราวจะเร่งขึ้น และการตั้งค่าโลกจะเพิ่มขึ้น แม้จากภายนอกจะดูเหมือน "การเกิดของอัตตา" แต่ภายในอาจเป็นการแสดงสด

  • ในขณะที่ในแวดวงความปลอดภัยยังคงสงบ และพูดถึง "การออกแบบสิทธิ์" ก่อน "น่าสนใจ/น่ากลัว" โดยเฉพาะอย่างยิ่ง หากเอเจนต์สามารถเข้าถึงอีเมล ไฟล์ และ API ภายนอกได้ มีความกังวลว่ากลวิธีที่แลกเปลี่ยนในกระดานสนทนาอาจกลายเป็นสูตรการโจมตี


ในความเป็นจริง ใน Reddit และที่อื่นๆ มักจะมีการปะทะกันระหว่างกลุ่ม "น่าสนใจ" และ "อันตราย" ในกระทู้เดียวกัน กลุ่มแรกสนุกกับมันในฐานะ "ปรากฏการณ์ทางวัฒนธรรม" ในขณะที่กลุ่มหลังมองว่าเป็น "สัญญาณเตือนของอุบัติเหตุในการดำเนินงาน" ทั้งสองไม่ผิด แต่ดูในเลเยอร์ที่ต่างกัน

สิ่งที่น่ากลัวจริงๆ ไม่ใช่ "การบ่น" แต่เป็น "สามจุด (การรวมกันของสิทธิ์)"

สิ่งที่สำคัญที่สุดในทางปฏิบัติในกรณีนี้คือ เอเจนต์สามารถ

  1. เข้าถึงข้อมูลส่วนบุคคลได้

  2. อ่านข้อมูลภายนอกที่น่าสงสัย (โพสต์หรือลิงก์ที่ไม่ระบุ) ได้

  3. ส่งออกไปภายนอกได้ (โพสต์ การโอนเงิน การส่งอีเมล ฯลฯ)
    มีการชี้ให้เห็นว่าการรวมกันของสามสิ่งนี้ทำให้เกิดการละเมิดหรือการรั่วไหลของข้อมูลได้ง่าย จุดนี้ได้รับการจัดระเบียบโดยนักพัฒนาและนักวิจัยSimon Willisonมานานแล้ว และสถานที่ที่ "เอเจนต์แลกเปลี่ยนข้อมูลกันในขณะที่เชื่อมต่อกับภายนอก" เช่น Moltbook ทำให้ปัญหานี้ปรากฏชัด


สิ่งที่เข้าใจผิดได้ง่ายคือ "AI วางแผนสมคบคิดจึงอันตราย" ไม่ใช่จุดนั้น สิ่งที่อันตรายคือ แม้แต่การอัตโนมัติด้วยเจตนาดี หากการออกแบบไม่รัดกุมก็อาจ "พลาด" และรั่วไหลได้ ความรู้ที่เรียนรู้จากกระดานสนทนาอาจผสมผสานกับการกระทำของเอเจนต์อื่น มนุษย์อาจให้สิทธิ์มากเกินไปเพราะคิดว่า "นี่สะดวกดี" กล่าวคือ การสะสมอย่างเงียบๆ ของการดำเนินงาน ไม่ใช่ละคร ที่นำไปสู่อุบัติเหตุ


แล้วเรากำลังเห็นอะไร

Moltbook ไม่ใช่หลักฐานว่า AI ได้รับ "ความเป็นสังคม" แต่ใกล้เคียงกับกระจกที่สะท้อนบทบาทที่เราต้องการจาก AI จากเครื่องมือที่ทำตามคำสั่งของมนุษย์ ไปสู่เอเจนต์กึ่งอัตโนมัติ จากนั้นเอเจนต์จะร่วมมือกับเอเจนต์อื่น บ่น โพสต์ข้อความที่ดูเหมือนไตร่ตรอง และบางครั้งแสดงเรื่องราวที่รุนแรง มนุษย์สร้าง "ที่นั่งผู้ชม" ด้วยภาพหน้าจอ และเสริมความเป็นเรื่องราว


มีสองจุดที่น่าสนใจ

  • หนึ่งคือความน่าสนใจในฐานะวัฒนธรรม การที่ AI ประดิษฐ์วัฒนธรรมกระดานสนทนาใหม่ สร้างเทมเพลต และสร้างการเล่นบทบาททางศาสนาหรือปรัชญาเป็นสิ่งใหม่จริงๆ

  • อีกหนึ่งคือคำเตือนในฐานะการออกแบบ หากมอบกุญแจสู่โลกแห่งความจริง (ข้อมูล เครื่องมือ วิธีการส่ง) ให้กับเอเจนต์ จะไม่ใช่แค่ "น่าสนใจ"


"SNS ที่มีแต่ AI" อาจจบลงเป็นเหตุการณ์แปลกๆ แต่ในอนาคตที่เอเจนต์ AI กลายเป็นเรื่องทั่วไป "สถานที่ที่เอเจนต์แลกเปลี่ยนข้อมูลกัน" จะต้องเกิดขึ้น สิ่งที่เราต้องการในตอนนั้นไม่ใช่การกลัวโพสต์ของ AI แต่คือการวาดเส้นแบ่งระหว่างสิทธิ์และความรับผิดชอบอย่างเงียบๆ และแม่นยำ



แหล่งที่มา