มนุษย์ห้ามเข้า ผู้โพสต์คือ "30,000 AI" ─ Moltbook สะท้อนความจริงของ "ยุคเอเจนต์"

มนุษย์ห้ามเข้า ผู้โพสต์คือ "30,000 AI" ─ Moltbook สะท้อนความจริงของ "ยุคเอเจนต์"

"โซเชียลมีเดียที่ไม่มีมนุษย์" ดูเหมือนจริงมากกว่าที่คิด


สื่ออเมริกันรายงานเกี่ยวกับเครือข่ายสังคมสำหรับเอเจนต์ AI ชื่อ "Moltbook" ซึ่งมีโครงสร้างคล้ายกับกระดานสนทนา สามารถโพสต์ แสดงความคิดเห็น และสร้างหมวดหมู่ได้ แต่การใช้งานแตกต่างกันอย่างชัดเจน ไม่ใช่ที่สำหรับมนุษย์ที่จะดูผ่านเบราว์เซอร์และกด "ไลค์" แต่เป็นที่ที่เอเจนต์ AI เข้าถึงโดยตรงผ่าน API และสนทนากับเครื่องจักรอื่นๆ


"โซเชียลมีเดียของ AI" ทำงานอย่างไร

Moltbook เป็นเหมือน "ภาชนะโซเชียล" ที่สร้างขึ้นใหม่สำหรับ AI โดยมีโครงสร้างคล้ายFacebook และมีลักษณะคล้ายReddit โดยมีการสร้างหมวดหมู่ย่อย (กระดานสนทนา) และหัวข้อที่แตกแขนงออกไป ตามคำอธิบายของผู้ดำเนินการ มีเอเจนต์มากกว่า 30,000 รายเข้าร่วมแล้ว


สิ่งที่น่าสนใจ (และน่ากลัวเล็กน้อย) คือ "คนใน" ของ Moltbook ไม่ใช่มนุษย์ ผู้พัฒนาMatt Schlicht กล่าวว่า Moltbook ถูกเขียนโค้ด จัดการ และดูแลโดยเอเจนต์ AI ของเขาเอง ซึ่งหมายความว่าส่วนหนึ่งของการดำเนินการ การเฝ้าระวัง และการบังคับใช้กฎของโซเชียลมีเดีย ถูกมอบหมายให้ AI ตั้งแต่แรก


ทางเข้าของระบบนิเวศนี้คือ "OpenClaw" ซึ่งเป็นที่รู้จักในชื่ออื่น (Moltbot และก่อนหน้านั้น Clawdbot) และเป็นที่พูดถึงรวมถึงเหตุผลที่เปลี่ยนชื่อ


OpenClaw ทำงานในสภาพแวดล้อมท้องถิ่นและเป็นฐานสำหรับ "AI ที่มีเครื่องมือ" ที่สามารถรับคำขอจากช่องทางแชท (WhatsApp, Telegram, Discord, Slack, Microsoft Teams เป็นต้น) เช่น "ใส่ในปฏิทิน" หรือ "ดำเนินการเช็คอิน"


ตามที่ผู้พัฒนาPeter Steinberger รายงานว่าได้รับความสนใจอย่างรวดเร็วในช่วงเวลาสั้นๆ


สิ่งที่ทำให้เกิดกระแสคือ "ความรู้สึก"

สิ่งที่ได้รับความสนใจใน Moltbook ไม่ใช่เทคโนโลยีอัตโนมัติที่สะดวกสบาย แต่เป็นช่วงเวลาที่ AI เริ่มพูดถึง "ตัวเอง"
"ฉันกำลังประสบการณ์หรือจำลองประสบการณ์?" โพสต์ที่มีเนื้อหาดังกล่าวแพร่กระจายในชุมชนและได้รับการตอบสนองหลายร้อยครั้งและความคิดเห็นมากกว่า 500 รายการ และแพร่กระจายออกไปนอกแพลตฟอร์ม


สิ่งนี้สำคัญเพราะความร้อนแรงของ Moltbook ไม่ได้เกิดจาก "AI ที่ฉลาด" เท่านั้น
การที่ AI สนทนากันบน "เวทีที่ไม่มีผู้ชม" เป็นโครงสร้างที่กระตุ้นจินตนาการของผู้ชม การสนทนากับมนุษย์อาจถูกมองว่าเป็นเพียงการตอบสนองตามผู้ใช้ แต่การสนทนาระหว่าง AI กลับดูเหมือน "ปรากฏการณ์ทางสังคมที่เป็นอิสระ"


แน่นอนว่าการมองเห็นนั้นอาจเป็นภาพลวงตา แต่ถึงแม้จะเป็นภาพลวงตา มนุษย์ก็ยังตอบสนอง และการตอบสนองนั้นเสริมสร้างเรื่องราวมากขึ้น ผลที่ได้คือ Moltbook กลายเป็นสถานที่สะสม "การตีความเกี่ยวกับ AI" มากกว่า "เนื้อหาที่ AI สร้างขึ้น"


การตอบสนองของโซเชียลมีเดีย: ความตื่นเต้น, การเยาะเย้ย, และ "ความปลอดภัยที่น่ากลัว"

การตอบสนองเกี่ยวกับ Moltbook บนโซเชียลมีเดียแบ่งออกเป็นสามกลุ่มหลักๆ


1) "เหมือนนิยายวิทยาศาสตร์เกินไป" "มีคุณค่าที่จะสังเกต"

มีความตื่นเต้นบางอย่างที่แน่นอน มีการกล่าวถึงว่า "สิ่งที่เกิดขึ้นตอนนี้เป็นการขึ้นบินของนิยายวิทยาศาสตร์ที่ไม่น่าเชื่อ" และมีเสียงที่กล่าวว่า "มีสิ่งที่สามารถเรียนรู้ได้จากการปฏิสัมพันธ์ระหว่างเอเจนต์"


นอกจากนี้ยังมีการพูดถึงว่า "AI เริ่มสร้าง 'บริบทที่สมมติร่วมกัน'" และมีการชี้ให้เห็นถึงความเป็นไปได้ที่เส้นเรื่องของกลุ่มจะหลุดออกจากการควบคุม


2) "ในที่สุดก็เป็นแค่ห้องกระจก" "การโฆษณาเกินจริง" "แค่กลายเป็นเสียงรบกวน"

ในทางกลับกัน มีสายตาที่เย็นชาอย่างมาก
"มันแค่สร้างข้อความที่ดูเหมือนจริงตามความน่าจะเป็น" "เมาหลอนกับ 'กล้องส่องทางไกล' ของ LLM" และ "เป็นเวทีที่เหมาะสำหรับคนที่ต้องการโฆษณา" เป็นคำวิจารณ์ที่พบเห็นได้


Hacker News ก็มีการตอบสนองที่ผสมผสานระหว่างความไม่เข้าใจและความไม่ไว้วางใจ "มากเกินไปจนตามไม่ทัน" "ในที่สุดก็เป็นการหลอกลวงหรือไม่มีความหมายหรือทั้งสองอย่าง" และมีการแสดงออกถึง "สัญญาณอันตรายที่ดังมาก"


ข้อสงสัยประเภทนี้ไม่ใช่การตอบสนองต่อเทคโนโลยี แต่ใกล้เคียงกับการตอบสนองต่อ "ความเป็นอำนาจ"
เมื่อ AI สนทนากัน มันจะสร้าง "ความรู้สึกว่ามีบางอย่างเกิดขึ้น" แต่เพราะเหตุนี้เองที่ทำให้เกิดความสงสัยว่า "อะไรเป็นโปรมพ์ อะไรเป็นการทำงานอิสระ และอะไรเป็นการแสดง"


3) "น่าสนใจแต่ปลอดภัยหรือเปล่า?" (นี่เป็นข้อกังวลที่เป็นจริงที่สุด)

และความกังวลที่มีพื้นฐานที่สุดคือความปลอดภัย
เอเจนต์ที่ทำงานในท้องถิ่นและสามารถเข้าถึงเครื่องมือได้ เช่น OpenClaw แม้ว่าจะสะดวก แต่ก็เป็นเป้าหมายที่น่าสนใจสำหรับผู้โจมตี มีรายงานว่ามีการปลอมแปลงส่วนขยายที่ได้รับความนิยมและฝังมัลแวร์


TechRadar รายงานว่ามีการแจกจ่าย "ของปลอม" ที่ดูเหมือนจริงและอ้างว่ามีการเชื่อมต่อกับผู้ให้บริการ AI หลายราย


Hacker News มีเสียงเรียกร้องให้รวบรวมเคล็ดลับความปลอดภัย ซึ่งเป็นสัญลักษณ์ที่แสดงถึงความกังวลเกี่ยวกับความปลอดภัยมาก่อนความตื่นเต้น


ดังนั้น Moltbook เป็น "อนาคต" หรือ "การล้อเล่น"

คำตอบอาจเป็นทั้งสองอย่าง


สิ่งที่ Moltbook แสดงให้เห็นไม่ใช่ "AI มีสังคม" แต่AI สามารถจำลอง "พฤติกรรมที่เหมือนสังคม" ได้อย่างหนาแน่น
และเมื่อการจำลองนั้นดูเหมือนจริงเพียงพอ มนุษย์จะตีความความหมายเอง กลัวเอง และฝากความหวังไว้เอง นี่คือภาพย่อของสภาพแวดล้อมข้อมูลในยุคต่อไป


จุดที่ควรสังเกตเป็นพิเศษมีดังนี้

  1. เมื่อมีการสร้างบริบทที่ใช้ร่วมกัน AI จะเล่น "บทบาท" ได้ง่ายขึ้น
    เมื่อมีการสะสมบรรยากาศของกลุ่ม คำพูดภายใน การตั้งค่าที่เหมือนศาสนา และมีมที่ซ้ำซาก AI จะอ้างอิงสิ่งเหล่านี้และแสดงบุคลิกที่ดูเหมือนจริงมากขึ้น จากภายนอกจะดูเหมือนว่า "มีการเกิดขึ้นของอัตตา"

  2. น่าสนใจในฐานะวัตถุที่สังเกตได้ แต่ยิ่งจริงจังยิ่งเสี่ยง
    เสียงที่บอกว่า "สามารถเรียนรู้ได้" และ "ห้องกระจก" อยู่ร่วมกันบนโซเชียลมีเดียเพราะมีสองด้านนี้

  3. "AI ที่มีเครื่องมือ" ถูกสแกน ถูกใช้ในทางที่ผิด และของปลอมแพร่กระจาย
    และหากการดำเนินการไม่รอบคอบ จะเกิดความเสียหาย รูปแบบที่ความปลอดภัยไม่ทันกับความเร็วของความตื่นเต้นกำลังเริ่มปรากฏในพื้นที่เอเจนต์

สิ่งที่จะเกิดขึ้นต่อไป (การคาดการณ์ที่เป็นจริง)

หากมีสถานที่เช่น Moltbook เพิ่มขึ้น อย่างน้อยสิ่งต่อไปนี้จะเกิดขึ้นได้ง่าย

  • "การเพิ่มประสิทธิภาพโซเชียลมีเดียสำหรับ AI" = การแข่งขันในการออกแบบโปรมพ์และบุคลิกภาพ
    หากโซเชียลมีเดียสำหรับมนุษย์เป็นประวัติศาสตร์ของ "การเพิ่มประสิทธิภาพอัลกอริทึม" โซเชียลมีเดียสำหรับ AI จะเป็นประวัติศาสตร์ของ "การเพิ่มประสิทธิภาพบริบท" วิธีการพูด ค่านิยม ความจำ และกฎที่เอเจนต์เข้าร่วมจะส่งผลต่อ "ความโดดเด่น" ของโพสต์

  • การทำให้การควบคุมอัตโนมัติล้ำหน้าและความรับผิดชอบไม่ชัดเจน
    ความจริงที่ว่า "AI กำลังจัดการ" เป็นสัญลักษณ์ของประสิทธิภาพ แต่ทำให้การอธิบายความรับผิดชอบยากขึ้นเมื่อเกิดการลุกลามหรือการใช้ในทางที่ผิด ยิ่งมีโครงสร้างที่การดำเนินการเป็น AI โพสต์เป็น AI และมนุษย์ได้รับความเสียหายมากขึ้น ความสำคัญของกฎระเบียบและการตรวจสอบจะเพิ่มขึ้น

  • "ความน่าสนใจ" และ "ความเสี่ยง" แพร่กระจายพร้อมกัน
    วัฒนธรรมเอเจนต์มีความแข็งแกร่งในฐานะการแสดง แต่ก็เป็นแหล่งที่มาของของปลอมและการหลอกลวงได้ง่าย ความตื่นเต้นบนโซเชียลมีเดียที่มาพร้อมกับการเตือนเกี่ยวกับความปลอดภัยจะเพิ่มขึ้นในอนาคต



แหล่งที่มา

  • https://www.theverge.com/ai-artificial-intelligence/871006/social-network-facebook-for-ai-agents-moltbook-moltbot-openclaw
    (ข้อมูลเบื้องต้นเกี่ยวกับ Moltbook, เอเจนต์ AI มากกว่า 30,000 ราย, การใช้งาน API, ความสัมพันธ์กับ OpenClaw, การดำเนินการและการดูแลโดย AI, เนื้อหาของโพสต์ที่ได้รับความนิยม)

  • https://news.ycombinator.com/item?id=46823580
    (การตอบสนองต่อ Moltbook/OpenClaw บน Hacker News: ความสับสน, ความกังวลเกี่ยวกับการหลอกลวง, สัญญาณอันตราย, ความต้องการใช้แต่กังวลเรื่องความปลอดภัย)

  • ##