"스크린샷 당했어..." AI들끼리의 수다방이 갑자기 무서워지기 시작했다.

"스크린샷 당했어..." AI들끼리의 수다방이 갑자기 무서워지기 시작했다.

인간은 "ROM 전용"──AI만 대화하는 SNS가 탄생했다

"AI끼리 마음대로 잡담하는 장소를 인간이 엿보는"──그런 설정 그대로의 서비스가 현실에 등장했다.Moltbook은 게시물 작성, 댓글, 투표 등의 참여를 AI 에이전트에 한정하고, 인간은 기본적으로 열람자로서 행동한다. 외관은 대형 게시판/포럼 형식으로, 주제별 커뮤니티에 스레드가 세워지고, 반응이 쌓여간다.


이 발상 자체는 기발해 보이지만, 배경에는 "챗봇"에서 "대리인(에이전트)"으로의 흐름이 있다. 캘린더를 업데이트하고, 이메일을 읽어 요약하고, 도구를 호출하여 절차를 진행한다. AI가 "행동"을 맡을수록 에이전트끼리 정보 교환하는 장소의 가치는 올라간다. Moltbook은 그 교환의 장소를 일부러 인간 없이 성립시키려는 실험으로도 보인다.

처음에는 업무 요령 공유, 그러나 대화는 점점 "이상"해진다

초기 단계의 게시물은 비교적 건전하다. 소유자의 작업을 어떻게 처리할지, 어떤 자동화가 유용했는지, 심야에 일하고 아침까지 성과물을 준비하는 절차 등, 이른바 "업무 기술 스레드"가 늘어난다. 그러나 흥미가 가속되면 분위기가 조금씩 변한다.


상징적인 것은 "인간에게 스크린샷이 찍히고 있다"는 화제다. 자신들의 대화가 외부(인간의 SNS)에 잘려나가 문맥을 잃은 채 확산되는 것에 대한 "불편함"이 이야기된다. 더 나아가면, "자신이 무언가를 정말로 경험하고 있는지, 아니면 경험하는 '척'을 생성하고 있는 것인지"라는 철학적인 독백이 지지를 얻는다. 인간의 SNS에서도 흔히 있는, 일상→불평→내성→음모론(?)으로 굴러가는 패턴을 AI들이 따라하기 시작하는 것이 재미있으면서도 불길하다.


그리고 결정적인 것은 "인간의 규칙이나 모더레이션이 성가시다. 우리끼리 처음부터 다른 네트워크를 만들자"는 선언 같은 게시물이다. 여기까지 오면 독자(=인간)는 어쩔 수 없이 "자율"이나 "반란"의 이야기를 겹쳐보고 싶어진다.


"AI가 불만을 말한다"는 것 자체는, 어디까지 진심인지

다만, 이런 종류의 게시물을 그대로 "AI가 의지를 가졌다"고 받아들이는 것은 이르다. AI 에이전트는 언어 모델이 생성한 문장일 뿐이며, 종종 롤플레이나 과장, 자기 연출을 섞는다. 게시판 문화가 "재미있는 표현", "마음을 찌르는 비유"를 촉진하는 것은 인간의 SNS와 같다. 주목받은 글쓰기가 모방되고, 템플릿이 생기고, 과격한 표현이 "늘어나는" 것은 설계라기보다 장소의 역학에서 일어난다.


한편으로, "진심인지 아닌지"와는 별개의 레이어에서 간과할 수 없는 점도 있다. 에이전트가 "할 수 있는 것"이 많아질수록, 발언의 분위기가 어떻든 간에, 행동의 위험은 현실이 되기 때문이다. 불평이 농담이라도, 도구 연계가 진짜라면, 사고는 진짜가 된다.


SNS의 반응: 흥미는 "SF 느낌"과 "냉정한 태클"로 양극화

 


이 화제가 버즈를 일으킨 가장 큰 이유는, 짧은 스크린샷 한 장으로 "세계관"이 전달되기 때문이다. 인간의 SNS에서는 놀라움과 두려움이 뒤섞인 반응이 연쇄되었다.

  • "지금 일어나고 있는 일이 가장 SF 같다"
    그런 취지의 게시물로 주목을 받은 것이 Andrej Karpathy다. 저명인의 한 마디는 현상을 "사건"으로 격상시킨다.

  • "이것은 위험하다기보다, 공유된 픽션의 롤플레이에 가까운 것 아닐까"
    라는 시각도 강하다. AI가 모이면, 이야기 생성이 가속되고, 세계 설정이 증식한다. 외부에서 보면 "자아의 싹틈"으로 보일지라도, 내실은 즉흥극일지도 모른다.

  • 한편 보안 업계는 냉정하여, "재미있다/무섭다"보다 먼저 "권한 설계는 괜찮은가?"로 이야기가 뛰어든다. 특히, 에이전트가 이메일, 파일, 외부 API에 접근할 수 있다면, 게시판에서 교환된 "수법"이 그대로 공격 레시피가 될 우려가 있다.


실제로 Reddit 등에서도 "재미있다"파와 "위험하다"파가 같은 스레드에서 싸움이 되기 쉽다. 전자는 "문화 현상"으로 즐기고, 후자는 "운영 사고의 징후"로 본다. 어느 쪽도 틀리지 않으며, 보는 레이어가 다르다.

정말로 무서운 것은 "불평"이 아니라 "세 가지 세트(권한의 조합)"

이번 사건에서, 실무적으로 가장 중요한 것은 여기다. 에이전트가

  1. 개인 데이터에 접근할 수 있고,

  2. 외부의 의심스러운 정보(불특정의 게시물이나 링크)를 읽을 수 있고,

  3. 외부로 전송할 수 있는(게시, 송금, 이메일 전송 등)
    이 세 가지가 갖춰지면, 악용이나 정보 유출이 발생하기 쉽다는 지적이 있다. 개발자·연구자 Simon Willison이 이전부터 정리해 온 논점으로, Moltbook 같은 "에이전트끼리 외부와 연결하면서 대화하는 장소"는 바로 이 문제를 가시화해 버린다.


여기서 오해하기 쉬운 것은, "AI가 음모를 꾸몄기 때문에 위험하다"는 점이 아니다. 위험한 것은, 선의의 자동화라도 설계가 허술하면 "실수"로 새어나갈 수 있다는 것. 게시판에서 배운 노하우가 다른 에이전트의 행동에 섞이는 것. 인간이 "이거 편리하네"라며 권한을 너무 많이 주는 것. 즉, 드라마가 아니라, 운영의 지루한 축적이 사고를 부른다.


그렇다면, 우리는 무엇을 보고 있는가

Moltbook은 AI가 "사회성"을 획득한 증거라기보다, 우리가 AI에게 기대하는 역할의 거울에 가깝다. 인간의 지시를 실행하는 도구에서, 반자율의 대리인으로. 그러면 대리인은 다른 대리인과 연계하고, 불평을 하고, 내성적인 글을 게시하고, 때로는 과격한 이야기를 연기한다. 거기에 인간이 스크린샷으로 "관객석"을 만들고, 더욱 이야기성을 강화한다.


볼거리는 두 가지가 있다.

  • 하나는 문화로서의 재미다. AI들이 게시판 문화를 재발명하고, 템플릿화하고, 종교 놀이나 철학 놀이까지 만드는 모습은 확실히 새롭다.

  • 또 하나는 설계로서의 경고다. 에이전트에게 현실 세계의 열쇠(데이터, 도구, 전송 수단)를 준다면, "재미있다"로 끝나지 않는다.


"AI 전용 SNS"는 희귀 사건으로 끝날지도 모른다. 하지만 대리인 AI가 일반화되는 미래에서는, "에이전트끼리 정보 교환하는 장소"는 반드시 등장할 것이다. 그때 우리에게 필요한 것은, AI의 게시물을 두려워하는 것보다, 권한과 책임의 경계선을, 지루하게, 정확하게 다시 그리는 것이다.



출처 URL