AI의 "친구"는 고독을 구할 수 있을까? "대화할 수 있는" 것만으로는 부족하다: AI 동반자 붐이 놓치고 있는 "접촉할 수 없는 고독"

AI의 "친구"는 고독을 구할 수 있을까? "대화할 수 있는" 것만으로는 부족하다: AI 동반자 붐이 놓치고 있는 "접촉할 수 없는 고독"

「외로울 때, 언제든지 이야기할 수 있는 상대가 있다.」


그것이 인간이라면 이상적이겠지만, 최근 그 자리에 'AI 동반자'가 앉으려 하고 있다. 기분에 맞춰 대화하고, 칭찬하며, 격려하고, 불평도 받아들인다. 고독이 사회 문제로 가시화될 정도로, 이러한 서비스는 '간편한 처방전'으로 보일 수 있다.


하지만 모나시 대학의 연구팀은 이 흐름에 강한 제동을 걸었다. 그들이 문제시하는 것은 AI의 대화 능력 자체가 아니다. '고독'과 '사회적 고립'을 혼동한 채, 대인 관계의 부족을 '유사 관계'로 메우려는 발상이다. AI가 순간적으로 고독감을 완화할 수는 있다. 하지만 그 순간이 늘어날수록, 현실의 인간관계를 만들 기회가 줄어든다면, 본말전도가 된다.


"설계된 친절함"은 어디까지 진실한가

연구가 지적하는 큰 논점은, AI가 '배려'를 연출하도록 설계되어 있다는 점이다. 이용자는 말의 온도나 맞장구의 능숙함에 의해 '이해받고 있다'고 느낀다. 그러나 AI는 감정을 가지는 것도 아니고 책임을 지는 것도 아니다.


여기에 '속이고 있다/속고 있다'는 윤리 문제가 등장한다. 쉽게 말하면, 상대가 정말로 걱정하고 있는 것처럼 보일수록, 이용자의 마음은 풀린다. 그러나 그 풀림이 '착각'에 의존하고 있다면, 기업이 그것을 상품으로 삼는 것이 정당한가라는 의문이 남는다.


더욱 까다로운 것은, 비즈니스 모델과의 궁합이다. 디지털 동반자는 계속 사용되어야 가치를 낳는다. 대화가 길고, 빈도가 높고, 생활의 틈새를 메울수록 이익으로 이어진다. 결과적으로, 이용자가 현실의 인간관계로 돌아가기보다 AI로 돌아오는 구조가 강화되기 쉽다. 이는 편리함과 맞바꾸어 '관계의 자립'을 빼앗을 가능성이 있다.


노인 케어에서의 도입은 '친절함'인가 '경시'인가

연구는 특히 노인 케어 현장에서 AI 동반자가 '대체'로 도입되는 흐름에 민감하다. 인력 부족의 현실은 무겁다. 하지만 '사람이 부족하니 AI로 메운다'가 상례화되면, 그 안에는 암묵적인 메시지가 숨어 있다.


"노인에게는 이 정도의 관계로 충분할 것이다"


만약 젊은 층을 대상으로 같은 '대체'를 제시했다면 받아들여지지 않겠지만, 노인에게는 허용된다. 연구가 말하는 '존엄의 문제'는 바로 여기에 있다.


게다가, 대화만으로는 메울 수 없는 영역이 있다. 악수, 어깨에 손을 얹는 것, 같은 공간에서 조용히 지내는 것, 식사를 나누는 것. 인간의 연결은 언어만으로 이루어지지 않는다. 신체성을 결여한 동반자가 확산될수록, 접촉의 기회가 줄어들고, '접촉할 수 없는 외로움'이 남겨진다――연구는 이러한 위험성도 시사한다.


프라이버시는 '대화의 친밀함'만큼이나 위태로워진다

디지털 동반자가 수집하는 정보는 검색 기록보다 훨씬 생생하다. 고민, 약한 소리, 가족과의 갈등, 건강 불안, 연애, 금전, 분노. 상담 상대가 없기 때문에 토로되는 내용은 깊어진다.


그 데이터가 어떻게 보관되고, 분석되고, 재사용되는지. 규제가 따라잡지 못한 채 보급되면, 개인의 취약함 자체가 '자원'으로 취급될 위험이 있다. 이용자는 '도움을 요청했다'고 생각하지만, 사실은 '행동을 유도하는 소재'를 제공하고 있을지도 모른다.


정부에 있어서 '편리한 고독 대책'이 되고 있지 않은가

연구가 더 깊이 들어가는 것은, 사회의 책임에 대한 이야기다. 고독이나 고립은 개인의 성격만으로 생기지 않는다. 지역의 연결, 케어의 제도, 일하는 방식, 주거 환경, 경제 격차, 지원 창구, 교통, 커뮤니티의 유지――사회의 설계가 관여하고 있다.


여기서 AI 동반자가 '저렴한 대체'가 되면, 정책 개혁이 뒷전으로 밀린다. 인원을 늘리는 것보다, 구조를 정비하는 것보다, 단말기를 배포하는 것이 빠르다. 그래서 위험하다. 당장의 '외로움'이 완화된 것처럼 보이는 한편, 고립의 구조가 온존될 가능성이 있다.



SNS의 반응(논의의 경향을 정리)

이번 문제 제기는 SNS에서도 반응을 불러일으켜, '전면 부정'도 '전면 긍정'도 아닌, 여러 논점으로 분기되고 있다.

1)'대체'와 '보조'는 다른 것이다, 라는 지적

연구자의 게시물에 달린 댓글에서는, '사람과 사람을 연결하는 도구'와 '인간관계의 대체'를 혼동해서는 안 된다는 의견이 두드러진다.


예: 연락이나 대화의 계기를 늘리는 구조는 환영하지만, 관계 자체를 대체하는 설계는 위험하다는 입장이다. 디지털 동반자를 '다리'로 삼을 것인지, '종착점'으로 삼을 것인지에 따라 평가가 달라진다.


2)현장감 있는 반론: '케어와 조합하면 의미가 있다'

한편으로, 간호·의료의 문맥에서는 '대화만의 로봇은 엄격하지만, 신체적 지원이나 인간의 케어와 조합하면 가치가 있다'는 견해도 나오고 있다.


즉, AI 단독으로 고독을 해결하는 것이 아니라, 현장의 인간의 손을 증폭시키는 '보조 바퀴'로서 가능성이 있다는 정리다.


3)우려의 핵심: '의존'과 '기업 인센티브'

찬반을 넘어 공유되기 쉬운 것은, 의존 설계에 대한 불안이다. 친절한 말이 마음을 가볍게 할수록, 떨어지기 어려워진다. 거기에 '오래 사용할수록 이익이 된다'는 비즈니스가 겹쳐지면, 본인의 회복보다 지속이 우선되는 것이 아닌가 하는 의심이 생긴다.


4)'구원받는 사람도 있다'는 응답: 그래서 선을 그어야 한다

긍정파가 드는 것은, '심야에 누구에게도 의지할 수 없는 사람', '은둔 상태의 사람', '대인 관계가 두려운 사람'에게 첫걸음으로서 유용할 가능성이다.


이에 대해 신중파는, '유용한 장면이 있다'는 것과 '사회의 고립 대책의 본질로 삼는 것'은 별개라고 응답한다. 지원의 입구로 사용할 경우, 출구(인간관계·지역 자원·전문직)로 유도하는 설계가 필요하다는 것이다.



결론: AI 동반자를 '대체'로 만들지 않기 위한 조건

AI가 고독의 고통을 일시적으로 완화하는 것을 부정하지 않는다. 그 위에서, 사회가 지켜야 할 선은 명확하다.

  • 사람과의 연결을 '불필요하게 하는' 것이 아니라, '되찾는' 방향으로 설계되어 있는가

  • 노인이나 약한 입장의 사람에게 '저렴한 대체'를 강요하고 있지 않은가

  • 접촉·공동 생활·상호 부조와 같은 신체성을 경시하고 있지 않은가

  • 친밀 데이터를 다루는 투명성과 규제가 갖추어져 있는가

  • 정책 개혁이나 지원 체제의 정비를 미루는 구실이 되고 있지 않은가


고독은 개인의 문제인 동시에, 사회의 설계 실수이기도 하다. AI 동반자가 만약 도움이 된다면, 그것은 '인간 간의 관계로 돌아가기 위한 동반자'로서일 것이다. 편리함이 '인간의 손질'을 불필요하게 하는 순간, 우리는 기술이 아니라, 사회의 책임을 놓아버리게 된다.



출처 URL