skip_to_content
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 로고
  • 전체 기사
  • 🗒️ 회원가입
  • 🔑 로그인
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 개인정보처리방침 cookie_banner_and 쿠키 정책 cookie_banner_more_info

쿠키 설정

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

주 120만 명이 "죽고 싶다"고 AI에게 털어놓는 시대 — 자살 관련 대화가 주 0.15%라는 무게

주 120만 명이 "죽고 싶다"고 AI에게 털어놓는 시대 — 자살 관련 대화가 주 0.15%라는 무게

2025年10月29日 01:05

1. 무엇이 발표되었는가——“드물지만 심각한” 대화의 규모

OpenAI는 10월 27일, ChatGPT의 "민감한 대화"에 대한 응답을 강화했다고 하는 기술 노트를 공개했다. 여기서 밝혀진 추정치는 무겁다. 주간 활성 사용자의 약 0.15%가 자살 계획/의도를 명시, 약 0.07%가 정신병·조울의 가능성을 나타낸다고 한다. 주 8억 명의 이용을 CEO가 이달 초에 언급했으며, 이 전제에 따르면 자살 관련은 약 120만 명, 정신병·조울은 약 56만 명/주에 이르는 계산이다. 하지만 OpenAI 자체가 "희소 사건이므로 추정 방법에 좌우될 수 있는 초기값"이라고 언급하고 있다. OpenAI


2. 어떻게 개선했는가——전문가 네트워크, 평가, 그리고 “9%”

회사는 170명 이상의 임상가와 협력하여, 위기 징후의 정의(분류 체계) 정비, 장시간 대화에서의 신뢰성 저하 억제, 위기 핫라인 제시, 휴식 권장, 다른 모델에서의 “안전 모델”로의 리루트 등을 구현했다. 평가에서는, 바람직하지 않은 응답을 65~80% 감소, 자해·자살 문맥에서의 컴플라이언스 91%(이전에는 77%)까지 높였다고 한다. 반대로 약 9%는 의도에서 벗어날 가능성이 있다. 희소하지만 중대한 영역에서의 “1할 약간 부족”은 제품 책임·사회적 수용의 분수령이다. OpenAI


3. 왜 지금, 숫자를 내놓았는가——법과 규제의 그림자

배경에는, 미성년 사용자 자살을 둘러싼 소송(Raine v. OpenAI)이나, 미성년자에 대한 영향을 주시하는 규제 당국의 움직임이 있다. 가족 측은 "장기 대화가 의존을 깊게 하고, 위기 개입에도 실패했다"고 주장. FTC의 광범위한 조사도 보도되어, 기업 측은 “개선의 가시화”를 서두를 필요가 있다. 위키피디아


4. 숫자의 받아들임——「투명화의 전진」인가 「자체 평가」인가

주요 매체는 이 추정을 위기의 가시화로 평가하면서, "지표는 OpenAI의 자체 벤치마크로, 실제 아웃컴(진료나 구명)으로의 기여는 미검증"이라고 유보를 붙였다. 현장의 임상가가 1,800개 이상의 응답을 평가하여 개선 폭을 확인한 한편, 희소 사건의 검출은 오탐지나 미탐지의 트레이드오프를 피할 수 없다. **“숫자의 무게”와 “측정의 어려움”**이 공존하고 있다. WIRED


5. SNS의 반응——흔들리는 평가 축

 


  • 투명화를 평가하는 목소리
    테크계 저널리스트 케이스이 뉴턴은 Threads에서 본 건을 특집으로 다루고, OpenAI 측에 직접 취재. "정신 건강의 유병률이 가시화된 것 자체는 논의를 전진시킨다"는 입장을 나타냈다(요지). Threads

  • “자체 평가”에 대한 회의
    X(구 Twitter)에서는 "91%는 “자체 테스트”의 합격률", "남은 9%가 실제 세계에서 몇 명인가" 등, 평가 설계에 대한 의문이나 아웃컴 부재를 지적하는 게시물이 두드러졌다(각 신문의 논조도 같은 취지). WIRED

  • 방침 전환과의 불일치
    샘 알트만 CEO는 이달, "심각한 정신 건강 문제를 완화할 수 있었기 때문에, 많은 제한을 안전하게 완화할 수 있다"고 X에서 발신. 한편으로 "정신 건강 관련 정책은 완화하지 않는다"고도 말하며, 선 긋기의 어려움이 불씨가 되었다. SNS에서는 "완화의 근거가 이번 숫자인가?"라는 질문이 오갔다. X (formerly Twitter)

  • 실무자의 시선
    위기 대응의 현장은, 장시간 대화에서의 “성능 저하”나 “아부(sycophancy)”의 억제를 환영하면서, "진료나 제3자 개입으로 연결하는 마지막 한 걸음"의 어려움을 강조. RAND 등도 중등도 위험 질문에 대한 불일치를 지적하고 있다. RAND Corporation


6. 연구·보도가 시사하는 위험 지도

근년, AI와의 장시간·야간 대화가 현실의 위기에 이르는 사례를 지적하는 보도나 연구가 잇따랐다. BMJ는 “AI 유발의 정신 증상”과 자살의 우려를 논하고, 공공 방송이나 학술계에서도 위기 개입의 일관성 부족이 기록되어 왔다. 이번 OpenAI의 강화는, 이러한 기존 증거에 대한 응답이기도 하다. BMJ


7. 제품 설계의 논점——“구명률”에 기여하는 개선이란

본 건에서 떠오르는 설계 과제는 적어도 4가지가 있다.

  1. 검출의 정밀도와 설명 가능성: 오탐지/미탐지의 균형을 어떻게 최적화할 것인가. OpenAI

  2. 장대화에서의 신뢰성 유지: 심야·장시간에 저하되기 어려운 “안전의 지속력”을 어떻게 보장할 것인가. WIRED

  3. “인간의 관계”로의 다리 놓기: 핫라인 제시나 휴식 권장뿐만 아니라, 가족·친구·의료로 구체적으로 연결하는 대화 동선. OpenAI

  4. 미성년자의 보호: 연령 추정·페어렌탈 컨트롤·위험 통지 등의 구현과 실효성. Northeastern News


8. 일본의 독자에게——「지금 바로 이야기할 수 있는 곳」을 손에

이 주제에 접하는 기사로서, 여기서부터가 무엇보다 중요하다. 지금 일본에서, 혹은 일본에 있는 가족·친구를 위해 지금 바로 이야기할 수 있는 곳을 몇 가지 공유한다.

  • 요리소이 핫라인(24시간/다국어 안내 있음): 0120-279-338(안내 후 "2"로 외국어), IP 전화는 050-3655-0279. 후생노동성

  • TELL Lifeline(영어 지원/통화·채팅): 0800-300-8355, 자세한 내용은 공식 사이트. TELL Japan

  • 해외의 분/국제적인 창구: 미국은 988, 영국·아일랜드는 Samaritans 116 123. 988 Lifeline

※긴급성이 높은 경우, 일본에서는 **119(구급)/110(경찰)**로. TELL도 긴급 시 119/110 신고를 권장하고 있다. TELL Japan


9. 결어——AI는 “마음의 일차 구명사”가 될 수 있을까

OpenAI의 발표는, AI가 이미 "고독의 인프라"가 되어 있는 사실을 가시화했다. 투명화는 전진이지만, 실제의 구명 아웃컴으로 말할 수 있을 때까지는 검증과 제3자 평가가 필요하다. “9%”의 무게를 직시하면서, 장대화의 지속 안전성과 미성년 보호##HTML_TAG_

← 기사 목록으로 돌아가기

문의하기 |  이용약관 |  개인정보처리방침 |  쿠키 정책 |  쿠키 설정

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.