skip_to_content
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 로고
  • 전체 기사
  • 🗒️ 회원가입
  • 🔑 로그인
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 개인정보처리방침 cookie_banner_and 쿠키 정책 cookie_banner_more_info

쿠키 설정

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

OpenAI가 ChatGPT의 방침을 재확인: "법률·의료 조언 금지"는 '새로운 규칙'이 아니었다 - 무엇이 변했고, 무엇이 변하지 않았는가

OpenAI가 ChatGPT의 방침을 재확인: "법률·의료 조언 금지"는 '새로운 규칙'이 아니었다 - 무엇이 변했고, 무엇이 변하지 않았는가

2025年11月16日 19:56

1. 무엇이 화제가 되었는가──「ChatGPT는 의료·법률 상담 금지?」라는 오해

2025년 11월 초, SNS에서 「ChatGPT가 의료·법률·금융 조언을 전면적으로 금지했다」는 게시물이 전 세계적으로 확산되었습니다. 그 계기 중 하나는 뉴스 사이트 등이 인용한 「챗봇은 앞으로 치료·법률·돈에 관한 구체적인 조언을 제공하지 않는다」는 보도나 게시물입니다.Khaleej Times+1

특히 바이럴된 것은 베팅 플랫폼 「Kalshi」가 X에 게시한 「ChatGPT는 더 이상 건강이나 법률 조언을 제공하지 않는다」는 메시지였습니다(그 후 삭제됨).The Verge

이로 인해,

  • 「병에 대해 상담해도 이제 아무것도 답해주지 않는 건가?」

  • 「계약서 검토나 세금 상담도 전혀 할 수 없게 되는 건가?」

  • 「AI 규제의 영향으로, ChatGPT가 “단순한 잡담 도구”로 격하된 건가?」

와 같은 불안과 추측이 일본을 포함한 전 세계 사용자들 사이에서 퍼졌습니다.


그러나 OpenAI의 공식 설명은 이와는 대조적입니다. NDTV Profit의 보도에 따르면, OpenAI는 「ChatGPT의 행동은 변하지 않았다」「법적·의료 조언에 관한 규칙은 이전부터 존재했으며, 이번에 새로 도입된 것이 아니다」라고 명확히 했습니다.NDTV Profit



2. OpenAI의 공식 설명:「모델의 행동은 변하지 않았다」

OpenAI의 헬스 AI 책임자인 Karan Singhal씨는 SNS에서 직접 이 소문을 부정했습니다. The Verge에 따르면, Singhal씨는 X에서 다음과 같이 게시하고 있습니다.The Verge


「사실이 아닙니다. 추측이 퍼지고 있지만, 이는 이용 약관의 새로운 변경이 아닙니다. 모델의 행동은 변하지 않았습니다. ChatGPT는 지금까지도 전문가의 대체가 아니었지만, 법률이나 건강 정보를 이해하는 데 뛰어난 리소스로 남아 있습니다」


포인트는 두 가지입니다.

  1. 「새로운 금지 사항」이 증가한 것은 아니다
    법률·의료·금융 등 “고위험 분야”에서 「개별 구체적인 조언」을 전문가의 개입 없이 수행하는 것은 금지라는 규칙 자체는 이전부터 존재했습니다.The Times of India+1

  2. 일반적인 정보 제공은 계속된다
    병명에 대한 일반적인 설명이나 법률·제도의 개요, 판례나 뉴스의 해설, 건강에 관한 일반적인 정보 제공 등, 「교육적인 정보」나 「이해를 돕기 위한 해설」은 이전과 다름없이 수행됩니다. OpenAI도 ChatGPT를 “Educational Tool(교육 도구)”로 위치시키고 있습니다.NDTV Profit+1


즉, 「전혀 답하지 않게 되었다」는 것이 아니라, 「원래 해서는 안 되는 것」을 다시 명문화하고, 「그 부분은 AI가 아닌 인간의 전문가에게 반드시 상담해 주기를 바란다」고 강조한 형태에 가깝다고 할 수 있습니다.



3. 10월 29일의 Usage Policy 개정으로 실제로 일어난 일

그렇다면, 2025년 10월 29일의 업데이트로 무엇이 바뀌었을까요. OpenAI는 공식 사이트의 Usage Policies(이용 정책)를 업데이트하고, 여러 문서로 나뉘어 있던 것을 통합했습니다.OpenAI+1


3-1. 정책 문서의 통합과 표현의 정리

이전에는,

  • 모든 사용자에게 공통되는 「유니버설 정책」

  • ChatGPT 전용의 정책

  • 개발자용 API의 정책

등, 용도별로 문서가 나뉘어 있었습니다. 이번 개정에서는, 이를 하나로 통합하여, 「OpenAI의 모든 서비스에 공통되는 Usage Policies」로 정리하고 있습니다.The Times of India


그 위에,

  • 「사람을 보호한다(Protect people)」

  • 「프라이버시를 존중한다(Respect privacy)」

와 같은 큰 기둥을 세우고, 그 안에 허용되지 않는 이용 예를 열거하는 스타일로 변경되었습니다.



3-2. 법률·의료 조언에 관한 구체적인 기술

Usage Policies의 「Protect people」 항목에는, 금지되는 행위 중 하나로 다음과 같은 문구가 있습니다.OpenAI

「면허가 필요한 분야(법률이나 의료 등)에서의 “개별 구체적인 조언(tailored advice)”을, 적절한 자격을 가진 전문가의 개입 없이 제공하는 것」


이는, 이전의 정책에 있었던,

「사람들의 안전·권리·복지를 크게 손상시킬 가능성이 있는 행위로서, 전문가에 의한 리뷰 없이, 법률·의료·금융에 관한 개별 조언을 제공하는 것을 금지한다」

라는 문구와 취지가 거의 같습니다.The Times of India+1

즉, 내용적으로는 「계속」이자 「표현의 정리」이며, 새로운 금지 항목이 갑자기 추가된 것은 아닙니다.



3-3. 고위험 분야에서의 자동화 제한

이번 정책에서는, 법률·의료·금융·주택·고용·보험 등 「사람의 생활에 큰 영향을 미치는 분야」에서, AI만으로 의사 결정을 자동화하는 것도 제한하고 있습니다.Khaleej Times+1


  • AI만으로 채용·해고를 판단하는 것

  • AI만으로 보험 지급 여부를 결정하는 것

  • AI만으로 치료 방침을 결정하는 것


와 같은 것은 모두 높은 리스크를 동반합니다. OpenAI는 이러한 용도에서는 반드시 인간 전문가의 리뷰나 의사 결정을 포함해야 한다고 합니다.



4. 왜 「법적·의료 조언」을 제한하는가

OpenAI가 법적·의료 조언에 신중한 데는 몇 가지 이유가 있습니다.


4-1. 정보의 오류·불완전성에 따른 리스크

생성 AI는, 그럴듯한 문장을 만드는 한편, 사실 오인(소위 「환각」)을 일으킬 가능성이 있습니다. 특히 의료와 법률은,

  • 약간의 사실 차이로 결론이 달라지는

  • 국가나 지역, 시기에 따라 규칙이 다른

  • 개인의 증상이나 사정에 따라 최적의 해결책이 달라지는

와 같은 특징이 있어, 「일반론」을 그대로 개인의 케이스에 적용하면 위험합니다.


예를 들어,

  • 병명이 같아도, 지병이나 복용 중인 약에 따라 안전한 치료법은 달라집니다.

  • 계약 문제도, 계약서의 조항이나 상대방과의 교섭의 세부 사항에 따라 취해야 할 행동이 달라집니다.

이러한 상황에서 AI가 잘못된 조언을 하고, 사용자가 이를 「전문가의 의견」으로 오해하면, 건강 피해나 법적 문제가 실제로 발생할 수 있습니다.

4-2. 책임의 소재가 모호해지기 쉽다

만약 AI의 조언을 믿고 행동한 결과, 중대한 손해가 발생한 경우, 「누가 책임을 질 것인가」라는 문제가 떠오릅니다.

  • AI를 제공한 기업인가

  • 모델을 이용한 개발자인가

  • AI의 조언을 채택한 사용자 본인인가

  • 아니면, AI 도입을 결정한 조직인가


현 시점에서는, 각국에서 논의가 계속되고 있으며, 명확한 규칙이 정비되지 않은 부분도 많습니다. OpenAI는, 이러한 「그레이존」에서 불필요하게 리스크를 증가시키지 않도록,고위험 분야에서의 “AI 단독 판단”을 피하는방향성을 제시하고 있습니다.



4-3. 전문직의 윤리 규범과의 정합성##

← 기사 목록으로 돌아가기

문의하기 |  이용약관 |  개인정보처리방침 |  쿠키 정책 |  쿠키 설정

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.