跳转到主要内容
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 标志
  • 全部文章
  • 🗒️ 注册
  • 🔑 登录
    • 日本語
    • English
    • Español
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 隐私政策 cookie_banner_and Cookie政策 cookie_banner_more_info

Cookie设置

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

OpenAI重新确认了ChatGPT的政策:“禁止法律和医疗建议”并不是“新规则”——什么发生了变化,什么没有改变

OpenAI重新确认了ChatGPT的政策:“禁止法律和医疗建议”并不是“新规则”——什么发生了变化,什么没有改变

2025年11月16日 19:52

1. 话题的起因──对“ChatGPT禁止医疗和法律咨询”的误解

2025年11月初,社交媒体上全球范围内传播着“ChatGPT全面禁止提供医疗、法律和金融建议”的帖子。起因之一是新闻网站等引用的报道或帖子称,“聊天机器人今后将不再提供治疗、法律和金钱方面的具体建议”。Khaleej Times+1

特别是博彩平台“Kalshi”在X上发布的“ChatGPT不再提供健康和法律建议”的信息(随后删除)引发了广泛传播。The Verge

因此,

  • “咨询疾病时,是否再也得不到任何答案?”

  • “合同检查和税务咨询也完全无法进行?”

  • “由于AI监管的影响,ChatGPT是否被降级为‘仅供闲聊的工具’?”

这样的担忧和猜测在包括日本在内的全球用户中蔓延开来。


然而,OpenAI的官方解释与此相反。据NDTV Profit报道,OpenAI明确表示,“ChatGPT的行为没有改变”,“关于法律和医疗建议的规则早已存在,并不是此次新引入的”。NDTV Profit



2. OpenAI的官方解释:“模型的行为没有改变”

OpenAI的健康AI负责人Karan Singhal在社交媒体上直接否认了这一传闻。据The Verge报道,Singhal在X上发布了以下内容。The Verge


“这不属实。尽管有猜测在传播,但这不是使用条款的新变更。模型的行为没有改变。ChatGPT从来不是专家的替代品,但仍然是理解法律和健康信息的优秀资源。”


有两个要点。

  1. “没有增加新的禁令”
    在法律、医疗、金融等“高风险领域”中,未经专家参与而提供“个别具体建议”是被禁止的,这一规则早已存在。The Times of India+1

  2. 一般信息的提供将继续
    例如疾病名称的一般解释、法律和制度的概述、判例和新闻的解读、健康方面的一般信息提供等,“教育性信息”或“帮助理解的解说”将继续进行。OpenAI也将ChatGPT定位为“教育工具”。NDTV Profit+1


换句话说,并不是“完全不再回答”,而是重新明确了“原本不该做的事情”,并强调“在这些方面一定要咨询人类专家”。



3. 10月29日使用政策更新中实际发生的事情

那么,在2025年10月29日的更新中发生了什么变化呢?OpenAI更新了其官方网站的使用政策,将多个分开的文档整合在一起。OpenAI+1


3-1. 政策文件的整合和表述的整理

以前,

  • 适用于所有用户的“通用政策”

  • ChatGPT专用的政策

  • 开发者API的政策

等,文档根据用途分开。这次的修订将这些文档整合为“适用于OpenAI所有服务的使用政策”。The Times of India


在此基础上,

  • “保护人们(Protect people)”

  • “尊重隐私(Respect privacy)”

等大原则被确立,并列举了不被允许的使用例。



3-2. 关于法律和医疗建议的具体描述

使用政策的“保护人们”部分中,作为禁止行为之一,有如下措辞。OpenAI

“在需要执照的领域(如法律和医疗)中,未经适当资格的专业人士参与而提供‘个别具体建议(tailored advice)’”


这与以前政策中所述的

“作为可能严重损害人们安全、权利、福利的行为,禁止未经专家审核而提供法律、医疗、金融方面的个别建议”

的措辞在主旨上几乎相同。The Times of India+1

也就是说,内容上是“延续”且“表述的整理”,并没有突然增加新的禁止项目。



3-3. 高风险领域中的自动化限制

此次政策中,在法律、医疗、金融、住房、就业、保险等“对人们生活有重大影响的领域”中,限制仅由AI自动化决策。Khaleej Times+1


  • 仅由AI判断招聘和解雇

  • 仅由AI决定保险支付与否

  • 仅由AI决定治疗方案


这些行为都伴随着高风险。OpenAI认为,在这些用途中,必须引入人类专家的审核和决策。



4. 为什么限制“法律和医疗建议”

OpenAI对法律和医疗建议持谨慎态度有几个原因。


4-1. 信息错误和不完整带来的风险

生成AI虽然能生成看似合理的文本,但也可能出现事实错误(即所谓的“幻觉”)。特别是在医疗和法律领域,

  • 细微的事实差异可能改变结论

  • 规则因国家、地区、时间而异

  • 最佳解决方案因个人症状和情况而异

这些特点使得将“普遍论”直接应用于个人案例是危险的。


例如,

  • 即使病名相同,因慢性病或正在服用的药物不同,安全的治疗方法也会改变。

  • 合同纠纷中,合同条款和与对方的细节交流会改变应采取的行动。

在这种情况下,如果AI提供错误的建议,用户误以为是“专家意见”,可能会导致健康损害或法律纠纷。

4-2. 责任归属容易模糊

如果因相信AI的建议而采取行动导致重大损失,“谁来负责”将成为问题。

  • 是提供AI的公司

  • 还是使用模型的开发者

  • 或是采用AI建议的用户本人

  • 亦或是决定引入AI的组织


目前,各国仍在讨论中,许多部分尚未有明确的规则。OpenAI在这样的“灰色地带”中,避免不必要地增加风险,在高风险领域避免“AI单独决策”的方向。



4-3. 与专业职业的伦理规范一致性

医生、律师、税务师等都有各自的职业伦理和法律义务。

  • 医生:医师法、医疗广告指南、诊疗说明义务等

  • 律师:律师法、律师职业基本规程、保密义务等


AI不承担这些“资格者的义务”,因此不能期望其达到同样的责任或伦理标准。OpenAI反复强调“ChatGPT不是专家的替代品”,背后有这样的现实。NDTV Profit+1



5. ChatGPT仍然有用:作为信息理解的“导航员”

那么,如果“个别建议”受到限制,ChatGPT是否就没有用了呢?OpenAI并不这样认为。关键在于正确定位其角色。


5-1. 将复杂信息“翻译得更易懂”

法律和医疗领域充满了专业术语和冗长的文档,普通人理解起来可能很困难。ChatGPT可以

##HTML_TAG_
← 返回文章列表

联系我们 |  服务条款 |  隐私政策 |  Cookie政策 |  Cookie设置

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.