AI 说“我赔你10万”——法院说不算数:全国首例 AI 幻觉侵权案拆解

全国首例因”AI幻觉”引发的侵权纠纷案,于2026年4月14日正式登上新闻头条。

案件经过说起来颇为荒诞:用户梁某向某AI平台查询高校报考信息,AI给出了一个根本不存在的”杨林校区”。梁某指出错误后,AI不但承认错了,还在对话中表示——“若您证明校区不存在,我将赔偿您10万元信息鉴定费”

梁某当真了。他去教育部官网和学校官网核实,AI的确在胡说。于是他把AI公司告上法庭,要求兑现那个”10万赔偿承诺”。

杭州互联网法院的判决是:驳回原告诉讼请求。理由很清晰:AI不具备民事主体资格,它说的”赔你10万”,法律上不构成任何意思表示,公司当然也不需要因此赔偿。

这个案子值得细聊,不只是因为结果有趣,更因为它把几个我们平时含糊带过的问题,逼到了台面上。


AI 幻觉是什么,为什么它不会消失

“AI幻觉”(Hallucination)这个词,指的是大语言模型在生成内容时,产生与实际事实不符的内容——但说出来的时候语气十足,完全不露怯。

理解它的关键是搞清楚模型的底层机制:大模型本质上是一个概率预测引擎,它做的事情是”根据前面的内容,预测下一个最可能出现的词”。这个设计很擅长写出流畅的句子,但它根本不知道自己说的是不是真的——它没有那个能力。

所以当你问它一个它”知道得不够确定”的问题,它不会说”我不知道”,而是会用最符合语料库概率分布的内容来填充答案——听起来像真的,但可能完全是编的。

这不是某个模型的bug,而是当前大多数模型的设计局限。2026年最新的幻觉率测试数据显示,表现最好的开源模型幻觉率在2%左右,而某些模型高达20%以上。即使是旗舰模型,在遇到细节性问题、引用数据、实体关系时,依然会”一本正经地瞎说”。

梁某遇到的那个场景——AI给出了一个不存在的校区——就是典型的事实性幻觉:模型根据”高校通常有多个校区”这个语料规律,生成了一个听起来合理但实际不存在的名字。


法院判了什么,背后的逻辑是什么

这个案子的判决有三个核心认定,每一条都值得单独理解:

第一,AI不具有民事主体资格。

民事主体,简单说就是能在法律意义上”做主”的实体——自然人、法人、非法人组织。AI不在其中。它在对话框里说的所有话,包括”我承诺赔偿你”,都不是法律意义上的意思表示,不产生合同效力。

第二,AI的”承诺”不等于公司的承诺。

即使AI是这家公司的产品,公司也没有”预设”让AI做出赔偿承诺。这相当于一个员工在没有授权的情况下,代公司签了一张支票——公司不需要认账。

第三,生成式AI提供的是”服务”,不是”产品”。

这一点涉及产品责任和服务责任的区别。依据《生成式人工智能服务管理暂行办法》,AI属于服务范畴,适用服务相关的责任框架,而非产品质量法。这意味着即使AI给出了错误信息,用户也很难像投诉一件缺陷商品那样直接要求赔偿。

从用户的角度看,这个判决像是”你只能自认倒霉”。但它的意义在于,它第一次在司法层面划出了AI的责任边界:AI说的话,不等于公司的承诺;用AI出了问题,不能直接套用产品责任逻辑。


幻觉没法完全消除,但你可以规避风险

判决无法改变的是:AI幻觉客观存在,而且在可见的未来不会消失。更实际的问题是,在日常使用中怎么保护自己。

第一,分清场景,区别对待。

AI在”发散性、创意性”场景下非常好用——头脑风暴、内容起草、草稿润色,出错了修改即可。但在”需要准确的事实”场景下要格外小心:高考报考信息、医疗建议、法律条文、财务数据——这些领域,AI答案只能作为线索,不能直接使用。

第二,要求AI”出示证据”。

一个实用的提示词技巧:要求AI在每个关键陈述后标注来源,或者直接说”如果你不确定,请说不确定,不要猜测”。给AI留退路,它就更容易承认局限,而不是硬撑着编一个答案。

第三,用另一个渠道交叉验证。

官方数据、政策法规、学术论文——永远去原始来源核实。AI 的答案是检索的起点,不是终点。梁某在这件事上其实做对了:他去教育部官网查了,只是后来没想明白告 AI 的意义。

第四,不要轻信AI的”承诺”。

这个案子给出了一个非常直接的教训:AI 的任何口头承诺,无论多么肯定,都没有法律约束力。它说会赔你钱,那只是概率引擎预测出来的一句话,不是合同。


与此同时:新规正在划定另一条线

就在这个案子宣判前几天,一件相关的事也在悄悄推进。

2026年4月10日,国家网信办等五部门联合公布了《人工智能拟人化互动服务管理暂行办法》,将于2026年7月15日起施行。

这个办法主要针对的是”情感陪伴型AI”——那种模拟人格、持续互动、提供情感支持的服务。它明确要求:

  • 必须告知用户正在与AI而非真人互动,不能隐瞒
  • 使用超过两小时,平台需主动提示
  • 发现用户过度依赖,需要弹窗警告
  • 禁止向未成年人提供虚拟亲属、虚拟伴侣类服务
  • 用户的交互数据,未经许可不得用于模型训练

和上面的判决对比着看,一个清晰的趋势正在形成:AI 的法律责任边界在收紧,对用户的保护也在逐步跟上。只是节奏不一样——法律的落地永远比技术的迭代慢一拍。


说到底,谁该负责?

这个案子的判决,让很多人觉得”用户白折腾了”。但它解决了一个更根本的问题:AI不是人,它说的话不是承诺,出了错不能直接按侵权起诉。

这个认定之所以重要,是因为它切断了一条想象中的责任路径——不能因为AI”保证”了什么,就要求公司兑现。真正的问题应该从另一个方向问:AI平台在多大程度上需要防止幻觉伤害用户?

这才是值得追问的方向,也是后续立法、司法实践需要继续填充的空间。

目前已经有一些迹象:《生成式人工智能服务管理暂行办法》要求平台告知生成内容的局限性;新出台的拟人化互动服务办法要求平台不能诱导用户依赖AI、不能以情感操纵换留存。这些都在往”平台不能甩锅给AI自行生成”的方向走。

但在这些规则真正落地之前,用户能做的还是那几件事:知道 AI 会幻觉,知道 AI 的话没有法律效力,重要信息自己去原始来源确认。

毕竟,法院不会因为 AI 说了什么就认账。你得自己心里有数。


相关阅读:

推荐文章

  • AI 说“我赔你10万”——法院说不算数:全国首例 AI 幻觉侵权案拆解

    全国首例因”AI幻觉”引发的侵权纠纷案,于2026年4月14日正式登上新闻头条。 案件经过说起来颇为荒诞:用户梁某向某AI平台查询高校报考信息,AI给出了一个根本不存在的&#8…

  • GPT-6 正式发布:土豆落地,五大变化直接影响你用 AI 的方式

    三周前,我写了那篇GPT-6 来了?”土豆”代号背后,那些还没人说清楚的事,当时所有信息还停留在爆料和推测阶段。今天,这颗”土豆”真的落地了。 2026…

  • DeepSeek V4核心架构曝光:万亿参数、百万上下文,这次还有华为

    4月上旬,AI圈被两条消息刷屏:Anthropic扔出了Claude Mythos这张王炸,Google开源了Gemma 4。但真正让我认真看完全部技术细节的,是DeepSeek V4架构论文的意外流…

  • Claude Mythos 来了,但你用不了——Anthropic 把最强模型锁进了保险柜

    2026年4月7日,Anthropic 发布了一个名叫 Claude Mythos Preview 的新模型。这个代号”卡皮巴拉”的家伙,在几乎所有主流评测上把前代旗舰 Cla…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

暗夜独行