了解AI的五大风险

前面的章节介绍了AI的便利性和应用方法。但要真正"用好"AI,正确理解风险是不可或缺的。

了解风险不是为了害怕AI,就像学开车要学"刹车的使用方法"一样,这是安全使用AI的基本知识

AI使用的五大风险:幻觉、版权、隐私、偏见、深度伪造图解

幻觉 ― AI自信满满地撒谎

幻觉(Hallucination)是指AI将不基于事实的信息,以非常像真的方式堂而皇之地输出的现象。可以说是AI使用中最大的风险。

为什么会发生 ― 理解原理

AI的工作原理是"预测下一个最可能出现的词"。也就是说,它输出的不是"正确的事情",而是"看起来合理的事情"。AI并不会判断真伪。它不是在查词典,而是在做模式匹配。

不同模型的幻觉率差异很大。2025年的基准测试显示,最优秀的模型(Gemini 2.0 Flash)的幻觉率为0.7%,而某些模型接近30%[2]。虽然在持续改进,但不可能降为零。

实际发生过的案例

  • 虚构判例 ― 美国一位律师将ChatGPT查到的判例提交法院,结果发现引用的判例根本不存在(2023年)
  • 虚构论文 ― 生成看起来很真实但根本不存在的论文标题和作者
  • 错误统计 ― 断言"某某市场规模是XX亿",但与实际数字相差甚远
  • 法律领域 ― 斯坦福大学的调查显示,法律相关查询的幻觉率可达69-88%[2]

4个防御措施

幻觉对策4步骤:要求出处、用一手资料核实、多个AI对比、使用搜索AI

特别需要注意的信息有4类:统计数据和数字人名和专有名词法律和税制最新新闻。这些信息务必用一手信息源核实。

实用技巧:使用Perplexity或Gemini等与网络搜索联动的AI工具,可以获得附带来源链接的回答。重要的调研类任务使用这类搜索型AI是明智的做法。

AI与版权的问题主要有两方面:"AI的训练可以使用版权作品吗?"和"AI生成的东西有版权吗?"

问题1:AI训练数据与版权

AI模型是用互联网上的大量内容(文章、图片、代码等)训练的。因为未经版权所有者许可就使用了作品,全球正在发生多起诉讼。

诉讼概要状态(截至2026年)
NYT vs OpenAI纽约时报起诉文章被擅自用于训练审理中
Getty vs Stability AI起诉照片被擅自用于训练审理中
艺术家集体诉讼画作被擅自用于图像生成AI训练多起进行中
读卖、朝日、日经 vs Perplexity因擅自使用新闻文章索赔约66亿日元2025年提诉

问题2:AI生成物的版权

AI生成的内容是否享有版权,各国的判断不同。

  • 中国 ― 如果人类有创造性参与,AI辅助生成的作品可受保护。2023年北京互联网法院已有相关判例
  • 美国 ― 版权局的立场是"纯AI生成的作品不享有版权"。如果有人类的创造性控制,部分内容可能获得保护
  • 欧盟 ― AI生成物版权相关规则正在制定中

你需要注意的事项

  • 商用时务必确认各服务的使用条款
  • 图像生成时不要指定特定艺术家的名字("模仿某某风格"是版权纠纷的隐患)
  • 检查AI的输出是否与已有版权作品相似
  • 必要时标注为AI生成

隐私 ― 什么能输入什么不能输入

2023年,三星电子的员工将公司机密代码输入到ChatGPT中,引发了广泛关注。这一事件促使很多企业制定了AI信息输入政策。

输入到AI的数据可能被用于服务改进或模型训练。请以"一旦输入就无法撤回"为前提来使用。

可以输入AI和不可以输入AI的内容。禁止5项和允许5项的对比图

数据保护的具体措施

措施说明
关闭聊天记录ChatGPT和Claude都可以在设置中停止将对话数据用于训练
企业版企业套餐保证数据不会被用于训练
信息匿名化输入前将个人姓名改为"A先生",公司名改为"X公司"
本地运行用Ollama等工具在自己的电脑上运行开源模型

拿不准时的判断标准:问自己"这条信息如果被公开在互联网上会不会有问题?"如果答案是"会有问题",那就不应该输入到AI中。

偏见与深度伪造

AI偏见 ― 训练数据的偏差反映在输出中

AI偏见是指AI训练数据中包含的社会偏见直接反映在输出中的现象。AI输出的不是"正确答案",而是"训练数据中多数人的答案"。

  • 性别偏见 ― 生成"护士"的图像时全是女性,"工程师"全是男性
  • 文化偏见 ― 偏向英语圈和西方价值观的回答
  • 确认偏见 ― 过度反映多数派意见,忽略少数派观点

对策:不要盲目接受AI的回答,养成指示"也考虑其他角度"、"也列出反对意见"的习惯。在招聘和绩效评估等重要决策中,尤其不要将AI的判断作为唯一依据。

深度伪造 ― 真假难辨的虚假信息

随着AI生成逼真图像、视频和音频技术的进步,深度伪造(AI制造的假媒体)的风险急剧增加。社交媒体上的深度伪造内容从2023年的50万个增长到2025年的800万个[3]

  • 语音克隆诈骗 ― 用AI模仿家人或上司的声音进行电话诈骗。只需几秒钟的语音样本就能克隆
  • 伪造视频 ― 名人或政治人物的假视频用于操纵舆论或冒充身份
  • 虚假新闻 ― AI生成的看似可信的新闻文章大量传播

保护自己的要点:

  • 接到"赶快转账"之类的紧急电话时,用其他方式确认对方身份
  • 在社交媒体上看到震惊的图片或视频时,先确认来源
  • 对可能是AI生成的内容保持一定的怀疑态度

全球监管动态 ― 规则制定已经开始

为应对AI的风险,各国正在加速推进立法工作。

地区法规特点
欧盟AI法案(2024年通过)基于风险等级的监管。对高风险AI(招聘、医疗、司法)设定严格标准。2025年起分阶段实施
中国《生成式人工智能服务管理暂行办法》等多部AI相关法规已实施。强调算法备案、安全评估和内容审核
美国AI安全相关行政令联邦层面的综合性法律尚未出台。各州层面正在推进监管

全球范围内,AI监管正在加速推进。各国都在努力在促进创新和确保安全之间寻找平衡[1]

AI使用安全清单

理解风险后,具体该怎么做?以下是个人和组织各自的检查清单。

AI使用安全清单。个人8项和组织8项

个人层面

  1. 不盲目相信输出 ― 重要信息必须用一手信息源验证
  2. 不输入机密信息 ― 以"公开了也不会有问题吗"来判断
  3. 核实数字和专有名词 ― 这是幻觉最容易出现的领域
  4. 注意偏见 ― 意识到AI输出可能存在偏差
  5. 确认版权 ― 商用时必须检查使用条款
  6. 适当标注AI使用 ― 在报告和文章中披露AI使用情况
  7. 最终责任在自己 ― 使用AI输出的结果由使用者负责

组织层面

  1. 制定和宣贯AI使用政策 ― 明确在什么业务中可以输入什么信息
  2. 实施员工培训 ― 培训AI的正确使用方法和风险
  3. 建立AI生成物审核流程 ― 发布前由人工确认的机制
  4. 考虑使用企业版 ― 企业版提供更全面的数据保护
  5. 建立事故应对机制 ― 预先制定出现问题时的应对流程

总结:AI的风险不是"可怕的",而是"应该了解的"。幻觉对策的基础是核实验证,隐私对策的基础是"公开了也不会有问题吗"测试。养成这两个习惯,大多数风险都可以规避。

参考文献

  1. "Japan adopts first AI basic plan." The Japan Times, December 23, 2025.
  2. Vectara. "Hallucination Leaderboard." GitHub, 2025. / Stanford RegLab. "Legal Hallucination Study." 2025.
  3. Deepstrike. "Deepfake Statistics 2025." deepstrike.io, 2025.

相关链接:

下一章将解读AI的最新动态 ―― 多模态AI、AI代理、2025-2026年的趋势