了解AI的五大风险
前面的章节介绍了AI的便利性和应用方法。但要真正"用好"AI,正确理解风险是不可或缺的。
了解风险不是为了害怕AI,就像学开车要学"刹车的使用方法"一样,这是安全使用AI的基本知识。
幻觉 ― AI自信满满地撒谎
幻觉(Hallucination)是指AI将不基于事实的信息,以非常像真的方式堂而皇之地输出的现象。可以说是AI使用中最大的风险。
为什么会发生 ― 理解原理
AI的工作原理是"预测下一个最可能出现的词"。也就是说,它输出的不是"正确的事情",而是"看起来合理的事情"。AI并不会判断真伪。它不是在查词典,而是在做模式匹配。
不同模型的幻觉率差异很大。2025年的基准测试显示,最优秀的模型(Gemini 2.0 Flash)的幻觉率为0.7%,而某些模型接近30%[2]。虽然在持续改进,但不可能降为零。
实际发生过的案例
- 虚构判例 ― 美国一位律师将ChatGPT查到的判例提交法院,结果发现引用的判例根本不存在(2023年)
- 虚构论文 ― 生成看起来很真实但根本不存在的论文标题和作者
- 错误统计 ― 断言"某某市场规模是XX亿",但与实际数字相差甚远
- 法律领域 ― 斯坦福大学的调查显示,法律相关查询的幻觉率可达69-88%[2]
4个防御措施
特别需要注意的信息有4类:统计数据和数字、人名和专有名词、法律和税制、最新新闻。这些信息务必用一手信息源核实。
实用技巧:使用Perplexity或Gemini等与网络搜索联动的AI工具,可以获得附带来源链接的回答。重要的调研类任务使用这类搜索型AI是明智的做法。
版权 ― 能用吗?生成的东西归谁?
AI与版权的问题主要有两方面:"AI的训练可以使用版权作品吗?"和"AI生成的东西有版权吗?"
问题1:AI训练数据与版权
AI模型是用互联网上的大量内容(文章、图片、代码等)训练的。因为未经版权所有者许可就使用了作品,全球正在发生多起诉讼。
| 诉讼 | 概要 | 状态(截至2026年) |
|---|---|---|
| NYT vs OpenAI | 纽约时报起诉文章被擅自用于训练 | 审理中 |
| Getty vs Stability AI | 起诉照片被擅自用于训练 | 审理中 |
| 艺术家集体诉讼 | 画作被擅自用于图像生成AI训练 | 多起进行中 |
| 读卖、朝日、日经 vs Perplexity | 因擅自使用新闻文章索赔约66亿日元 | 2025年提诉 |
问题2:AI生成物的版权
AI生成的内容是否享有版权,各国的判断不同。
- 中国 ― 如果人类有创造性参与,AI辅助生成的作品可受保护。2023年北京互联网法院已有相关判例
- 美国 ― 版权局的立场是"纯AI生成的作品不享有版权"。如果有人类的创造性控制,部分内容可能获得保护
- 欧盟 ― AI生成物版权相关规则正在制定中
你需要注意的事项
- 商用时务必确认各服务的使用条款
- 图像生成时不要指定特定艺术家的名字("模仿某某风格"是版权纠纷的隐患)
- 检查AI的输出是否与已有版权作品相似
- 必要时标注为AI生成
隐私 ― 什么能输入什么不能输入
2023年,三星电子的员工将公司机密代码输入到ChatGPT中,引发了广泛关注。这一事件促使很多企业制定了AI信息输入政策。
输入到AI的数据可能被用于服务改进或模型训练。请以"一旦输入就无法撤回"为前提来使用。
数据保护的具体措施
| 措施 | 说明 |
|---|---|
| 关闭聊天记录 | ChatGPT和Claude都可以在设置中停止将对话数据用于训练 |
| 企业版 | 企业套餐保证数据不会被用于训练 |
| 信息匿名化 | 输入前将个人姓名改为"A先生",公司名改为"X公司" |
| 本地运行 | 用Ollama等工具在自己的电脑上运行开源模型 |
拿不准时的判断标准:问自己"这条信息如果被公开在互联网上会不会有问题?"如果答案是"会有问题",那就不应该输入到AI中。
偏见与深度伪造
AI偏见 ― 训练数据的偏差反映在输出中
AI偏见是指AI训练数据中包含的社会偏见直接反映在输出中的现象。AI输出的不是"正确答案",而是"训练数据中多数人的答案"。
- 性别偏见 ― 生成"护士"的图像时全是女性,"工程师"全是男性
- 文化偏见 ― 偏向英语圈和西方价值观的回答
- 确认偏见 ― 过度反映多数派意见,忽略少数派观点
对策:不要盲目接受AI的回答,养成指示"也考虑其他角度"、"也列出反对意见"的习惯。在招聘和绩效评估等重要决策中,尤其不要将AI的判断作为唯一依据。
深度伪造 ― 真假难辨的虚假信息
随着AI生成逼真图像、视频和音频技术的进步,深度伪造(AI制造的假媒体)的风险急剧增加。社交媒体上的深度伪造内容从2023年的50万个增长到2025年的800万个[3]。
- 语音克隆诈骗 ― 用AI模仿家人或上司的声音进行电话诈骗。只需几秒钟的语音样本就能克隆
- 伪造视频 ― 名人或政治人物的假视频用于操纵舆论或冒充身份
- 虚假新闻 ― AI生成的看似可信的新闻文章大量传播
保护自己的要点:
- 接到"赶快转账"之类的紧急电话时,用其他方式确认对方身份
- 在社交媒体上看到震惊的图片或视频时,先确认来源
- 对可能是AI生成的内容保持一定的怀疑态度
全球监管动态 ― 规则制定已经开始
为应对AI的风险,各国正在加速推进立法工作。
| 地区 | 法规 | 特点 |
|---|---|---|
| 欧盟 | AI法案(2024年通过) | 基于风险等级的监管。对高风险AI(招聘、医疗、司法)设定严格标准。2025年起分阶段实施 |
| 中国 | 《生成式人工智能服务管理暂行办法》等 | 多部AI相关法规已实施。强调算法备案、安全评估和内容审核 |
| 美国 | AI安全相关行政令 | 联邦层面的综合性法律尚未出台。各州层面正在推进监管 |
全球范围内,AI监管正在加速推进。各国都在努力在促进创新和确保安全之间寻找平衡[1]。
AI使用安全清单
理解风险后,具体该怎么做?以下是个人和组织各自的检查清单。
个人层面
- 不盲目相信输出 ― 重要信息必须用一手信息源验证
- 不输入机密信息 ― 以"公开了也不会有问题吗"来判断
- 核实数字和专有名词 ― 这是幻觉最容易出现的领域
- 注意偏见 ― 意识到AI输出可能存在偏差
- 确认版权 ― 商用时必须检查使用条款
- 适当标注AI使用 ― 在报告和文章中披露AI使用情况
- 最终责任在自己 ― 使用AI输出的结果由使用者负责
组织层面
- 制定和宣贯AI使用政策 ― 明确在什么业务中可以输入什么信息
- 实施员工培训 ― 培训AI的正确使用方法和风险
- 建立AI生成物审核流程 ― 发布前由人工确认的机制
- 考虑使用企业版 ― 企业版提供更全面的数据保护
- 建立事故应对机制 ― 预先制定出现问题时的应对流程
总结:AI的风险不是"可怕的",而是"应该了解的"。幻觉对策的基础是核实验证,隐私对策的基础是"公开了也不会有问题吗"测试。养成这两个习惯,大多数风险都可以规避。
参考文献
- "Japan adopts first AI basic plan." The Japan Times, December 23, 2025.
- Vectara. "Hallucination Leaderboard." GitHub, 2025. / Stanford RegLab. "Legal Hallucination Study." 2025.
- Deepstrike. "Deepfake Statistics 2025." deepstrike.io, 2025.
相关链接:
- EU AI Act Explorer ― 欧盟AI法规全文与解读
下一章将解读AI的最新动态 ―― 多模态AI、AI代理、2025-2026年的趋势。