5 главных рисков ИИ

В предыдущих главах мы говорили о пользе и возможностях ИИ. Но для подлинного мастерства необходимо понимать риски.

Знание рисков — не повод бояться ИИ. Это как изучить тормозную систему автомобиля: базовые знания для безопасного использования.

5 главных рисков ИИ: галлюцинации, авторские права, конфиденциальность, предвзятость, дипфейки

Галлюцинации — когда ИИ уверенно врёт

Галлюцинация (Hallucination) — когда ИИ генерирует ложную информацию, подавая её как достоверный факт. Это, пожалуй, главный риск использования ИИ.

Почему это происходит

ИИ работает по принципу «предсказать наиболее вероятное следующее слово». Он генерирует не «правду», а «правдоподобное». ИИ не проверяет факты — он сопоставляет паттерны.

Уровень галлюцинаций сильно различается между моделями. По бенчмаркам 2025 года, лучшая модель (Gemini 2.0 Flash) показывает 0,7%, тогда как некоторые модели допускают галлюцинации в ~30% случаев[2]. Прогресс есть, но до нуля далеко.

Реальные случаи

  • Вымышленные судебные прецеденты — американский адвокат подал в суд ссылки на несуществующие дела, найденные через ChatGPT (2023)
  • Несуществующие научные статьи — выдуманные название, авторы и содержание, выглядящие абсолютно достоверно
  • Ложная статистика — «объём рынка X составляет Y миллиардов» — цифры, далёкие от реальности
  • Юриспруденция — по данным Стэнфорда, в юридических запросах уровень галлюцинаций достигает 69–88%[2]

4 способа защиты

Защита от галлюцинаций: 4 шага — запрос источника, проверка, сравнение, ИИ-поиск

Особое внимание — к четырём категориям информации: статистика и числа, имена и названия, юридические нормы, последние новости. Всегда проверяйте по первоисточникам.

Практический совет: для исследовательских задач используйте ИИ с веб-поиском — Perplexity или Gemini. Они возвращают ответы со ссылками на источники, что упрощает проверку.

Проблемы авторских прав в сфере ИИ делятся на две: «Законно ли использование произведений для обучения ИИ?» и «Есть ли авторские права на то, что создал ИИ?»

Проблема 1: Обучающие данные и авторские права

ИИ-модели обучаются на огромных массивах интернет-контента (тексты, изображения, код). Правообладатели подают иски за использование их произведений без разрешения.

ИскСутьСтатус (2026)
NYT vs OpenAINew York Times подала иск за несанкционированное обучение на статьяхВ процессе
Getty vs Stability AIИск за использование фотографий в обученииВ процессе
Коллективные иски художниковПроизведения использовались для обучения ИИ без согласияНесколько дел

Проблема 2: Авторские права на результат работы ИИ

Вопрос, признаются ли авторские права на ИИ-контент, решается по-разному в разных странах:

  • Россия — вопрос на стадии обсуждения; в целом продукт ИИ без значительного творческого вклада человека не защищается авторским правом
  • США — Бюро авторских прав: «Произведения, созданные исключительно ИИ, не подлежат защите». При значительном участии человека — частичная защита возможна
  • ЕС — правила в стадии разработки

Что важно лично вам

  • При коммерческом использовании — обязательно читайте условия сервиса
  • Не указывайте имена конкретных художников при генерации изображений — «в стиле [имя]» может привести к проблемам
  • Проверяйте, не похож ли результат на существующие произведения
  • При необходимости указывайте, что контент создан с помощью ИИ

Конфиденциальность — что можно отправлять ИИ

В 2023 году сотрудники Samsung случайно ввели в ChatGPT конфиденциальный код, что стало громким скандалом. После этого многие компании разработали политики ввода данных в ИИ.

Данные, введённые в ИИ, могут использоваться для улучшения модели. Исходите из того, что введённое нельзя отменить.

Что можно и нельзя вводить в ИИ: 5 запретов и 5 разрешений

Меры защиты данных

МераОписание
Отключить историюВ ChatGPT и Claude можно отключить использование данных для обучения
Корпоративная версияEnterprise-тарифы гарантируют, что данные не используются для обучения
АнонимизацияЗаменяйте имена на «А», компании на «X» перед отправкой
Локальный запускЗапускайте модели с открытым кодом (Ollama и др.) на своём ПК

Простой критерий: спросите себя: «Будет ли проблемой, если эта информация станет публичной?» Если да — не вводите её в ИИ.

Предвзятость и дипфейки

Предвзятость ИИ — искажения в обучающих данных отражаются в результатах

Предвзятость ИИ — когда социальные стереотипы из обучающих данных воспроизводятся в ответах. ИИ выдаёт не «правильный ответ», а «ответ большинства».

  • Гендерные стереотипы — при генерации изображения «медсестры» появляются только женщины, «инженера» — только мужчины
  • Культурная предвзятость — тенденция к англоцентричным и западным ценностям
  • Подтверждающий сдвиг — мнение большинства усиливается, меньшинства — игнорируется

Защита: не принимайте ответы ИИ за истину; привыкните просить «рассмотри с другой стороны» или «покажи противоположное мнение». В важных решениях (найм, оценка персонала) никогда не делайте ИИ единственным источником.

Дипфейки — неотличимая подделка

Технологии ИИ для генерации реалистичных изображений, видео и голоса развиваются стремительно. Количество дипфейков в соцсетях выросло с 500 000 в 2023 году до 8 миллионов в 2025[3].

  • Голосовое мошенничество — клонирование голоса родственника или начальника для телефонного обмана. Достаточно нескольких секунд записи
  • Фейковые видео — поддельные видео с политиками и знаменитостями для манипуляции общественным мнением
  • Фейковые новости — массовое распространение правдоподобных, но ложных статей

Как защитить себя:

  • «Срочно переведи деньги» по телефону — перезвоните и уточните лично
  • Шокирующие фото/видео в соцсетях — проверьте источник
  • Относитесь с разумным скепсисом к любому контенту, который мог быть создан ИИ

Регулирование в мире — правила формируются

Для управления рисками ИИ страны ускоренно принимают законы.

РегионРегулированиеОсобенности
ЕСAI Act (принят в 2024)Риск-ориентированный подход. Строгие требования к ИИ высокого риска (найм, медицина, правосудие). Поэтапное вступление с 2025 года
РоссияНациональная стратегия развития ИИ до 2030Баланс между стимулированием развития и обеспечением безопасности. Добровольный Кодекс этики ИИ
СШАУказ президента по безопасности ИИЕдиного федерального закона пока нет. Регулирование на уровне штатов

Чек-лист безопасного использования ИИ

Понимание рисков — это половина дела. Вот конкретные действия для личного и корпоративного использования.

Чек-лист безопасности ИИ: 8 пунктов для личного и 8 для корпоративного использования

Для каждого пользователя

  1. Не доверяйте ответам слепо — важную информацию проверяйте по первоисточникам
  2. Не вводите конфиденциальные данные — критерий: «станет ли проблемой, если это станет публичным?»
  3. Перепроверяйте числа и имена — зона наибольшего риска галлюцинаций
  4. Учитывайте предвзятость — осознавайте возможную однобокость ответов
  5. Проверяйте авторские права — при коммерческом использовании читайте лицензию
  6. Указывайте использование ИИ — при необходимости
  7. Помните: ответственность — на вас — за последствия использования ИИ-контента отвечает пользователь

Для организаций

  1. Разработайте и распространите политику использования ИИ
  2. Проведите обучение сотрудников
  3. Создайте процедуру проверки ИИ-контента — человек проверяет перед публикацией
  4. Рассмотрите корпоративные тарифы — с гарантиями по работе с данными
  5. Подготовьте план реагирования на инциденты

Итог: риски ИИ — это не «страшно», а «нужно знать». Защита от галлюцинаций — проверка по источникам; защита конфиденциальности — тест «а если это станет публичным?». Эти две привычки помогут избежать большинства проблем.

Источники

  1. "Japan adopts first AI basic plan." The Japan Times, December 23, 2025.
  2. Vectara. "Hallucination Leaderboard." GitHub, 2025. / Stanford RegLab. "Legal Hallucination Study." 2025.
  3. Deepstrike. "Deepfake Statistics 2025." deepstrike.io, 2025.

Полезные ссылки:

  • EU AI Act Explorer — полный текст и комментарии к закону ЕС об ИИ

В следующей главе — последние тенденции ИИ: мультимодальный ИИ, ИИ-агенты, тренды 2025–2026.