Ответственность за ошибки ИИ: кто реально несет риски?

Искусственный интеллект (ИИ) сегодня не просто анализирует данные – он принимает решения, которые напрямую влияют на ключевые бизнес-процессы: от найма сотрудников до кредитования и маркетинга. Ошибки ИИ могут привести к дискриминации, финансовым потерям, нарушению прав потребителей и репутационным рискам. Вопрос «Кто отвечает за эти ошибки?» стал ключевым для компаний.

Кто несет ответственность, если ИИ допустил ошибку?

По общему правилу, ответственность несет компания, предоставляющая конечный сервис, а не разработчик модели или владелец серверной инфраструктуры. Если бизнес интегрировал нейросеть, например, в процесс ценообразования или клиентский чат-бот, именно он отвечает перед пользователем за корректность результата.

Разработчики отвечают за дефекты кода и нарушения требований к качеству системы. Если ошибка вызвана техническим сбоем, претензии могут быть предъявлены разработчику.

Пользователи несут ответственность за неправильное применение ИИ, игнорирование ограничений и отсутствие контроля. Например, сотрудник использовал чат-бот для анализа персональных данных, нарушив внутренние правила, и данные утекли. Ответственность легла на сотрудника, а не на разработчиков.

Законодательство и ответственность 

Законодательство пока не закрепило конкретные правила, но новые акты, например EU AI Act, формируют роли и обязанности операторов высокорискованных систем:

  • использовать систему строго по инструкции поставщика;
  • назначать компетентный человеческий надзор;
  • гарантировать качество и релевантность входных данных;
  • мониторить работу системы и при любых значимых рисках приостанавливать ее работу;
  • сразу же уведомлять поставщика и регуляторы о сбоях;
  • сохранять детальные записи работы системы не менее 6 месяцев. 

Нарушение этих требований не только считается несоответствием, но и может стать прямым доказательством вины: при инциденте это существенно увеличивает ответственность компании, применившей ИИ без должного контроля.

Судебная практика

  1. Moffatt v. Air Canada. Клиент использовал чат‑бот авиакомпании для запроса информации о тарифе «bereavement fare». Чат‑бот сообщил, что после поездки можно получить компенсацию – клиент купил билеты, совершил перелет и подал заявку. Она была отклонена, а когда он обратился в суд, Air Canada пытались переложить вину на «чат‑бота». Суд подтвердил, что чат бот является частью сайта компании, и за всю предоставляемую информацию отвечает сама компания. Компания Air Canada была признана ответственной за компенсацию разницы в тарифе. 
  2. Walters v. OpenAI. Радио-ведущий подал иск против OpenAI, утверждая, что ChatGPT назвал его причастным к финансовым злоупотреблениям в организации Second Amendment Foundation. Суд пришел к выводу, что алгоритм предупредил о возможной неточности и не позволяет воспринимать ответы как полностью достоверные. Истец не доказал, что OpenAI действовал с халатностью или злым умыслом. Иск был отклонен. 
Это показывает, что предупреждения, контроль качества и информирование пользователей помогают защитить разработчиков в спорах о неточностях. Однако компании, публикующие ответы ИИ, остаются под риском, если не обеспечивают необходимый и достаточный надзор за их применением.

Что следует сделать

  • Разработать внутреннюю политику по использованию ИИ. Определить допустимые сценарии применения, запретить автономные решения без человеческого контроля.
  • Назначить ответственных лиц за управление ИИ и за контроль качества работы систем.
  • Проводить регулярное тестирование на точность и отсутствие предвзятости.
  • Обеспечить прозрачность. Маркировать контент, созданный ИИ, и информировать пользователей о его происхождении.
  • Закрепить распределение ответственности в договорах с поставщиками и интеграторами.
  • Проверить клиентские чат-боты и обеспечить их регулярный аудит. Настроить фильтры перевода диалога к сотруднику при сложных или критичных запросах и проверку корректности ответов.

Таким образом, ответственность за ошибки ИИ всегда лежит на людях и организациях, которые его создали, внедрили и используют. Чтобы снизить риски, бизнесу необходимо выстроить систему управления ИИ: от политики и процессов до договоров.

ИИ не освобождает от ответственности; напротив, он требует четкого контроля, прозрачности и выстроенной системы управления рисками.


Защитите свой бизнес от рисков ИИ вместе с REVERA

Ошибки ИИ неизбежны, но риски для компании можно минимизировать, выстроив прозрачные процессы, контроль качества и распределение ответственности. Эксперты REVERA помогут:

  • Разработать внутреннюю политику по использованию ИИ.
  • Закрепить ответственность в договорах с поставщиками и интеграторами.
  • Обеспечить соответствие новым требованиям законодательства, включая EU AI Act.

Не оставляйте риск на волю случая — свяжитесь с REVERA и защитите бизнес от юридических и репутационных угроз, связанных с применением ИИ.

 

Авторы: Дарья Гордей, Артем Хандрико.

Напишите нашему юристу, чтобы узнать подробности

Написать юристу