
Три крупные страховые компании в США обратились к регуляторам с просьбой разрешить исключать риски, связанные с ИИ, из полисов. В отрасли привыкли работать с прогнозируемыми угрозами, где можно заранее рассчитать возможный ущерб. С алгоритмами такой подход не работает: постоянно появляются новые модели, методы генерации данных и сценарии, которые сложно заранее учесть. Именно высокая степень неопределенности и побуждает компании ограничивать свою ответственность.
Запросы подали AIG, Great American и WR Berkley. Каждая из них опасается крупных исков, если клиент пострадает из-за ошибки системы, встроенной в оборудование, корпоративные сервисы или массовые продукты. Страховщики понимают, что ИИ активно интегрируют в процессы без глубокого тестирования, а последствия сбоя могут затронуть цепочки поставок, базы данных или вычислительные сервисы. Мельчайшая ошибка модели может поставить под откос производственные процессы, привести к финансовым потерям или вызвать утечку данных, что делает риски трудно предсказуемыми.

Особое беспокойство вызывает сегмент киберстрахования. Современные генеративные модели помогают злоумышленникам создавать вредоносный код, который изменяется при каждом запуске, усложняя обнаружение. Некоторые системы автоматически перебирают варианты, ищут уязвимости и возможность адаптировать атаки в реальном времени. Одновременно сами компании повышают собственную уязвимость, внедряя ИИ-сервисы в инфраструктуру без достаточной проверки совместимости с облачными сервисами, API и внутренними сетями. Эксперты отмечают, что многие модели функционируют как «черный ящик»: параметры достигают десятков млрд, а веса динамически меняются в процессе обучения, что затрудняет оценку последствий возможного сбоя.
Часть страховщиков готова покрывать риски только тех продуктов, где ИИ встроен в строго определенное ПО с фиксированным набором функций. Крупные языковые модели при этом полностью исключают из покрытия из-за их высокой непредсказуемости.
Подобные системы генерируют ответы в режиме реального времени, опираются на вероятностные вычисления и сложные матричные операции, поэтому их поведение невозможно гарантированно контролировать. Ошибка в обработке входных данных может привести к неверным расчетам или утечке конфиденциальной информации, а определить точную причину часто невозможно из-за отсутствия прозрачности в архитектуре.

Пока разработчики продвигают идею о том, что ИИ станет ключевым драйвером роста, страховщики опираются на статистику реальных инцидентов. Для них важнее четкие рамки ответственности, чем амбициозные обещания. Пока эти фреймы не сформированы, компании предпочитают заранее ограничивать риски, чтобы не покрывать ущерб от систем, которыми они не могут управлять.
Страховая отрасль не отвергает ИИ, но требует понятных правил и прозрачности. Специалисты хотят понимать, какие данные использовались при обучении, как устроена модель, как она реагирует на внештатные ситуации и есть ли какие-то механизмы безопасного завершения работы. Без этих условий страхование ИИ-рисков остается слишком опасным.
Ранее мы писали о том, как двукратный рост страховых взносов повлияет на ИТ-отрасль России.

