Великі страхові компанії б’ють на сполох: штучний інтелект стає надто непередбачуваним і небезпечним для страхового покриття. Такі лідери галузі, як AIG, Great American і WR Berkley, активно домагаються схвалення регуляторних органів, щоб виключити відповідальність, пов’язану з штучним інтелектом, із корпоративної політики, що свідчить про зростаючу кризу в управлінні ризиками штучного інтелекту в бізнесі.
Проблема чорної скриньки
Основною проблемою є непрозорість багатьох моделей ШІ. Страховики описують їх як «чорні ящики», тобто їхні процеси прийняття рішень важко або неможливо перевірити. Це створює величезну прогалину у відповідальності, оскільки страховики не можуть точно оцінити потенціал помилок або зловмисного використання. Фінансові наслідки таких помилок вже очевидні:
- Скандал із оглядом штучного інтелекту Google: у березні фальшиве звинувачення, створене штучним інтелектом Google, призвело до судового позову проти сонячної компанії на 110 мільйонів доларів.
- Помилка чат-бота Air Canada: Авіакомпанія була змушена врахувати сфальсифіковані знижки, надані власним чат-ботом.
- Шахрайство Arup: Цифрова копія CPA, використана у відеодзвінку deepfake для викрадення 25 мільйонів доларів у лондонської фірми.
Системний ризик: реальна загроза
Страховиків хвилюють не лише поодинокі випадки, а й побоюються системного колапсу. Один збій штучного інтелекту, який одночасно впливає на тисячі компаній, може спровокувати катастрофічні виплати. Керівник Aon пояснив, що збиток у 400 мільйонів доларів можна врегулювати, але масштабна «помилка штучного інтелекту агента», яка спричинила 10 000 одночасних вимог, призведе до банкрутства навіть найбільших страховиків.
Ця відсутність страхування створює спотворений стимул: компанії можуть бути менш обережними з ШІ, знаючи, що страховики не покриватимуть наслідки. Відсутність фінансового захисту може уповільнити впровадження ШІ або змусити компанії йти на ризики, на які вони не готові.
Майбутнє ризиків ШІ
Ця ситуація підкреслює критичну прогалину в поточному ландшафті ШІ. Оскільки штучний інтелект стає потужнішим і автономнішим, він також стає більш непередбачуваним. Доки не будуть запроваджені кращі гарантії та прозорість, страховики не бажають покривати відповідальність за штучний інтелект, роблячи підприємства вразливими до потенційно руйнівних збитків.
Виключення ризиків ШІ зі страхових полісів надсилає чіткий сигнал про те, що галузь вважає небезпеки занадто великими, щоб їх ігнорувати. Це може стати першим кроком до більш обережного, регульованого підходу до впровадження ШІ в корпоративному світі.


















































