Na liście firm, które otwarcie domagają się twardych wyłączeń odpowiedzialności, znajdują się m.in. AIG, Great American oraz WR Berkley. Ubezpieczyciele argumentują, że współczesne modele generatywnej AI działają jak „czarne skrzynki”, w których nie da się wiarygodnie oszacować prawdopodobieństwa szkód. Ich obawy podsycają głośne przypadki, takie jak błąd systemu AI w jednej z usług Google, który doprowadził do roszczeń sięgających nawet 210 mln dolarów.

Szczególnie dotkliwy dla branży był też werdykt kanadyjskiego sądu w sprawie Air Canada, zmuszonej do respektowania „zniżki”, którą samodzielnie wymyślił firmowy chatbot. W Londynie natomiast głośno było o oszustwie w firmie Arup, gdzie dzięki technologii deepfake wyłudzono 25 mln dolarów w trakcie fałszywej wideokonferencji.

Dla ubezpieczycieli prawdziwym koszmarem nie są jednak pojedyncze wypłaty, lecz ryzyko systemowej katastrofy. Jeden wadliwy, powszechnie wdrożony model może wygenerować tysiące pozwów jednocześnie.

Jak ostrzegają menedżerowie rynku reasekuracji na łamach „FT”, z jedną stratą rzędu kilkuset milionów dolarów da się jeszcze żyć – z falą tysięcy jednoczesnych roszczeń już nie.

W odpowiedzi WR Berkley zaproponował klauzule wyłączające odpowiedzialność za „jakiekolwiek rzeczywiste lub domniemane użycie AI”. Dotyczy to nie tylko treści generowanych przez algorytmy, lecz także nadzoru nad systemami, wykrywania deepfake’ów oraz kosztów postępowań regulacyjnych. Podobne kierunki analizują QBE, Chubb i Verisk.

W Polsce na chwilę obecną sytuacja wygląda znacznie spokojniej. Jako jedyny publicznie wypowiedział się narodowy gigant – PZU. Spółka przyznaje, że brak transparentności modeli AI jest problemem dla underwritingu, ale na razie nie planuje masowych zmian w umowach. Z kolei Polska Izba Ubezpieczeń potwierdza, że rynek „cyber” pozostaje jednym z najbardziej wymagających obszarów pod względem oceny ryzyka.

Co istotne, szkody wynikające z użycia deepfake’ów są dziś traktowane w Polsce jako klasyczne oszustwa typu social engineering fraud i co do zasady mieszczą się w ochronie polis cyber. Wyłudzenie środków finansowych wymaga jednak dodatkowych rozszerzeń.

Na horyzoncie pojawia się jeszcze jeden czynnik ryzyka – unijny Akt o Sztucznej Inteligencji. Firmy już teraz próbują ubezpieczać się od potencjalnych kar administracyjnych, a zainteresowanie polisami obejmującymi sankcje regulacyjne wyraźnie rośnie.