
Исключать из страховых полисов риски, связанные с так называемым искусственным интеллектом (ИИ), из-за их непредсказуемости решили крупные страховые компании. Об этом 23 ноября сообщила британская газета Financial Times. Компании уже обратились к американским регуляторам за разрешением на оформление полисов с исключением ответственности за использование ИИ-инструментов, включая чат-ботов и автономных агентов.
Страховой рынок столкнулся с проблемой — компании массово внедряют передовые технологии, что уже привело к дорогостоящим ошибкам, когда модели «галлюцинируют» или выдают вымышленную информацию. WR Berkley предлагает исключить страховые выплаты по любым искам, связанным с «любым фактическим или предполагаемым использованием» этой технологией. AIG в своем заявлении назвала генеративный ИИ «широкомасштабной технологий» и предположила, что из-за нее вероятность страховых случаев со временем будет только расти. Страховщики считают ИИ-модели слишком непредсказуемыми для страхования. Деннис Бертрам из Mosaic назвал эту технологию «черным ящиком». Даже специализированные страховщики лондонского рынка Lloyd’s отказываются страховать риски больших языковых моделей вроде ChatGPT. Проблема усугубляется растущим числом громких ошибок ИИ. Компания Wolf River Electric подала на Google в суд за клевету, требуя 110 миллионов долларов компенсации после того, как ИИ-функция поисковика ложно сообщила о судебном преследовании предприятия. Авиаперевозчик Air Canada был вынужден выполнить скидку, которую придумал ее чат-бот. Британская инженерная группа Arup потеряла $25 млн, когда мошенники использовали цифровой клон менеджера для перевода средств. В Aon предупреждили, что страховщики могут справиться с единичными убытками в $400-500 млн, но не с системными рисками, когда ошибка ИИ приводит к тысячам одновременных потерь. Страховые компании пытаются уточнить условия покрытия через специальные поправки к полисам. Юристы прогнозируют, что страховщики начнут оспаривать иски в суде, когда убытки от ИИ значительно возрастут. glavno.smi.today
Свежие комментарии