
Решение о том, чтобы вызвать в школу в США полицию из-за школьника, держащего в руках чипсы, принимал не искусственный интеллект (ИИ), а охранник, доверившийся ИИ и не перепроверивший его, 25 октября сообщает IT-редакция ИА Красная Весна. 20 октября в школе в Балтиморе США 16-летний чернокожий ученик Таки Аллен зашел в школу, держа в руках пачку чипсов, а охранная ИИ-система вызвала наряд вооруженных полицейских.
Силовики направили на школьника оружие, потребовали его лечь на землю и задержали его. Всё это произошло на основе сигнала, поступившего от ИИ. Сам Аллен признался, что испытал страх и считал, что его могут убить в ходе задержания. То же подтвердили его родственники. Разработчик системы, компания Omnilert, подтвердила, что на изображении было нечто, «примерно напоминающее находящееся в руках оружие», но признала ошибку. В то же время, подобная реакция считается компанией правильной, поскольку система «функционировала так, как и предполагалось: уделяя первостепенное внимание безопасности, она била тревогу после быстрой проверки человеком». На сайте разработчика указывается: «Наш ИИ, основанный на исследованиях Министерства обороны США и DARPA по распознаванию угроз в реальном времени, разработан с учетом точности и надежности военного уровня». При этом первичный сигнал от ИИ перепроверяется человеком, который уже и отдает сигнал об опасности. Компания настаивает, что ИИ используется для помощи человеку в принятии решения, а не для того, чтобы заместить человека, принимающего решение. Получается, это именно специально обученный человек, отвечающий за безопасность множества одновременно наблюдаемых объектов, допустил ошибку и вызвал вооруженный наряд. Конечно напрашивается вопрос, была бы реакция той же, если бы речь шла об ученике какой-нибудь другой расы? И все же, остается вопрос, как человек мог увидеть вместо пачки чипсов пистолет? Вероятнее всего дежурный за охранным пультом автоматически подтвердил сообщение ИИ и вызвал наряд. Тогда декларируемые компанией ценности о перепроверки ИИ человеком перед принятием решений не работают на практике. Это лишь успокаивающая оговорка. При этом нельзя не обратить внимание, что в обычной американской школе внедрена и всерьез эксплуатируется всерьез, в которой видеокамеры постоянно снимают учеников и передают изображение в некое облако, где его сначала обрабатывает система распознавания образов, а затем еще и люди. Это говорит уже об огромной проблеме с безопасностью в школах. Решение которой, видимо, как и многое сегодня, в очередной раз попытаются возложить на ИИ. glavno.smi.today
Свежие комментарии