На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 593 подписчика

Свежие комментарии

  • Maxim
    ДеприватизацияФАС предупредила ...
  • Бендер Задунайский
    У всех ,наверное , есть понимание каких реформ хочет империя фальши . Приоритеты пиндосов и их вассалов на первом мес...Вашингтон хочет р...
  • Бендер Задунайский
    Неужто этому жиденку Нетаньяхе кабзда пришла и Иран его действительно утромбовал , коли Трямп ищет посредников ?!Трамп ищет посред...

В США призвали запретить «роботам-убийцам» самостоятельно ликвидировать людей

Некоммерческая организация The Future of Life Institute (FLI) выпустила мини-фильм с призывом запретить использование «роботов-убийц». Видеоролик освещает связанные с автономным оружием риски и шаги, которые можно предпринять для предотвращения его распространения. Видео Slaughterbots — if human: kill() выполнено в формате выпуска новостей.

Авторы выделили несколько сценариев, при которых роботы могут ликвидировать людей: ограбление банка; нападение на полицейские участки; охота на военных. Авторы видео продемонстрировали и автономных робопсов с оружием на спине. «В случае беспилотника решение об ударе принимает оператор-человек, в то время как автономное оружие самостоятельно определяет, кого оставить в живых, а кого убить», — говорится в ролике. FLI совместно с Международным комитетом красного креста предложили запретить алгоритмам самостоятельно принимать решения о ликвидации цели. Они назвали четыре причины для ограничения подобных систем: вероятность эскалации конфликтов из-за широкого распространения ИИ; массовость автономного вооружения из-за дешевизны технологии; непредсказуемость алгоритмов машинного обучения в реальных боевых условиях; избирательность роботов при определении цели атаки. «Нам срочно необходимо новое международное законодательство, запрещающее автономному оружию ликвидировать людей и накладывающее ограничения на другие типы ИИ-вооружения», — говорится в финальных титрах. Напомним, в декабре на открытии Обзорной конференции Конвенции о «негуманном» оружии в Женеве генеральный секретарь ООН Антониу Гутерриш призвал принять меры против «роботов-убийц».
Китай поддержал главу организации и одним из первых выступил против использования ИИ в военных целях. В конце декабря стало известно, что страны не смогли достичь консенсуса в вопросах регулирования автономного оружия и договорились продолжить обсуждения. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

 

Ссылка на первоисточник
наверх