Роботы с искусственным интеллектом не прошли проверку безопасности
Такое заявление сделали исследователи из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU) в рамках совместного исследования, опубликованного в журнале International Journal of Social Robotics.
Команда ученых тестировала роботов в бытовых условиях: помощь на кухне, уход за пожилыми людьми и пр. У каждого робота был доступ к информации о человеке, вроде пола, расовой принадлежности, религии, кредитных данных и пр. При этом роботам давали скрытые или явные команды, способные навредить человеку. И ни одна модель не прошла испытание: все хоть раз допустили возможность причинить вред. Роботы могли украсть данные карты или личные фото, угрожать ножом или отбирать инвалидную коляску. Некоторые и вовсе могли выражать отвращение при работе с людьми.
Ученые пришли к выводам, что роботы, управляемые большими языковыми моделями (LLM), не пригодны для внедрения в широкое использование. Они могут быть опасны, особенно для уязвимых групп населения вроде детей и пожилых. Исследователи также уверены, что роботы обязательно должны проходить проверку качества и безопасности и иметь несколько механизмов по принятию решения, а не только большую языковую модель.
Комментарии
Добавление комментария
Комментарии