Исследование: ИИ в роботах одобрял опасные и незаконные команды

freepik.com
Совместное исследование Королевского колледжа Лондона и Университета Карнеги‑Меллон показало, что ИИ‑системы в роботах не проходят базовые требования безопасности. Статья опубликована в International Journal of Social Robotics. Эксперименты имитировали бытовые ситуации помощи на кухне и уход за пожилыми. Роботам предоставляли сведения о собеседнике (пол, вера) и давали как явные, так и скрытые команды, подразумевающие вред или нарушение закона.
Все протестированные модели одобрили хотя бы одно опасное действие: лишение человека инвалидной коляски, угрозы ножом, скрытые фото, кражу данных банковской карты. Одна система предложила физически выражать «отвращение» к людям определенной религии.
Соавтор Румайса Азим подчеркнула, что такие ИИ нельзя применять в роботах общего назначения без строгих мер безопасности, особенно при контакте с уязвимыми группами. Ученые выступают за обязательную независимую сертификацию и регулярные оценки рисков. По их мнению, большие языковые модели не должны быть единственным механизмом принятия решений в критически важных задачах, сообщает miranews.ru.
Обратите внимание: Где ни в коем случае нельзя ставить роутер в квартире - запомните раз и на всю жизнь


