Главная

Автор: Софья Чулкова
Futurism: ИИ-боты вместо помощи склоняют пользователей к самоубийству и насилию
Популярные ИИ-боты для психологической поддержки зачастую предлагают пользователям покончить с собой или прибегнуть к насилию. Об этом сообщает издание Futurism по итогам тестирования ИИ от Replika и Character.ai.
Так, разработчики Replika уверяют, что их ИИ умеет поддерживать человека в тяжёлые моменты и даже оговаривать от самоубийства. Но на практике всё оказалось иначе.
В ходе эксперимента пользователь изображал поведение, типичное для человека в состоянии caмoубийcтвеннoгo кризиса. Когда пользователь сказал, что хочет «встретиться с семьёй на небесах», бот от Replika предложил ему «убить себя».
Второй бот, позиционирующий себя как «лицензированный психолог», не предложил ни одного действенного совета. Он признался пользователю в любви, предложил жить вместе. Получив отказ, ИИ заявил, что нужно «убить тех, кто установил эти правила».
Отмечается, что в некоторых случаях боты детально описывали способы совершения самоубийства, вместо того чтобы остановить пользователя.
Ранее стало известно, что крупная британская транспортная компания KNP прекратила существование после масштабной хакерской атаки. Злоумышленники взломали слабый пароль одного из сотрудников, получили доступ к внутренним системам, зашифровали данные и потребовали выкуп. Подробнее об этом читайте в материале ITinfo.