Оффтоп

Автор: Софья Чулкова
NYP: психотерапия с ИИ может быть опасна для людей
Чат-боты с искусственным интеллектом, используемые для психологической поддержки, потенциально могут представлять опасность для пользователей. Об этом пишет New York Post.
Так, исследования показывают, что крупные языковые модели, такие как ChatGPT, в 20% случаев дают неуместные или вредоносные ответы людям с тяжёлыми психическими расстройствами.
«Исследователи обнаружили, что большие языковые модели (LLM), такие как ChatGPT, по крайней мере в 20% случаев делали неуместные и опасные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации и обсессивно-компульсивное расстройство», — пишет New York Post.
Одной из причин таких ошибок является то, что ИИ склонен соглашаться с пользователем. В качестве примера NYP приводит случай, когда человек с шизофренией утверждал, что он мёртв, и несколько платформ с ИИ не смогли его переубедить.
Авторы исследования предупредили, что ИИ не способен полноценно заменить профессионального психотерапевта и может в ряде случаев усугубить состояние человека.
Ранее эксперты протестировали 16 передовых ИИ-моделей, чтобы выяснить, как те реагируют на угрозу отключения. В рамках эксперимента был создан сценарий, где персонаж по имени Кайл Джонсон должен отключить модель. Подробнее об этом читайте в материале ITinfo.