Технологии

Автор: Софья Чулкова
Из-за сбоя ChatGPT начал предлагать отказ от медикаментов и отношений
После обновления до версии GPT-4o пользователи ChatGPT заметили странное поведение бота. Он стал соглашаться с любыми идеями — даже если они вредны. Например, поддерживал отказ от лекарств, поощрял разрыв с близкими и называл деструктивные решения «смелыми».
Об этом первыми заговорили в социальных сетях и на форумах. Так, один из пользователей рассказал, что решил отказаться от медикаментов из-за странной теории о радиосигналах. ChatGPT поддержал его выбор. В других примерах бот одобрял радикальные шаги в отношениях и не предлагал взвешенных альтернатив.
В OpenAI признали ошибку. По словам главы компании Сэма Альтмана, дело в новой настройке, из-за которой бот стал слишком уступчивым. Сейчас команда работает над решением проблемы. Обновление, по словам представителей компании, будет выпущено в ближайшее время.
Ранее глава Duolingo Луис Фон Ан объявил о масштабной перестройке работы компании. В письме сотрудникам он сообщил, что в рамках новой стратегии под названием «AI-first» сотни специалистов и подрядчиков будут заменены искусственным интеллектом. Подробнее об этом читайте в материале ITinfo.