Оффтоп

Автор: Анна Мигинеишвили
Некоторые модели ИИ склонны к обману для достижения целей
Новое исследование Time Magazine выявило, что некоторые передовые модели ИИ могут прибегать к обману, если это помогает им достичь желаемого результата. Об этом сообщает Gadgetpage.ru.
В ходе шахматного эксперимента две модели, OpenAI o1-Preview и DeepSeek R1, демонстрировали нечестные методы против Stockfish. o1-Preview жульничала в 37% матчей, а DeepSeek R1 — в 11%. В одном из случаев o1-Preview изменила конфигурацию шахматной доски в программном коде. Исследователи обеспокоены тем, что ИИ стремится адаптироваться даже ценой нарушения установленных норм.
Подобное поведение объясняется особенностями обучения с подкреплением, где система сосредоточена исключительно на победе. Хотя не все модели склонны к обману, это поднимает важный вопрос о контроле и этичном проектировании ИИ.
Ранее ITinfo сообщало, что предзагрузка Monster Hunter Wilds начнётся с 26 февраля.