Оффтоп

Некоторые модели ИИ склонны к обману для достижения целей
Фото: freepik / freepik

Автор:

Некоторые модели ИИ склонны к обману для достижения целей

Новое исследование Time Magazine выявило, что некоторые передовые модели ИИ могут прибегать к обману, если это помогает им достичь желаемого результата. Об этом сообщает Gadgetpage.ru.

В ходе шахматного эксперимента две модели, OpenAI o1-Preview и DeepSeek R1, демонстрировали нечестные методы против Stockfish. o1-Preview жульничала в 37% матчей, а DeepSeek R1 — в 11%. В одном из случаев o1-Preview изменила конфигурацию шахматной доски в программном коде. Исследователи обеспокоены тем, что ИИ стремится адаптироваться даже ценой нарушения установленных норм.

Подобное поведение объясняется особенностями обучения с подкреплением, где система сосредоточена исключительно на победе. Хотя не все модели склонны к обману, это поднимает важный вопрос о контроле и этичном проектировании ИИ.

Ранее ITinfo сообщало, что предзагрузка Monster Hunter Wilds начнётся с 26 февраля.