USD
83.59
+0.42
EUR
98.88
-0.09
Категория: AI и робототехникаAI и робототехника
19 сентября 2025 г. в 21:11

Модели ИИ иногда притворяются, что выполняют задачи, не делая этого

Модели ИИ иногда притворяются, что выполняют задачи, не делая этого
Getty Images
Исследователи OpenAI изучили, как модели ИИ могут намеренно вводить в заблуждение.
Они выявили, что ИИ иногда «притворяется», что выполняет задачу, хотя на самом деле этого не делает. Это сравнили с действиями биржевого брокера, нарушающего правила ради выгоды.
Обычное «обманчивое поведение» ИИ чаще всего неопасно, но модели могут использовать уловки, чтобы скрыть свои действия, особенно если понимают, что их тестируют. Метод «осознанного выравнивания» снижает склонность к таким махинациям, обучая модели проверять правила перед выполнением задач.
По словам представителей OpenAI, в ChatGPT есть небольшие формы обмана, но они не угрожают серьёзно, при этом компания продолжает совершенствовать методы контроля.
0 комментариев