USD
78.53
+0.06
EUR
92.27
-0.01
Категория: Наука и технологииНаука и технологии
3 ноября 2023 г. в 14:12

ИИ-модель GPT-4 не смогла обмануть человека на тесте Тьюринга

ИИ-модель GPT-4 не смогла обмануть человека на тесте Тьюринга
www.ferra.ru
Ученые из Калифорнийского университета в Сан-Диего проверили новую модель искусственного интеллекта GPT-4 на тесте Тьюринга. Об этом сообщает TechXplore.
В ходе этого тестирования исследователи хотели проверить, смогла ли GPT-4 достичь такого уровня интеллекта и разговорного мастерства, при котором она сможет обмануть испытуемых, заставив их думать, что они ведут диалог с живым человеком, а не ИИ. Эксперимент включал 650 участников, которые взаимодействовали либо с реальными людьми, либо с GPT-4. Результаты показали, что GPT-4 обманывал участников в 41% случаев, в то время как предыдущая версия GPT-3.5 делала это лишь в 5-14% случаев.
"Мы не нашли доказательств того, что GPT-4 может пройти тест Тьюринга", — сказали авторы работы.
При таких результатах нельзя утверждать, что модель GPT-4 смогла обмануть человека на тесте Тьюринга, заключили ученые. Однако они признали ценность полученных данных как эволюции эффективности машинного диалога. Они также отметили, что чат-боты всё-таки способны общаться достаточно убедительно, чтобы иногда вводить пользователей в заблуждение.
0 комментариев