USD
85.56
+0.16
EUR
93.26
+0.09
Категория: AI и робототехникаAI и робототехника
6 июля 2023 г. в 15:15

Искусственный интеллект смог сгенерировать мошенническую научную статью

Искусственный интеллект смог сгенерировать мошенническую научную статью
letsgophotos.ru
Новый эксперимент чешских ученых показал, что чат-боты с ИИ могут генерировать поддельные научных статьи, которые кажутся достоверными.
Для своего эксперимента специалисты из Карлова университета использовали ChatGPT-3, созданный OpenAI. Они задали ему параметры и давали подсказки по мере генерации ответов, улучшая конечный результат.
В итоге чат-бот сфабриковал научную статью по теме нейрохирургии, по своему качеству очень похожую на настоящее исследование. В статье, созданной ChatGPT, использовался научный язык, правильное словообразование и стандартные разделы (аннотация, введение, основная часть, результат, таблицы и обсуждение специалистов).
Ученые отметили, что весь процесс создания научной статьи с помощью чат-бота занял менее часа, они не готовились к эксперименту и не составляли вопросы заранее.
После вычитывания фальшивой статьи эксперты все же смогли найти несколько неточностей, которые указывали на фальсификацию. В научных статьях часто используются ссылки на данные и другие исследования, а чат-бот не указал многие из них или указал неправильно. Тем не менее, неподготовленный человек вряд ли сможет отличить настоящее исследование от созданного ChatGPT.
Источник: stock.adobe.com
Источник: stock.adobe.com
Как бороться с фальшивыми статьями
Ученые считают, что для того чтобы снизить количество сгенерированных статей и более качественно отличать их от настоящих, нужно придерживаться нескольких правил.
1. Необходимо повысить бдительность и усовершенствовать методы борьбы с использованием ИИ в научных целях.
2. Нужно разработать этические принципы для работы с языковыми моделями ИИ в научной сфере.
3. При разработке наглядных статей с объяснениями, как их можно отличить от подделок, больше людей научится определять их подлинность.
0 комментариев