Новый эксперимент чешских ученых показал, что чат-боты с ИИ могут генерировать поддельные научных статьи, которые кажутся достоверными.

Для своего эксперимента специалисты из Карлова университета использовали ChatGPT-3, созданный OpenAI. Они задали ему параметры и давали подсказки по мере генерации ответов, улучшая конечный результат.

В итоге чат-бот сфабриковал научную статью по теме нейрохирургии, по своему качеству очень похожую на настоящее исследование. В статье, созданной ChatGPT, использовался научный язык, правильное словообразование и стандартные разделы (аннотация, введение, основная часть, результат, таблицы и обсуждение специалистов).

Ученые отметили, что весь процесс создания научной статьи с помощью чат-бота занял менее часа, они не готовились к эксперименту и не составляли вопросы заранее.

После вычитывания фальшивой статьи эксперты все же смогли найти несколько неточностей, которые указывали на фальсификацию. В научных статьях часто используются ссылки на данные и другие исследования, а чат-бот не указал многие из них или указал неправильно. Тем не менее, неподготовленный человек вряд ли сможет отличить настоящее исследование от созданного ChatGPT.

Источник: stock.adobe.com

Как бороться с фальшивыми статьями

Ученые считают, что для того чтобы снизить количество сгенерированных статей и более качественно отличать их от настоящих, нужно придерживаться нескольких правил.

1. Необходимо повысить бдительность и усовершенствовать методы борьбы с использованием ИИ в научных целях.

2. Нужно разработать этические принципы для работы с языковыми моделями ИИ в научной сфере.

3. При разработке наглядных статей с объяснениями, как их можно отличить от подделок, больше людей научится определять их подлинность.