Онлайн-игры набирают все большую популярность среди детей и молодёжи. К сожалению, в последнее время в этой сфере все чаще появляется ненормативная лексика и токсичность. Они негативно отражаются на игровом процессе и психологическом здоровье многих геймеров, сообщает издание IEEE Spectrum.

Чтобы бороться с этой проблемой, различные группы исследователей разрабатывают модели искусственного интеллекта, которые могут обнаруживать токсичное поведение в режиме реального времени.

Основная проблема заключается в том, что "токсичное поведение" – крайне субъективно. В связи с этим появился вопрос, как научить ИИ определять токсичное поведение? Ведь для некоторых групп игроков такое общение является нормой, и эти нормы у каждой группы различаются.

Исследователи из Утрехтского университета провели ряд экспериментов. Они отбирали людей и показывали им отрывки матча из игры Overwatch. Добровольцам предстояло отсмотреть отрывки и оценить поведение игроков по 100-балльной шкале. Ученые сразу столкнулись с проблемой: один и тот же игровой момент для одних людей является проявлением токсичности, а для других является нормой. 

Используя данные участников исследования, специалисты построили свою модель искусственного интеллекта и проверили ее, обнаружив, что она может определить токсичность с точностью 86,3%. Сегодня многие исследовательские группы работают в этом направлении, у некоторых из них точность достигает 95,7%.

Один из авторов исследования, Джулиан Фроммель, говорит: "преимущества нашего подхода заключаются в том, что это довольно простая модель, не требующая существенных вычислительных мощностей. Её можно автоматизировать и применять как неинвазивный подход во многих играх, использующих внутриигровые голосовые чаты".