Недавний кибераналитический отчет предупредил, что кибератаки с использованием искусственного интеллекта (ИИ), которые до сих пор были довольно ограниченными, могут стать более агрессивными в ближайшие годы. Исследование на эту тему опубликовано в журнале Cybernews.

Большинство современных дисциплин искусственного интеллекта и близко не подходят к человеческому интеллекту и не могут автономно планировать или проводить кибератаки.

Однако в ближайшие пять лет злоумышленники, скорее всего, создадут искусственный интеллект, который сможет автономно выявлять уязвимости, планировать и проводить атаки, использовать анонимность, чтобы обойти защиту, и собирать или добывать данные из зараженных систем.

"Атаки с использованием искусственного интеллекта могут выполняться быстрее, нацеливаться на большее количество жертв и находить больше векторов атаки, чем обычные атаки, благодаря природе интеллектуальной автоматизации и тому факту, что они заменяют обычно ручные задачи", - заявляют специалисты.

Также многие обеспокоены, что ИИ сможет подделывать некоторые биометрические данные людей, такие как голос или внешность. Это определенно отразится на банковском секторе, где биометрия уже давно применяется.

Результаты исследования заставляют серьёзно задуматься о создании новых мер противодействия киберпреступности.