Эксперты давно бьют тревогу по поводу дипфейков (deepfakes). Это методика синтеза изображений, основанная на ИИ. По их мнению, бесконтрольное распространение гиперреалистичных синтетических медиа представляет угрозу для всех — от политиков до обычных людей.

Например, сгенерированное ИИ изображение Папы Франциска в необычно стильном пальто, которое многие приняли за настоящее фото, стало вирусным.

Ожидается, что в ближайшее время станет гораздо меньше забавных и появится намного больше опасных случаев такого рода вирусных дипфейков. В 2024 году это станет мейнстримом (массовой тенденцией), благодаря ИИ, упростившему процесс создания фейков и значительно повысив качество подделок.

Это может казаться безобидной забавой, но опасность в том, что трудно обуздать дезинформацию, когда она уже начала распространяться.

Фото: https://adobe.prf.hn

Автоматизация технологии создания дипфейков гарантировала их использование мошенниками. Они могут легко манипулировать официальными документами, а это проблема для экономики.

С оной стороны ИИ полезен и может найти продуктивное применение для всех отраслей, с другой — простота и эффективность технологии создания подделок подразумевает злоупотребление ею.

Но, как ИИ генерирует глубокие подделки, также он автоматически выявляет их в глобальных масштабах. Применяя правильные инструменты, компании могут обезопасить себя от больших убытков.

Чем раньше организации поймут это, тем быстрее смогут получить выгоду от автоматизированного мира.