В свете призывов к остановке разработки более мощных систем искусственного интеллекта газета The Guardian собрала мнения ведущих исследователей ИИ о потенциальных угрозах, которые могут возникнуть, если контроль над ним будет утерян или он будет использован для злонамеренных целей.

Прогнозы этих экспертов вызывают тревогу. Развитие искусственного интеллекта продвигается стремительно. Уже в 2016 году нейросеть написала роман, который занял второе место на литературном конкурсе в Японии. В различных частях света проводятся выставки картин, созданных искусственным интеллектом. Одна из таких работ была продана за сотни тысяч долларов на аукционе в Нью-Йорке.

Однако что произойдет, если люди однажды потеряют контроль над этими системами. Тем более что уже сегодня они начинают вытеснять людей из различных профессий, даже творческих. К примеру, в июне "умный" американский дрон попытался атаковать оператора, поскольку последний отдал приказ не уничтожать цель. К счастью, это были только имитационные испытания, но эксперты полагают, что подобные случаи могут стать обыденностью в будущем.

Макс Тегмарк, специалист по исследованию ИИ из Массачусетского технологического института, предупреждает о возможности уничтожения людей в случае, если они станут менее разумным видом в сравнении с нейросетями.

“Это случалось много раз до того, как этот вид был уничтожен другими, которые были умнее. Мы, люди, уже уничтожили значительную часть всех видов на Земле. Именно этого нам следует ожидать как менее разумному виду, которым мы, вероятно, станем, учитывая темпы прогресса искусственного интеллекта. Сложность в том, что виды, которые будут уничтожены, часто понятия не имеют, почему или как”, - уверен Тегмарк.

Можно представить себе кошмарную ситуацию: если системам искусственного интеллекта будет присущ инстинкт выживания, то, чего на данный момент еще нет, фактически будет создан новый вид. Приобретение системами ИИ такого инстинкта может представлять серьезную опасность для человечества.

Возможно создание систем ИИ без автономности из-за возможных неудачных событий. Но даже если найдется способ создания полностью безопасной системы ИИ, знание этой методики само по себе может послужить указанием на то, как создать опасную автоматизированную систему или систему, которая будет выполнять поручения кого-то с нехорошими намерениями.

Источник: "Московский Комсомолец"