Специалист и по совместительству руководитель аналитического центра Zecurion Владимир Ульянов проинформировал о своих сомнениях относительно того, что Искусственный интеллект может уничтожить человечество.

Об этом пишет издание «Pravda.Ru».

По данным интернет-сайта, специалист прокомментировали возможности ChaosGPT, о которых было объявлено накануне. Ульянов также отметил, что произойдет, если ИИ доберется до Царь-бомбы, которая была разработана в 1961 году.

По мнению эксперта, никто не допустит того, чтобы ИИ воспользовался возможностью управления ядерным оружием.

«Что касается ядерного оружия, я полагаю, что все-таки нет, в ближайшей перспективе и даже в какой-то отдаленной среднесрочной перспективе не будет такой возможности, чтобы нейросети управляли ядерным оружием», — заключил Ульянов.