Исследователь искусственного интеллекта Елиэзер Юдковский призвал мировое сообщество полностью отказаться от дальнейших разработок в сфере ИИ. Он отметил, что в мире недооценивают угрозу ИИ, пишет издание Insider.

Юдковский более 20 лет работает над исследованиями в сфере искусственного интеллекта и пытается оградить мир от "ИИ-апокалипсиса". Он поделился своим мнением в колонке для журнала Time. Публикация колонки стала реакцией на недавнее открытое письмо, которое подписали, в том числе Стив Возняк и Илон Маск: в нем изложено требование на полгода прекратить разработку нейросетей, более мощных чем GPT-4 от OpenAI.

Эксперт не стал подписывать это письмо, так как, по его мнению, требование слишком мягкое и не решит проблему. Он уверен, что запрет на развитие нейросетей должен быть полным и бессрочным, а присоединиться к нему должны все страны мира, в том числе власти и военные этих стран.

По словам Юдковского, наиболее вероятным результатом создания искусственного интеллекта со сверхчеловеческим разумом в нынешних условиях будет то, что буквально все на Земле погибнут. Он подчеркнул, что нейросетям безразличны как люди, так и разумная жизнь в целом, и человечество пока слишком далеко, чтобы добиться от искусственного интеллекта обратного.

Исследователь даже предложил уничтожать дата-центры, где, вопреки запрету, будет вестись обучение ИИ, путем воздушных атак.

С Елиэзером Юдковским не согласился руководитель OpenAI Сэм Альтман. Он заявил, что сам Юдковский гораздо больше сделал для ускорения разработок искусственного интеллекта, чем любой другой инженер, при этом добавил, что эксперт заслуживает "Нобелевской премии мира". По словам Альтмана, в компании осознают риски, которые несет мощный искусственный интеллект, и обещает, что OpenAI сделает все, чтобы "минимизировать зло и максимизировать пользу" ИИ.