Американский аналитик и противник искусственного интеллекта Элиезер Юдковский заявил о необходимости срочного отключения самообучающихся систем.

В новой колонке для журнала Time эксперт, предупреждавший об опасностях данной технологии с начала 2000-х годов, заявил о недостаточности простого подписания письма известных бизнесменов-изобретателей Илона Маска и Стива Возняка, поскольку оно преуменьшает всю серьезность ситуации.

По его словам, появление сверхчеловечески умной компьютерной модели приведёт к гибели всех людей, поскольку подобные системы не станут заботиться о разумной жизни в целом. Юдковский предлагает бессрочный запрет развития искусственного интеллекта для правительств и вооруженных сил.

Ранее издание Involta media рассказало, что на нейросеть GPT-4 подана жалоба о несоответствии законам США, которую рассмотрит Федеральная торговая комиссия.