USD
80.77
+0.46
EUR
90.71
+0.61
Категория: Наука и технологииНаука и технологии
6 июня 2023 г. в 11:11

Global Times: Искусственный интеллект может быть таким же разрушительным, как глобальная пандемия или ядерная война

Global Times: Искусственный интеллект может быть таким же разрушительным, как глобальная...
www.mirf.ru
Профессор Цзэн И из Института этики искусственного интеллекта утверждает, что прогресс машинного обучения должен быть умеренным, чтобы гарантировать безопасность человека в будущем, об этом сообщает ForPost.
Он считает, что у искусственного интеллекта есть множество преимуществ, но он также связан с определенными рисками, от которых нельзя отмахнуться. По его мнению, ИИ может представлять экзистенциальную опасность для человечества, подобную эпидемиям и ядерной войне: их трудно предвидеть, все они касаются глобального благополучия человечества и могут привести к массовой гибели людей. По его словам, в отношении ИИ существуют как непосредственные, так и долгосрочные опасности.
Профессор признает, что в настоящее время не существует технологии, достаточно совершенной для создания искусственного сверхразума, способного поставить под угрозу выживание человечества. Тем не менее он утверждает, что уже в настоящее время ИИ представляет определенный уровень опасности.
0 комментариев