USD
78.42
-0.11
EUR
92.74
+0.48
Категория: AI и робототехникаAI и робототехника
19 июня 2023 г. в 13:21

Эксперты по ИИ предупреждают о риске вымирания людей в открытом письме

Эксперты по ИИ предупреждают о риске вымирания людей в открытом письме
laser-estet.ru
Организация Центр безопасности ИИ (CAIS) недавно опубликовала заявление, подписанное видными деятелями в области искусственного интеллекта (ИИ), предупреждающее о потенциальных рисках, которые технология может представлять для человечества.
Заявление подписали известные исследователи и лауреаты премии Тьюринга, такие как Джеффри Хинтон и Йошуа Бенгио, а также руководители OpenAI и DeepMind, такие как Сэм Альтман, Илья Суцкевер и Демис Хассабис.
В заявлении отмечается, что снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война. Цель письма CAIS - вызвать дискуссии о различных неотложных рисках, связанных с ИИ. Это заявление вызвало как поддержку, так и критику в широких кругах. Оно последовало за другим открытым письмом, подписанным Илоном Маском, Стивом Возняком и более чем 1000 другими экспертами, в котором призывалось остановить "неконтролируемую" разработку ИИ.
Несмотря на то, что заявление было кратким и не содержало конкретных подробностей об определении ИИ или конкретных стратегиях по снижению рисков, CAIS пояснила, что ее целью является создание гарантий и институтов для эффективного управления рисками ИИ.
Источник: via-midgard.com
Источник: via-midgard.com
Генеральный директор OpenAI Сэм Альтман активно взаимодействует с мировыми лидерами и выступает за регулирование ИИ. Недавно на слушаниях в Сенате он неоднократно призывал законодателей внести строгие регулирования в отрасль. Заявление CAIS соответствует его усилиям по повышению осведомленности об опасностях ИИ.
Некоторые эксперты по этике ИИ, однако, критикуют тенденцию делать подобные заявления. Они предполагают, что упоминание гипотетических рисков наряду с реальными проблемами, такими как предвзятость, юридические проблемы и согласие, может отвлекать внимание от существующих этических дилемм, связанных с применением ИИ. Некоторые критики считают, что подписание открытых писем о будущих угрозах позволяет ответственным сторонам избегать ответственности за текущие проблемы, вызванные ИИ, и пренебрегать этическими аспектами уже используемых технологий ИИ.
Несмотря на разногласия, CAIS, как некоммерческая организация, остается приверженной снижению рисков, связанных с ИИ, путем проведения технических исследований и пропаганды. Они собирают экспертов с опытом в области компьютерных наук и интересом к безопасности ИИ.
В итоге балансирование развития ИИ с ответственным внедрением и регулированием остается важной задачей для исследователей, политиков и лидеров в области ИИ. Понимание рисков, связанных с ИИ, и их активное обсуждение являются важными шагами для создания эффективных механизмов управления и обеспечения безопасного и этичного развития этой технологии.
0 комментариев