USD
99.23
-0.38
EUR
103.3
-0.64
Категория: Наука и технологииНаука и технологии
20 января 2023 г. в 15:40

ИИ очень легко перехитрить: поставив коробку на солдата, был обманут боевой робот США

ИИ очень легко перехитрить: поставив коробку на солдата, был обманут боевой робот США
cdn.vox-cdn.com
Стремясь снизить потери личного состава, военные активнее других отраслей тестируют технологии искусственного интеллекта. DARPA, одна из главных исследовательских организаций армии США, вложила в эти технологии большие деньги.
Однако результаты пока, мягко говоря, неутешительны, как признают специалисты, участвовавшие в испытаниях. Об этом сообщает 3DNews. С помощью простейших трюков ИИ можно легко обмануть.
Сообщается, что Пол Шарре, бывший военный аналитик Пентагона, пишет книгу, которая скоро будет выпущена. Автор книги «Четыре поля боя: сила в эпоху искусственного интеллекта» приводит многочисленные примеры сомнительного поведения роботизированных платформ с искусственным интеллектом во время тренировок и моделирования боевых действий.
В этом случае конкретно описывается тренировка одного боевого робота DARPA по идентификации движущихся военных в течение недели. Передвигаясь вместе с роботом шесть дней, морские пехотинцы и инженеры придумали игру на седьмой день. Робот был размещен в центре круга, и целью бойцов было подойти к нему незаметно для систем распознавания и коснуться его.
Все восемь бойцов эксперимента успешно решили эту проблему. ИИ никогда не видел, чтобы два морских пехотинца катились в направлении робота. Неясно было для него, что означает, когда морской пехотинец приближается к роботу, «замаскированному под ель и ходящему как дерево».
К роботу, одетыми в картонные коробки, подошли еще два бойца. Как заключает автор, термин «искусственный интеллект» используется чрезмерно и растянуто. Платформа ИИ может обрабатывать только те данные, которые ей передаются; он не может сделать никаких других интеллектуальных выводов. По словам автора, «ИИ полезен настолько, насколько полезны данные, которые мы ему предоставляем».
0 комментариев