USD
97.33
+0.10
EUR
105.44
+0.21
Категория: AI и робототехникаAI и робототехника
15 июня 2023 г. в 12:51

Ученые разрабатывают новый метод обучения ИИ для принятия более безопасных решений за минимальное время

Ученые разрабатывают новый метод обучения ИИ для принятия более безопасных решений за...
yuz.uz
Дети, которые только начинают ходить, могут двигаться слишком быстро и упасть или столкнуться с мебелью. Однако это помогает им учиться и получать ценную информацию о том, как их тело перемещается в пространстве, чтобы в будущем избежать падений. Информация об этом размещена в журнале TX.
Точно так же учатся машины, включая обучение на своих ошибках, подобно людям. Однако для многих машин, таких как беспилотные автомобили и силовые системы, обучение с учетом безопасности людей представляет определенные сложности. По мере развития машинного обучения и его распространения возникает все больший интерес к его применению в очень сложных и критически важных для безопасности автономных системах. Однако риски безопасности, связанные с процессом обучения и его применением, создают препятствия для осуществления этих технологий.
"Как правило, машинное обучение ищет наиболее оптимизированное решение, которое может привести к большему количеству ошибок на пути. Это проблематично, когда ошибка может означать врезку в стену", - объяснил Хуан Андрес Базерке, доцент электротехники и вычислительной техники в Инженерной школе Суонсона, который руководил исследованием вместе с адъюнкт-профессором Энрике Малладой в Университете Джонса Хопкинса.
Недавние исследования подвергают сомнению идею о необходимости бесконечного числа испытаний для овладения безопасными действиями в незнакомых средах. В недавно опубликованной статье представлен новый подход, который позволяет изучать безопасные действия с уверенностью, одновременно уделяя внимание оптимальности, предотвращению опасных ситуаций и быстрому распознаванию небезопасных действий.
"В этом исследовании мы показываем, что изучение безопасной политики принципиально отличается от изучения оптимальной политики, и что это может быть сделано отдельно и эффективно", - заявляют ученые.
Исследовательская группа провела исследования, основываясь на двух различных сценариях, чтобы наглядно продемонстрировать свою концепцию. Они разработали алгоритм, предполагая определенные условия, который способен обнаруживать все небезопасные действия при ограниченном количестве попыток. Кроме того, команда решила задачу поиска оптимальной стратегии для процесса принятия марковских решений (MDP) со строгими ограничениями.
Источник: texhxplore.com
Источник: texhxplore.com
Анализ их работы подчеркнул компромисс между временем, необходимым для обнаружения небезопасных действий в базовом MDP, и уровнем риска небезопасных событий. MDP является полезным методом, поскольку предоставляет математическую основу для моделирования процесса принятия решений в ситуациях, где результаты являются частично случайными и частично контролируемыми лицом, принимающим решения.
Для подтверждения своих теоретических выводов исследователи провели моделирование, которое подтвердило обнаруженные компромиссы. Полученные результаты также указывают на то, что включение ограничений безопасности может ускорить процесс обучения.
"Это исследование бросает вызов преобладающей вере в то, что изучение безопасных действий требует неограниченного количества испытаний", - заявил Базерке. "Наши результаты показывают, что, эффективно управляя компромиссами между оптимальностью, воздействием небезопасных событий и временем обнаружения, мы можем достичь гарантированной безопасности без бесконечного количества исследований. Это имеет значительные последствия для робототехники, автономных систем, искусственного интеллекта и многого другого".
0 комментариев