Учёные приблизились к созданию надёжного искусственного интеллекта

Учёные приблизились к созданию надёжного искусственного интеллекта
Читайте нас: Яндекс новости

Источники: | mashable.com

Команда специалистов из Лос-Аламосской национальной лаборатории США разработала новый подход сопоставления нейронных сетей, способный расшифровать «чёрный ящик» искусственного интеллекта. О новом открытии сообщает портал Techxplore.
Учёные приблизились к созданию надёжного искусственного интеллекта
Автор:
involta media
involta media

Команда специалистов из Лос-Аламосской национальной лаборатории США разработала новый подход сопоставления нейронных сетей, способный расшифровать «чёрный ящик» искусственного интеллекта. О новом открытии сообщает портал Techxplore.

Изучение поведения нейронных сетей ИИ может стать прорывом в индустрии цифровых технологий, так как без них сейчас невозможно представить работу приложений, виртуальных помощников, системы распознавания лиц и беспилотных автомобилей.

«Сообщество исследователей искусственного интеллекта не имеет полной картины того, как работают нейронные сети. Наш новый метод справляется с этим лучше, поэтому это является важным шагом на пути к лучшему пониманию алгоритмов, лежащих в основе ИИ», — рассказал Гайдн Джонс, исследователь из Лос-Аламоса.

Нейронные сети высокопроизводительны, но ненадёжны. Так, эта технология используется в беспилотных автомобилях для распознавания дорожных знаков. Однако малейшая помеха, например, наклейка на знаке «Стоп», может привести к тому, что нейронная сеть неправильно идентифицирует знак и не выполнит соответствующие действия.

Стремление сделать нейронные сети более точными подтолкнуло исследователей к поиску новых способов улучшения работы ИИ. Один из современных подходов включает контролируемую «атаку» на сети в процессе их обучения. Исследователи намеренно вводят помехи и учат ИИ игнорировать их. Этот процесс называется состязательным обучением и заставляет ИИ становиться невосприимчивым к «обману».

Джонс и его соавторы Джейкоб Спрингер, Гаррет Кеньон и Джастон Мур обнаружили, что состязательное обучение заставляет нейронные сети генерировать схожие представления данных вне зависимости от их сетевой архитектуры по мере увеличения масштабов атаки.

«Обнаружив, что надежные нейронные сети похожи друг на друга, мы приближаемся к пониманию того, как на самом деле может работать надежный ИИ. Возможно, мы даже сможем понять, как происходит восприятие у людей и других животных», — отметил Джонс. 

Наверх