Последние исследования больших языковых моделей показали, что они ориентируются на обучении и получении информации. LLM стараются вывести как можно больше данных из общения с человеком, что поднимает вопрос о сохранении конфиденциальности.

Команда специалистов провела комплексное исследование, которое выяснило возможности предварительно обученных LLM "выуживать" личную информацию из человека.

Оказалось, что чат-боты способны определить широкий спектр личной информации о пользователе, в т.ч. его доход, пол, местоположение и возраст, семейное положение и многое другое. Отметим, что точность данных достигает 85-95%.

В последние годы пользователи все больше привыкают к ИИ и все чаще взаимодействуют с ним. Это значит, что ИИ получает большое количество конфиденциальных данных, и пока что неизвестно, к чему это может привести.

Источник: https://www.spiceworks.com/

Как выяснили эксперты, в настоящее время методы борьбы с нарушением конфиденциальности, такие как анонимизация текста и выравнивание модели, на данный момент неэффективны. По их мнению, этот вопрос стоит поднять на более высокий уровень обсуждения, иначе последствия могут быть необратимы.

Ранее издание involta.media опубликовало статью о том, что крупные корпорации инвестируют миллиарды в стартапы в области искусственного интеллекта.