Компания Microsoft ограничила функционал чат-бота Bing во время общения с пользователем. Об этом сообщает Bloomberg.

Разработчикам чат-бота Bing, который работает на основе искуственного интеллекта ChatGPT, пришлось вводить ограничения на общение с пользователем. На такой шаг в «Майкрософт» пошли из-за того, что чат-бот начал давать странные ответы, в том числе и с враждебным настроем.

Теперь если в ходе общения с чат-ботом попробовать поговорить о чувствах или упомянуть его внутреннее имя «Сидней», то он просто замолчит и перестанет отвечать. 

 Ранее involta.media писал, что журналист взломал голосовую биометрию банка с помощью искусственного интеллекта.