USD
97.33
+0.10
EUR
105.44
+0.21
Категория: AI и робототехникаAI и робототехника
15 июня 2023 г. в 18:07

Watchdog рекомендует не выводить на рынок приложения с генеративным ИИ, не решив проблемы конфиденциальности

Watchdog рекомендует не выводить на рынок приложения с генеративным ИИ, не решив проблемы...
stock.adobe.com
Британский орган по защите данных сделал самое недвусмысленное предупреждение разработчикам с генеративным ИИ, заявив, что ожидает от них устранения рисков конфиденциальности, прежде чем выводить свои продукты на рынок.
Watchdog предостерег разработчиков и сообщил, что проверит, решали ли компании проблемы с конфиденциальностью, прежде чем внедрять генеративный ИИ, и примет меры в случае, если существует риск причинения вреда людям из-за неправильного использования их данных. Не может быть оправдания игнорированию рисков для прав и свобод людей до развертывания, добавил Алмонд, директор по регулятивным рискам Управления комиссара по информации (ICO).
Он также проинструктирует компании, работающие на рынке Великобритании, о том, что им нужно будет показать ICO. Это означает, что ICO будет учитывать контекст, связанный с применением технологии generative AI, с вероятностью большего соответствия требованиям для приложений для здоровья, использующих generative AI API, например, по сравнению с приложениями, ориентированными на розничную торговлю.
“Компании правы, когда видят возможности, которые предлагает генеративный ИИ, будь то создание более качественных сервисов для клиентов или сокращение затрат на свои услуги. Но они не должны закрывать глаза на риски конфиденциальности. С самого начала потратьте время на то, чтобы понять, как ИИ использует личную информацию, как снизить любые риски, о которых вам станет известно, а затем внедряйте свой подход к ИИ с уверенностью, что это не расстроит клиентов или регулирующие органы”, - также сказал Алмонд.
Чтобы понять, чего может стоить этот тип риска при ненадлежащем управлении, законодательство Великобритании о защите данных предусматривает штрафы за нарушения, которые могут составить до 17,5 миллионов фунтов стерлингов, или 4% от общего годового мирового оборота за предыдущий финансовый год, в зависимости от того, какая цифра будет больше.
Как авторитетному регулирующему органу, ICO было поручено разработать руководство по конфиденциальности и защите данных для использования ИИ в соответствии с подходом, изложенным правительством в его недавней белой книге по ИИ.
Правительство заявило, что предпочитает набор “гибких” принципов и контекстно-зависимых руководств, разработанных отраслевыми и сквозными надзорными органами для регулирования ИИ, такими как антимонопольное ведомство, управление по финансовому поведению, Ofcom и ICO, вместо введения специальной законодательной базы для управления развитием ИИ, подобной той, которая обсуждается в Европейском союзе.
Источник: stock.adobe.com
Источник: stock.adobe.com
Это означает, что в ближайшие недели и месяцы, по мере того как британский Watchdog будет разрабатывать и конкретизировать рекомендации, возникнет путаница ожиданий. Управление по конкуренции и рынкам Великобритании объявило о проведении обзора генеративного ИИ в прошлом месяце, в то время как ранее в этом месяце Ofcom высказал некоторые соображения о том, что генеративный ИИ может означать для сектора связи.
Вскоре после публикации белой книги в Великобритании Алмонд опубликовал список из восьми вопросов, которые, по его словам, должны задать себе разработчики (и пользователи) с генеративным ИИ, включая ключевые вопросы, такие как правовая основа для обработки персональных данных, как они будут выполнять обязательства по прозрачности и подготовили ли они оценку воздействия на защиту данных.
ICO прямо заявляет, что ожидает, что компании не просто примут к сведению его рекомендации, но и будут действовать в соответствии с ними. Любой, кто игнорирует это руководство и стремится ускорить вывод приложений на рынок, создаст для себя больше регуляторных рисков, включая потенциальные существенные штрафы.
Это также основано на техническом предупреждении Watchdog, сделанном прошлой осенью, когда он выделил ИИ для анализа эмоций как слишком рискованный для чего-либо, кроме чисто тривиальных вариантов использования (таких как игры для детских вечеринок), предупреждая, что этот тип “незрелой” технологии биометрии несет в себе больший риск дискриминации, чем потенциальные возможности.
“Мы еще не видели, чтобы какая-либо технология emotion AI развивалась таким образом, чтобы удовлетворять требования защиты данных, и у нас есть более общие вопросы о пропорциональности, справедливости и прозрачности в этой области”, - написала тогда ICO.
Хотя правительство Великобритании дало понять, что не считает необходимым специальное законодательство или надзорный орган, ориентированный исключительно на ИИ, для регулирования технологии, совсем недавно оно говорило о необходимости того, чтобы разработчики ИИ сосредоточили внимание на безопасности. А ранее в этом месяце премьер-министр Риши Сунак объявил о плане проведения осенью этого года глобального саммита по безопасности ИИ, который, по-видимому, будет направлен на стимулирование исследовательских усилий. Идея быстро завоевала поддержку у ряда гигантов искусственного интеллекта, сообщает TechCrunch.
0 комментариев