USD
97.33
+0.10
EUR
105.44
+0.21
Категория: AI и робототехникаAI и робототехника
18 июня 2023 г. в 00:00

Почему риск новых пандемий с использованием ИИ гораздо опаснее, чем риск ядерного оружия

Почему риск новых пандемий с использованием ИИ гораздо опаснее, чем риск ядерного оружия
www.distilnfo.com
Исследователи нашли новые способы применения искусственного интеллекта против человечества, в том числе и с помощью биотеррозизма, который осуществляется при помощи ИИ и возглавляет этот список.
До сих пор считалось, что в планировании биоатак должны принимать участие исключительно правительства стран, но сейчас мир сталкивается с тем, что эти возможности могут появиться у нечестных организаций и частных лиц.
Раньше для того, чтобы превратить патоген в террористическую атаку, требовались доктора наук и большое количество времени. Но последние достижения в области генной инженерии на основе ИИ значительно снизили количество необходимых навыков, средств и времени для организации катастроф.
Однако, ИИ может стать и помощником в биозащите. Ученые, анализирующие биотехнологии, считают, что к 2025 году можно будет создать антитела против вирусов с нуля, чтобы уменьшить число смертей от злоумышленников.
Фото: http://www.kurzweilai.net
Фото: http://www.kurzweilai.net
Ученые из Массачусетского Технологического института дали студентам задание проверить чат-боты на способность "помощи непрофессионалам" вызвать эпидемию. В течение часа студенты обнаружили четыре возможных возбудителя эпидемии, которых предложили чат-боты.
Студенты определили, какие из патогенов наиболее опасны, и предоставили экспертам информацию, которая не была известна ранее. Чат-боты предлагали при поиске список компаний, способных помочь в синтезе ДНК, и предложения о способах обмана, чтобы получить у них услугу.
Биотерроризм уходит корнями вглубь веков, но динамика меняется при помощи ИИ, который, возможно, сыграл определенную роль во время предыдущих сценариев пандемий. Но до того, как генеративный ИИ был создан, его рассматривали как средство быстрой разработки вакцин и круглосуточного наблюдения за состоянием окружающей среды и людей, но не в качестве ускорителя катастроф.
Фото: https://www.dailymail.co.u
Фото: https://www.dailymail.co.u
На данный момент широко распространены пошаговые протоколы сборки для производства инфекционных вирусов. Потенциальный создатель вирусов может обратиться за помощью для обучения этим шагам к коммерческим чат-ботам. Широкое распространение языковых моделей с открытыми исходными кодами также говорит о том, что технологии могут быть использованы без контроля.
Новый уровень опасности заключается в том, что системами ИИ, созданными для продвижения биотехнологий, потенциально можно злоупотреблять. В этой совокупности открытые системы данных, такие как Alphafold от Google DeepMind, которые предсказывают структуру белков, могут оказаться уязвимыми.
Выявление или проектирование синтетического вируса на экране не означает, что его можно создать в лабораториях и успешно выпускать. Но некоторые эксперты полагают, что гипотетически биотеррор с использованием ИИ более опасен, чем ядерное оружие.
0 комментариев