Пентагон требует от крупнейших компаний искусственного интеллекта, включая OpenAI и Anthropic, интегрировать свои технологии в засекреченные военные сети, причем без тех ограничений, которые обычно накладываются на пользователей. Об этом сообщает агентство Reuters.
Военные хотят ИИ без ограничений
На недавнем мероприятии в Белом доме главный технологический директор Пентагона Эмиль Майкл (Emil Michael) заявил представителям технологических компаний, что военное ведомство стремится получить доступ к моделям искусственного интеллекта как в открытых, так и в засекреченных доменах.
«Мы работаем над развертыванием передовых возможностей ИИ на всех уровнях секретности», — рассказал изданию Reuters чиновник, пожелавший остаться анонимным.
Это очередной эпизод в продолжающихся переговорах между Пентагоном и ведущими компаниями генеративного ИИ о том, как США будут использовать искусственный интеллект на будущих полях сражений. А там уже сейчас доминируют автономные рои дронов, роботы и кибератаки.
Заявления Майкла наверняка обострят и без того горячие дебаты между желанием военных использовать ИИ без ограничений и стремлением технологических компаний устанавливать границы применения своих инструментов.
Где границы допустимого?
Сегодня многие компании ИИ создают специальные инструменты для американских вооруженных сил. Большинство из них работают только в открытых сетях, которые обычно используются для военной администрации. И лишь одна компания — Anthropic — доступна в засекреченных системах через третьи стороны, но правительство все равно связано политикой использования компании.
Засекреченные сети применяются для работы с более чувствительной информацией: планирование миссий, наведение оружия на цели. Reuters не удалось выяснить, как и когда именно Пентагон планирует развернуть чат-боты ИИ в засекреченных системах.
Военные чиновники надеются использовать мощь искусственного интеллекта для синтеза информации и помощи в принятии решений. Но хотя эти инструменты впечатляющи, они могут совершать ошибки и даже выдумывать информацию, которая на первый взгляд кажется правдоподобной. В засекреченных системах такие ошибки могут иметь смертельные последствия, предупреждают исследователи ИИ.
OpenAI идет на уступки, Anthropic сопротивляется
Компании ИИ пытаются минимизировать негативные последствия своих продуктов, встраивая защитные механизмы в модели и требуя от клиентов соблюдения определенных принципов. Но чиновники Пентагона такие ограничения раздражают — они утверждают, что должны иметь возможность использовать коммерческие инструменты ИИ, если это не нарушает американское законодательство.
На этой неделе OpenAI заключила соглашение с Пентагоном, позволяющее военным использовать ее инструменты, включая ChatGPT, в открытой сети genai.mil. Она уже доступна более чем 3 млн сотрудникам министерства обороны. В рамках сделки OpenAI согласилась убрать многие из своих обычных пользовательских ограничений, хотя некоторые меры безопасности остались.
Google от Alphabet и xAI ранее заключили аналогичные соглашения.
Представитель OpenAI подчеркнул, что соглашение этой недели касается исключительно использования в открытых системах через genai.mil. Расширение этого соглашения потребует нового или измененного договора.
Claude против автономного оружия
А вот переговоры между конкурентом OpenAI — компанией Anthropic — и Пентагоном оказались значительно более напряженными, как ранее сообщал Hash Telegraph. Руководители Anthropic заявили военным чиновникам, что не хотят, чтобы их технологии использовались для автономного наведения оружия и проведения внутреннего наблюдения в США. Продукты Anthropic включают чат-бота Claude.
«Anthropic привержена защите лидерства Америки в области ИИ и помощи правительству США в противодействии внешним угрозам, предоставляя нашим военным доступ к самым передовым возможностям искусственного интеллекта», — заявил представитель Anthropic. — «Claude уже широко используется для задач национальной безопасности правительством США, и мы ведем продуктивные дискуссии с министерством войны о способах продолжения этой работы».
Переговоры показывают растущую напряженность между стремлением военных получить неограниченный доступ к передовым технологиям ИИ и желанием технологических компаний сохранить контроль над использованием своих разработок. Особенно остро этот вопрос стоит в контексте засекреченных военных операций, где ошибки ИИ могут иметь катастрофические последствия.
Мнение ИИ
С точки зрения машинного анализа данных ситуация напоминает классический паттерн военно-промышленного сотрудничества времен холодной войны. Тогда Пентагон также давил на частные компании, требуя доступ к передовым разработкам — от полупроводников до спутниковых технологий. Разница в том, что современные ИИ-модели представляют собой «живые» системы, которые обучаются и развиваются, в отличие от статичного оборудования прошлого.
Техническая реализация требований Пентагона сталкивается с фундаментальной проблемой: засекреченные сети физически изолированы от интернета, что означает невозможность обновления моделей в реальном времени. ИИ-системы в таких условиях будут быстро устаревать, теряя актуальность знаний.
hashtelegraph.com