Белый дом укрощает ИИ: США ищут правила игры для бигтеха
Искусственный интеллект — технология, которая изменяет традиционный подход к регулированию бизнеса. Скорость инноваций и сложность ИИ-продуктов уже не согласуются с патерналистскими привычками государства. Возникает множество вопросов: как обеспечить безопасность технологии? кто будет за это отвечать? и что делать с экспортом ИИ-технологий? Администрация Байдена впервые попыталась договориться о правилах с бигтехом.
Белый дом объявил, что получил «добровольные обязательства» от семи ведущих технологических компаний, которые занимаются разработкой искусственного интеллекта. Фирмы обещали следить за рисками, связанными с новой технологией. На встрече присутствовали топ-менеджеры Amazon, Anthropic, Inflection, Google, Meta, Microsoft и OpenAI. Администрация Байдена назвала этот документ «большим шагом вперед» в процессе регулирования отрасли. Событие оказалось действительно знаковое, так как участники имеют совершенно разные представления об исследованиях и развитии ИИ.
Например, Meta стремится сделать технологию доступной всем разработчикам и открыть исходный код продукта. Другие лаборатории, такие как Anthropic, придерживаются более осторожного подхода и выпускают технологию с ограниченным доступом. Совершенно другая политика у Google, которая придерживается радикального взгляда на обучение ИИ: недавно компания объявила, что разрешила самой себе использовать все доступные данные интернета для обучения ИИ-алгоритмов.
Это соглашение — попытка определить точки для сотрудничества между компаниями, которые находятся в состоянии жесткой конкуренции. Искусственный интеллект стал для бигтеха «святым Граалем», который потеснил другие ноу-хау, на которые возлагали большие надежды: блокчейн или метавселенные. Однако одержимость новой технологией вызывает опасения экспертов: начиная с распространения дезинформации до глобального апокалипсиса и восстания машин. В соглашении перечислены восемь пунктов, которые должны определить, каким будет регулирование отрасли в будущем.
- Компании обязуются проводить внутреннее и внешнее тестирование безопасности своих систем перед их выпуском.
Сейчас каждая компания уже проводит тестирования безопасности своих моделей перед выпуском. Такие группы тестирования называют «красными командами». Однако обязательство оказалось слишком расплывчатым, и в нем не содержится подробностей, какие именно тестирования требуются и кто будет их проводить. Белый дом объявил, что тестирование моделей ИИ «будет частично проводиться независимыми экспертами» и сосредоточится на биобезопасности и кибербезопасности, а также «на его более широких социальных последствиях».
Вероятно, это обязательство — начало пути по разработке стандартного набора тестов безопасности, которые применялись бы ко всем продуктам, попадающим на рынок. Для образца эксперты могут воспользоваться опытом OpenAI и Anthropic, которые уже выработали алгоритмы проверки ИИ-моделей. Еще один вопрос — кто будет финансировать эти тесты. Сейчас многие тесты на безопасность финансируют и контролируют сами производители, что вызывает очевидные вопросы о конфликте интересов.
- Компании обязуются делиться информацией в отрасли, а также с правительствами, гражданским обществом и академическими кругами об управлении рисками ИИ.
Некоторые компании-разработчики уже публикуют информацию о своих ИИ-моделях, обычно в виде научных статей или сообщений в корпоративных блогах. Также некоторые из них, например OpenAI и Anthropic, также публикуют технические документы, описывающие шаги, которые предприняла команда для повышения безопасности этих моделей. Но такая прозрачность половинчатая: никто из компаний не собирается раскрывать свои коммерческие тайны и делиться критически важной для бизнеса информацией.
Когда OpenAI разработала свою последнюю большую языковую модель GPT-4, она решила не раскрывать объем данных, на которых обучались ее алгоритмы. Также компания не пояснила размер модели, объяснив отказ соображениями конкуренции и безопасности. Затем OpenAI вовсе заявила, что приостанавливает обучение модели следующего поколения GPT-5, также не обнародовав сведения. Обычно технологические компании предпочитают скрывать такие данные от конкурентов — и общество остается в неведении, на какой стадии разработки находится технология.
Из обязательства неясно, какой объем сведений будет обязательным для публикации. Также непонятно, может ли привести такая прозрачность к ускорению гонки ИИ-разработки. Принцип прозрачности предполагает, что компании будут делиться информацией друг с другом. Однако в случае предотвращения опасных рисков одной компанией неизвестно, не приведет ли публикация этой информации к большим рискам — ведь недобросовестные конкуренты могут воспользоваться этой идеей в своих целях.
- Компании обязуются инвестировать в кибербезопасность и средства защиты от внутренних угроз.
Эта проблема не вызывает споров среди разработчиков искусственного интеллекта. Речь идет о так называемых Model weights (Веса модели) — технический термин, который описывает критически важные функции, поэтому компании заинтересованы в жестком внутреннем контроле. Утечки весов моделей уже случались: веса для оригинальной языковой модели Meta LLaMA уже появлялись на форуме 4chan и других ресурсах всего через несколько дней после того, как модель была выпущена. Риск новых утечек никуда не исчезает, если учитывать заинтересованность других стран в краже новой технологии у американских компаний.
- Компании обязуются содействовать обнаружению уязвимостей в своих ИИ-системах третьими сторонами и сообщать о них.
Это обязательство остается неясным, поскольку компании обычно обнаруживают уязвимости в своих моделях после их выпуска. Это происходит, когда пользователи пытаются обойти ограничения модели и придумать такие способы взлома, которые компании не предвидели. Белый дом призывает создать «надежный механизм отчетности» об этих уязвимостях, но непонятно, что это может означать. Кнопка обратной связи или программа вознаграждения за обнаружение ошибок? Этот пункт соглашения требует более детального разбора.
- Компании обязуются разработать надежные технические механизмы, которые давали понять пользователю, что контент создан ИИ.
Сейчас компании пытаются разработать инструменты, которые позволяли бы людям определять, создан ли контент искусственным интеллектом или пользователем. Это действительно насущная проблема, когда работники начинают выдавать работу, созданную ИИ, за свою собственную. Однако разработанные инструменты не совершенны: они не могут опознать ИИ-контент со стопроцентной точностью. Поэтому пока стороны обсуждают возможности введения водяных знаков или других ярлыков, которые сигнализировали бы о происхождении контента.
- Компании обязуются публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования своих ИИ-систем.
Обязательство оставляет компаниям большое пространство для маневра. Как часто разработчики должны сообщать о возможностях и ограничениях своих систем? Насколько подробной должна быть информация? Многие компании узнают о новых возможностях моделей постфактум, когда они уже вышли на рынок. В таком случае насколько точно они могут описать эти возможности и ограничения заранее?
- Компании обязуются уделить первоочередное внимание исследованиям социальных рисков, которые могут представлять ИИ-системы, в том числе предотвращению предубеждений и дискриминации и защите конфиденциальности.
Этическая сторона вопроса в разработке искусственного интеллекта — самая неопределенная и расплывчатая. Если в технической сфере возможен консенсус и выработка определенных стандартов, то в сфере этики дискуссии не закончатся никогда. Вокруг ИИ-моделей также возникло множество предубеждений, и разговоры о неминуемом конце света и технологическом апокалипсисе отодвинули на задний план насущные проблемы, которые необходимо решать здесь и сейчас: это предвзятость, дискриминация, конфиденциальность при работе с чат-ботами и другими ИИ-продуктами.
- Компании обязуются разрабатывать и внедрять передовые ИИ-системы, чтобы помочь решить самые большие общественные проблемы.
Человечество возлагает большие надежды на искусственный интеллект: многие считают его панацеей, которая спасет от рака или изменения климата. Безусловно, сами по себе ИИ-модели вряд ли способны кардинально изменить социальную жизнь и сделать ее лучше. Вопрос заключается, как их создатели смогут эффективно применить свои продукты на благо общества. Часто они даже не подозревают о таких возможностях. Например, разработчики DeepMind в исследовательских целях обучили свою модель играть в настольную игру го — и результат оказался полезен для предсказания трехмерных структур белков, что подтолкнуло фундаментальные исследования в биологии.
В целом соглашение между Белым домом и технологическими компаниями носит скорее символический, чем обязывающий характер. Сегодня не существует механизма, который обеспечивал бы соблюдение компаниями этих обязательств. Многие из положений уже отражают меры предосторожности, которые применяют разработчики ИИ-моделей. Другие — лишь намерения, которые придется реализовать в будущем.
За рамками соглашения остался вопрос международного регулирования. Например, как США будет контролировать экспорт технологий и противостоять желанию Китая и других стран завладеть ИИ-программами или компонентами, которые используются для их разработки. Уже сегодня действуют технические ограничения на продажу полупроводников и программного обеспечения. Но расширение ограничений на ИИ-сферу может вызвать большее сопротивление среди компаний: разработка требует огромных усилий и ресурсов, часто она не ограничена только одной юрисдикцией.
Соглашение иллюстрирует новый подход к технологическому регулированию, который возможен между бизнесом и государством. Техническая сложность и трудоемкость процесса разработки, скорость инноваций требуют более гибкой реакции на изменения в сфере искусственного интеллекта. Государственное регулирование остается бюрократическим и, как выясняется, в такой сфере не способно эффективно следить за выполнением обязательств. Чтобы решить эту проблему, необходима большая свобода действий и ответственность со стороны компаний.