To reset your password, please enter your email address or username below.

Непонятно, но очень интересно: регулирование ИИ не становится яснее для IT-компаний

Бум ИИ-отрасли поразил законодателей: теперь страны соревнуются в принятии новых правил регулирования искусственного интеллекта. Парадигма жесткого контроля над индустрией не нравится разработчикам, которые опасаются замедления инноваций. К счастью для техногигантов, правительства не спешат конкретизировать свои требования — и у создателей ИИ-систем остается пространство для маневра.

Новый указ президента США об искусственном интеллекте стал первым всеобъемлющим документом, который регулирует технологическую сферу. Администрация Белого дома в течение многих месяцев согласовывала текст указа, Байден несколько раз встречался с главами технокомпаний. Документ содержит восемь положений, на которых предлагается основывать все последующие правила регулирования индустрии.

Речь идет о новых стандартах безопасности ИИ-систем, в том числе обязанность разработчиков тестировать свои модели перед их публичным релизом и делиться результатами тестов с правительством. Также указ требует создания единых принципов использования ИИ для федеральных ведомств. Документ обращает внимание на защиту пользователей и потребителей, соблюдение их гражданских прав. Наконец, новые правила должны защитить работников от экспансии новых технологий и стимулировать инновации и конкуренции в отрасли.

Несмотря на громкие слова о прорыве в регулировании ИИ указ Байдена не является постоянным законом и будет действовать в течение срока его полномочий. Поэтому Белый дом торопится разработать всеобъемлющий постоянный документ, который конкретизирует положения указа и закрепит позицию администрации Байдена на законодательном уровне. Об ускорении процесса говорят и в Сенате, где у демократов уверенное большинство голосов.

Другим направлением стали международные переговоры о глобальном регулировании ИИ. Запущенный «Большой семеркой» так называемый «Хиросимский процесс ИИ» — форум о перспективах развития технологии — привел к созданию двух основополагающих документов: «Соглашения о международных руководящих принципах ИИ» и «Добровольному кодексу поведения разработчиков ИИ». В тексте документов перечислены 11 принципов, которыми должны руководствоваться разработчики при создании ИИ-систем.

Хотя правила считаются добровольными, его рекомендуют применять к передовым ИИ-разработкам, в том числе базовым моделям и генеративным системам. Принявшие кодекс компании должны выявлять и уменьшать риски при использовании ИИ, бороться с неправомерным использованием технологии, публиковать отчеты о возможностях и рисках, а также инвестировать в меры безопасности.

В дискуссии о будущем регулирования неожиданно бурное участие принял премьер-министр Великобритании Риши Сунак. Глава британского правительства даже созвал собственный саммит по безопасности ИИ. Форум собрал около ста политиков, ученых и представителей крупнейших разработчиков технологии. Эксперты отметили присутствие на мероприятии представителей Китая, который ранее игнорировал западные инициативы в этом направлении.

Главным достижением саммита стало принятие так называемой «Декларации Блетчли» — ее подписали 28 стран, в том числе ведущие разработчики ИИ — США и Китай, а также Европейский Союз. В документе прописаны шаги по обнаружению и научному изучению рисков, связанных с технологией. Также авторы декларации предлагают стратегию для международной политики по снижению этих рисков.

Однако у бурной законотворческой деятельности, развернувшейся в разных странах, есть и множество критиков. Они указывают на несколько слабых мест, которые имеют подобные инициативы. Например, до сих пор не выработано единой стратегии регулирования частных разработок. Указ Байдена может напрямую применяться к федеральным ведомствам, однако для контроля необходим целый закон. Здесь не обойтись без Конгресса, в котором традиционно сильное лобби технологических компаний. И они обязательно будут препятствовать ограничениям.

Чрезмерного контроля опасаются и сами авторы документов. Быстрые инициативы без обстоятельного обсуждения могут ограничить инновации и развитие всей отрасли. Важную роль играют геополитические интересы: санкционная война между США и Китаем показывает, что каждый заботится о собственном первенстве в отрасли. Это приводит к вороху санкций, от которых в первую очередь страдают разработчики ИИ.

Наконец, главный аргумент противников концепции регулирования — это неясные правила. Принятые документы дают слабое представление о том, как будет работать этот механизм. Вместо конкретных требований фигурируют лишь обтекаемые формулировки и красивые заявления, отсюда не ясна доля ответственности компаний за риски и способы их наказания. К тому же, у правительств просто нет такого количества высококвалифицированных специалистов, которые могли бы адекватно оценить разработки — все ведущие профессионалы задействованы в частном секторе и не горят желанием становиться чиновниками и терять карьерные возможности.

В условиях такой регуляторной неразберихи разработчики стараются занять прибыльную нишу и спешат выпустить новые ИИ-системы — конкуренция растет. Еще в начале года Илон Маск вместе с более 1000 экспертов призвал приостановить на полгода обучение искусственного интеллекта более мощного, чем модель GPT-4 компании OpenAI. Специалисты предупреждали, что без независимой оценки общих протоколов безопасности новая технология может угрожать будущему человечества.

Однако ученые не знали, что перед публикацией письма Маск создал собственную компанию по разработке ИИ — стартап xAI. Несмотря на призыв ввести мораторий, бизнесмен начал переманивать специалистов из конкурирующих компаний. Результатом этой двусмысленной деятельности стал новый чат-бот Grok, который обучен на пользовательских данных соцсети X. Маск заявил, что «система Grok от xAI создана так, чтобы в ее ответах было немного юмора» и чат-бот «любит сарказм и основан на сарказме».

Лояльность разработчиков к идее регулирования отрасли заканчивается там, где начинается ограничение их прибыли. Все понимают, что первенство в разработках новой технологии даст владельцу инновационной ИИ-системы огромное экономическое преимущество над конкурентами. Поэтому технологические компании не спешат раскрывать подробности обучения своих моделей, а отсутствие конкретики в первых регулирующих отрасль документах им только на руку.

Следующие саммит по безопасности ИИ намечен на весну 2024 года, мероприятие пройдет в Южной Корее. Поспешность западных стран в разработке новых правил ИИ может выйти боком для самих правительств: технология стремительно меняется каждый месяц, и выработанные концепции могут устареть уже к следующему форуму. Пример Европейского Союза показателен: Еврокомиссия разработала законопроект об ИИ до бума генеративных ИИ-инструментов, и с появлением чат-бота ChatGPT и его аналогов документ пришлось переписывать. Вышло не очень — его до сих пор не могут принять.

Автор публикации

Комментарии: 0
Публикации: 319
Регистрация: 22.06.2020