Білий дім приборкує ШІ: США шукають правила гри для бігтеху
Штучний інтелект – технологія, яка змінює традиційний підхід до регулювання бізнесу. Швидкість інновацій і складність ШІ-продуктів уже не узгоджуються з патерналістськими звичками держави. Виникає безліч запитань: як забезпечити безпеку технології? хто буде за це відповідати? і що робити з експортом ШІ-технологій? Адміністрація Байдена вперше спробувала домовитися про правила з бігтехом.
Білий дім оголосив, що отримав «добровільні зобов’язання» від семи провідних технологічних компаній, які займаються розробкою штучного інтелекту. Фірми обіцяли стежити за ризиками, пов’язаними з новою технологією. На зустрічі були присутні топменеджери Amazon, Anthropic, Inflection, Google, Meta, Microsoft і OpenAI. Адміністрація Байдена назвала цей документ «великим кроком уперед» у процесі регулювання галузі. Подія виявилася справді знаковою, оскільки учасники мають абсолютно різні уявлення про дослідження і розвиток ШІ.
Наприклад, Meta прагне зробити технологію доступною всім розробникам і відкрити вихідний код продукту. Інші лабораторії, такі як Anthropic, дотримуються більш обережного підходу і випускають технологію з обмеженим доступом. Зовсім інша політика у Google, яка дотримується радикального погляду на навчання ШІ: нещодавно компанія оголосила, що дозволила самій собі використовувати всі доступні дані інтернету для навчання ШІ-алгоритмів.
Ця угода – спроба визначити точки для співпраці між компаніями, які перебувають у стані жорсткої конкуренції. Штучний інтелект став для бігтеху «святим Граалем», який потіснив інші ноу-хау, на які покладали більші надії: блокчейн чи метавсесвіти. Однак одержимість новою технологією викликає побоювання експертів: починаючи від поширення дезінформації до глобального апокаліпсису і повстання машин. В угоді перераховано вісім пунктів, які мають визначити, яким буде регулювання галузі в майбутньому.
- Компанії зобов’язуються проводити внутрішнє і зовнішнє тестування безпеки своїх систем перед їхнім випуском.
Наразі кожна компанія вже проводить тестування безпеки своїх моделей перед випуском. Такі групи тестування називають «червоними командами». Однак зобов’язання виявилося надто розпливчастим, і в ньому не міститься подробиць, які саме тестування потрібні і хто їх проводитиме. Білий дім оголосив, що тестування моделей ШІ «буде частково проводитися незалежними експертами» і зосередиться на біобезпеці та кібербезпеці, а також «на його більш широких соціальних наслідках».
Імовірно, це зобов’язання – початок шляху з розробки стандартного набору тестів безпеки, які застосовувалися б до всіх продуктів, що потрапляють на ринок. Для зразка експерти можуть скористатися досвідом OpenAI і Anthropic, які вже напрацювали алгоритми перевірки ШІ-моделей. Ще одне питання – хто фінансуватиме ці тести. Зараз багато тестів на безпеку фінансують і контролюють самі виробники, що викликає очевидні питання про конфлікт інтересів.
- Компанії зобов’язуються ділитися інформацією в галузі, а також з урядами, громадянським суспільством та академічними колами про управління ризиками ШІ.
Деякі компанії-розробники вже публікують інформацію про свої ШІ-моделі, зазвичай у вигляді наукових статей або повідомлень у корпоративних блогах. Також деякі з них, наприклад OpenAI і Anthropic, також публікують технічні документи, що описують кроки, які зробила команда для підвищення безпеки цих моделей. Але така прозорість половинчаста: ніхто з компаній не збирається розкривати свої комерційні таємниці і ділитися критично важливою для бізнесу інформацією.
Коли OpenAI розробила свою останню велику мовну модель GPT-4, вона вирішила не розкривати обсяг даних, на яких навчалися її алгоритми. Також компанія не пояснила розмір моделі, пояснивши відмову міркуваннями конкуренції та безпеки. Потім OpenAI зовсім заявила, що припиняє навчання моделі наступного покоління GPT-5, також не оприлюднивши відомості. Зазвичай технологічні компанії воліють приховувати такі дані від конкурентів – і суспільство залишається в невіданні, на якій стадії розробки перебуває технологія.
Із зобов’язання незрозуміло, який обсяг відомостей буде обов’язковим для публікації. Також незрозуміло, чи може призвести така прозорість до прискорення перегонів ШІ-розробки. Принцип прозорості передбачає, що компанії ділитимуться інформацією одна з одною. Однак у разі запобігання небезпечним ризикам однією компанією невідомо, чи не призведе публікація цієї інформації до більших ризиків – адже недобросовісні конкуренти можуть скористатися цією ідеєю у своїх цілях.
- Компанії зобов’язуються інвестувати в кібербезпеку та засоби захисту від внутрішніх загроз.
Ця проблема не викликає суперечок серед розробників штучного інтелекту. Йдеться про так звані Model weights (Ваги моделі) – технічний термін, який описує критично важливі функції, тому компанії зацікавлені в жорсткому внутрішньому контролі. Витоки ваг моделей уже траплялися: ваги для оригінальної мовної моделі Meta LLaMA вже з’являлися на форумі 4chan та інших ресурсах усього за кілька днів після того, як модель було випущено. Ризик нових витоків нікуди не зникає, якщо враховувати зацікавленість інших країн у крадіжці нової технології в американських компаній.
- Компанії зобов’язуються сприяти виявленню вразливостей у своїх ШІ-системах третіми сторонами і повідомляти про них.
Це зобов’язання залишається незрозумілим, оскільки компанії зазвичай виявляють уразливості у своїх моделях після їхнього випуску. Це відбувається, коли користувачі намагаються обійти обмеження моделі і придумати такі способи злому, які компанії не передбачали. Білий дім закликає створити «надійний механізм звітності»про ці вразливості, але незрозуміло, що це може означати. Кнопка зворотного зв’язку чи програма винагороди за виявлення помилок? Цей пункт угоди потребує більш детального розбору.
- Компанії зобов’язуються розробити надійні технічні механізми, які б давали зрозуміти користувачеві, що контент створений ШІ.
Наразі компанії намагаються розробити інструменти, які давали б змогу людям визначати, чи створений контент штучним інтелектом, чи користувачем. Це справді нагальна проблема, коли працівники починають видавати роботу, створену ШІ, за свою власну. Однак розроблені інструменти не досконалі: вони не можуть розпізнати ШІ-контент зі стовідсотковою точністю. Тож наразі сторони обговорюють можливості введення водяних знаків або інших ярликів, які сигналізували б про походження контенту.
- Компанії зобов’язуються публічно повідомляти про можливості, обмеження та сфери належного і неналежного використання своїх ШІ-систем.
Зобов’язання залишає компаніям великий простір для маневру. Як часто розробники повинні повідомляти про можливості та обмеження своїх систем? Наскільки детальною має бути інформація? Багато компаній дізнаються про нові можливості моделей постфактум, коли вони вже вийшли на ринок. У такому разі наскільки точно вони можуть описати ці можливості та обмеження заздалегідь?
- Компанії зобов’язуються приділити першочергову увагу дослідженням соціальних ризиків, які можуть становити АІ-системи, зокрема запобіганню упередженням і дискримінації та захисту конфіденційності.
Етичний бік питання в розробці штучного інтелекту – найбільш невизначений і розпливчастий. Якщо в технічній сфері можливий консенсус і вироблення певних стандартів, то у сфері етики дискусії не закінчаться ніколи. Навколо ШІ-моделей також виникло безліч упереджень, і розмови про неминучий кінець світу та технологічний апокаліпсис відсунули на задній план нагальні проблеми, які необхідно розв’язувати тут і зараз: це упередженість, дискримінація, конфіденційність під час роботи з чат-ботами та іншими ШІ-продуктами.
- Компанії зобов’язуються розробляти і впроваджувати передові ШІ-системи, щоб допомогти вирішити найбільші суспільні проблеми.
Людство покладає великі надії на штучний інтелект: багато хто вважає його панацеєю, яка врятує від раку або зміни клімату. Безумовно, самі по собі ШІ-моделі навряд чи здатні кардинально змінити соціальне життя і зробити його кращим. Питання полягає в тому, як їхні творці зможуть ефективно застосувати свої продукти на благо суспільства. Часто вони навіть не підозрюють про такі можливості. Наприклад, розробники DeepMind у дослідницьких цілях навчили свою модель грати в настільну гру Го – і результат виявився корисним для передбачення тривимірних структур білків, що підштовхнуло фундаментальні дослідження в біології.
Загалом угода між Білим домом і технологічними компаніями має радше символічний, ніж зобов’язуючий характер. Сьогодні не існує механізму, який забезпечував би дотримання компаніями цих зобов’язань. Багато з положень уже відображають запобіжні заходи, які застосовують розробники ШІ-моделей. Інші – лише наміри, які доведеться реалізувати в майбутньому.
За рамками угоди залишилося питання міжнародного регулювання. Наприклад, як США контролюватиме експорт технологій і протистоятиме бажанню Китаю та інших країн заволодіти ШІ-програмами або компонентами, що використовуються для їх розробки. Уже сьогодні діють технічні обмеження на продаж напівпровідників і програмного забезпечення. Але розширення обмежень на ШІ-сферу може викликати більший опір серед компаній: розробка вимагає величезних зусиль і ресурсів, часто вона не обмежена лише однією юрисдикцією.
Угода ілюструє новий підхід до технологічного регулювання, який можливий між бізнесом і державою. Технічна складність і трудомісткість процесу розробки, швидкість інновацій вимагають більш гнучкої реакції на зміни у сфері штучного інтелекту. Державне регулювання залишається бюрократичним і, як з’ясовується, у такій сфері не здатне ефективно стежити за виконанням зобов’язань. Щоб розв’язати цю проблему, необхідна більша свобода дій і відповідальність з боку компаній.