Новые рамки: как мы будем регулировать применение ИИ в ближайшем будущем
В начале декабря почти одновременно пришли две новости о развитии искусственного интеллекта. Google презентовал новую модель ИИ – Gemini Ultra. А Евросоюз сообщил о выходе на финальную стадию консультаций по регулированию ИИ – первый в истории человечества закон на эту тему планируется принять в 2024 году. Рассуждать о качестве разных моделей ИИ пока рано, а вот поговорить о роли государств в регулировании и развитии таких систем самое время. Примеру ЕС в ближайшие годы, наверняка, последуют многие страны.
Надо сказать, что Еврокомиссия и депутаты Европарламента двигались по этому вопросу на удивление быстро. Первый проект закона появился в 2021 году и вот сейчас нам сообщают, что принципиальное согласие по нему уже достигнуто. Для ЕС, где нужно учесть интересы 27 стран-членов, это довольно короткие сроки. Руководствовались при этом двумя почти взаимоисключающими мотивами.
С одной стороны, как политики, так и технологические эксперты постоянно призывают проявлять осторожность в развитии новых моделей-ИИ. Под открытыми обращениями об «экзистенциальной угрозе человечеству» стоят подписи сотен экспертов. Среди них Сэм Олтман (глава OpenAI), Демис Хассабис (руководитель ИИ-лаборатории Google), Илон Маск (владелец Teslaи SpaceX).
С другой – конкурентные преимущества компаний и стран, которые сумеют первыми создать эффективный ИИ, также неоспоримы. Евросоюз заявлял в соответствующем докладе: «Быть мировой державой – значит быть лидером в ИИ».
Баланс «плюсов» и «минусов» при такой постановке вопроса неочевиден. Что же сейчас предлагает Европа?
Категоризация ИИ по уровням риска – неприемлемый, высокий, умеренный – с разным требованиями, предъявляемым к разработчикам и операторам соответствующих систем для работы на европейских рынках. С системой отчетности и штрафов.
Под запрет должны попасть модели, манипулирующие поведением пользователей или, например, нацеленные на определение эмоций людей на рабочих местах и в учебных заведениях. Особо сказано о системах, которые способны распознавать и категорировать людей по различным признакам. Они тоже окажутся под запретом. Тут же и обработка данных публичных камер видеонаблюдения, и социальные рейтинги, и любая биометрическая категоризация, позволяющая выделять группы по признакам расы, религии и т.д. Исключение, правда, сделано, для правоохранительных органов.
От разрешенных, но высокорисковых систем ИИ, предлагается перед выходом на рынок требовать регистрации в специальных реестрах, раскрытия информации о работе данными и соблюдения перечня требований в части информированного согласия пользователей. Специальные требования, по всей видимости, будут предъявляться там, где безопасность потребителей и сейчас контролируется европейскими властями. Это могут быть категории товаров (игрушки, машины, медицинское оборудование) или виды деятельности (медицина, образование, миграция и т.д.).
Конечно, не обойдены вниманием и столь популярные сегодня модели Generative AI(ChatGPT, Midjourney и аналоги). По замыслу авторов законопроекта для них должны быть введены три общих требования: во-первых, раскрывать как именно конкретная нейросеть работает с исходными данными (особенно – объектами авторского права); во-вторых, информировать потребителей, что они имеют дело с текстом, изображением или видео, которые были сгенерированы ИИ (попытка поставить заслон deep-fake); в-третьих, принимать технические меры, препятствующие созданию нелегального контента.
Теперь о позитивном. Евросоюз декларирует, что целью нового закона является не только введение запретов и ограничений, но и поддержка инноваций. Ради этого отказались от некоторых ранее планировавшихся мер, сделали послабления для малого и среднего бизнеса и создадут при комиссии консультативный комитет, где представители отрасли смогут доносить свою позицию до европейских властей
Честно говоря, прорывом такие меры поддержки не выглядят. Да, конкретизация правовой среды позволит предпринимателям чувствовать себя увереннее. Но новые требования придется соблюдать, в том числе за счет удорожания разработки. Между тем, на уровне громких релизов ИИ-проектов, Европа пока проигрывает США. А опыт судебных разбирательств между ЕС и технологическими гигантами вроде Google показывает, что, пока правила начнут соблюдаться действительно всеми, могут пройти годы (да и сам закон вступит в силу не раньше 2025-го).
И еще один интересный момент. В Брюсселе не скрывают, что желание быть первопроходцами в регулировании ИИ обусловлено, в том числе, желанием «задать мировой стандарт». Это действительно так работает (по крайней мере с экономиками европейского масштаба). Но одновременно открывается новый этап конкуренции юрисдикций, где различные страны и блоки будут соревноваться за «приземление» инновационных и доходных бизнесов на своей территории. В краткосрочной перспективе выиграть такую «игру» у глобальных игроков можно.
Теперь к выводам. В ЕС проделали большую работу с предсказуемым результатом – подход к регулированию технологических новаций остался прежним. Финальная версия закона может отличаться в деталях, но общий смысл он, скорее всего, сохранит.
Стоит ли сейчас другим государствам копировать этот опыт?
Ряд общих позиций (особенно в части моделей неприемлемого риска) рассматривать и регулировать представляется разумным. А вот заимствовать подходы в полном объеме – не факт. Регуляторные требования такого уровня для локальных игроков могу оказаться неподъемными. ЕС вынужден идти сразу на комплексное регулирование, так как потом изменить что-то в законе будет очень долгим процессом. У государств в рамках национальных правовых режимов возможностей гибко реагировать на ситуацию на конкретном рынке и в конкретной отрасли куда больше, можно двигаться поэтапно. А вот всерьез подумать над системным стимулированием внедрения ИИ в перспективных сферах деятельности будет совсем не лишним.