Как думаете, есть ли лоббизм со стороны Бигтэков в сфере регулирования ИИ в Европе? Если коротко, то да.
howtocomply_AI
Вдохновились на подготовку этого поста одной мыслью – в нашем обществе все еще сохраняется позитивный образ технологических компаний. Мы привыкли связывать Apple, Google и Meta (признана экстремистской и запрещена в РФ) с их основателями. У этих ребят в футболках и джинсах добрые лица, публично они чаще всего рассуждают о вопросах в горизонте: от покорения луны до глобального потепления.
Но так ли все хорошо на самом деле. Ирония в том, что какой бы компания хорошей ни была, это бизнес и ее цель зарабатывать деньги. Это их основной интерес. Расскажем о том, как американские Бигтэки преследуют свои цели в вопросах регулирования ИИ в Европейском союзе.
По этой теме не встречали ничего лучше, чем вышедший в феврале 2023 года доклад “The lobbying ghost in the machine. Big Tech’s covert defanging of Europe’s AI Act”. Его подготовила некоммерческая организация Corporate Europe Observatory. Доклад посвящен расследованию лоббизма, который осуществляется разными игроками в ходе рассмотрения проекта Регламента ЕС “Об искусственном интеллекте” (Регламент). Этим актом будут установлены единые требования к применению систем ИИ на территории ЕС. Принятие Регламента относится к полномочиям Совета ЕС и Европарламента – законодательные органы ЕС.
Corporate Europe Observatory собрала документы от своих источников, опросила людей, участвующих в обсуждении проекта Регламента, проанализировала открытую статистику. Результаты их расследования свидетельствуют, что Бигтэк индустрия в лице Google, Microsoft и Meta лоббирует свои интересы при рассмотрении проекта Регламента. Их представители активно участвуют в обсуждениях в рамках Совета ЕС и Европарламента.

Ключевой спор идет вокруг систем ИИ общего назначения. Называются они так потому, что умеют выполнять неопределенный круг задач в разных сферах. Эти системы могут распознавать изображения и речь, генерировать аудио и видео, выявлять закономерности из массива данных, отвечать на вопросы. Яркими примерами систем ИИ общего назначения являются работающие на основе больших языковых моделей GPT-4, ChatGPT, DALL-E 2, Bard, LaMDA, Stable Diffusion 2.0, MidJourney. Их разработчиками прямо или косвенно являются большие технологические компании. Напомним, что в ответ на стремительное развитие таких продуктов в проект Регламента был добавлен целый раздел, посвященный системам ИИ общего назначения – в первоначальной редакции его не было. В соответствии с новыми положениями такие системы могут признаваться высокорисковыми. А если система высокорисковая, то в отдельных случаях должна быть проведена процедура оценки соответствия (conformity assessment).
После появления в проекте Регламента положений, содержащих требования к системам ИИ общего назначения, финансируемые Бигтэками лоббистские организации значительно активизировались. Лоббисты посещали буквально все возможные мероприятия, на которых обсуждался документ. Иногда лоббизм осуществлялся даже публично. На саммите Politico "AI & Tech" вице-президент Google Мариан Кроак заявила, что системы ИИ общего назначения не должны проходить комплаенс, который будет предусмотрен в ЕС для высокорисковых систем. По ее мнению, комплаенс должны проходить компании, которые используют такие системы в своих сервисах. В частном порядке Google также направила в Еврокомиссию документ, в котором подчеркнула, что системы ИИ общего назначения сами по себе не являются высокорисковыми, а обеспечить их соответствие всем требованиям на практике будет сложно.
К призыву не регулировать ИИ общего назначения присоединилась и Microsoft. Она направила письмо председательствующему в Совете ЕС. В нем сказано про отсутствие целесообразности включения в проект Регламента раздела, посвященного системам ИИ общего назначения. Компания считает, что не зная конкретной цели и сферы применения таких систем, невозможно соблюсти ни одно из требований, предусмотренных проектом Регламента в отношении высокорисковых систем.
Примерно в это же время председательствующему в Совете ЕС правительство США направило неофициальный документ (Non-Paper). В содержании деликатно указывается, что системы ИИ общего назначения лучше из проекта Регламента убрать; требования к высокорисковым системам выполнить будет сложно; обязанность по прохождению процедуры оценки соответствия желательно переложить от разработчиков на сторонние компании.
Материалы доклада показывают, что Бигтэки в отношении проекта Регламента преследуют следующие цели:
- убрать из проекта Регламента раздел про системы ИИ общего назначения;
- изменить проект Регламента так, чтобы системы ИИ общего назначения не относились к высокорисковым;
- обязанность по прохождению процедуры оценки соответствия систем ИИ общего назначения переложить от разработчиков на сторонние компании, которые будут использовать их в своих сервисах.
Достижение Бигтэками любой из указанных целей позволит компаниям-разработчикам не проходить процедуру оценки соответствия систем ИИ общего назначения.

Перенесемся теперь в Европарламент. К январю 2023 года евродепутаты отчитались об одной тысяче проведенных с лоббистами встреч по вопросу регулирования ИИ. По статистике, большинство организаций провели одну или несколько встреч. Google возглавила список с 28 встречами. Microsoft и Meta также были в первой десятке вместе с тремя организациями-представителями гражданского общества. В парламенте депутаты разделились на два лагеря. Левые и зеленые партии отстаивают жесткое регулирование. Представители правых политических взглядов предлагают либо значительно ограничить требования к системам ИИ общего назначения, либо вообще вывести такие системы из-под действия Регламента.
Для объективной оценки ситуации нужно разделять лоббизм в Совете ЕС и лоббизм в Европарламенте. Совет ЕС является менее публичным органом, чем Европараламент, что помогает лоббистам в работе. Позиция Совета ЕС уже известна, она изложена в принятой им в декабре 2022 года новой редакции проекта Регламента. Она станет основой для дальнейших обсуждений в Европарламенте. Согласно этому документу на системы ИИ общего назначения не будут напрямую распространяться требования к высокорисковым системам. Вместо этого Еврокомиссия должна будет принять имплементационный акт (подзаконный акт), который определит какие именно требования, предусмотренные Регламентом, и при каких условиях будут применяться в отношении разработчиков систем ИИ общего назначения. Еще обращает внимание положение проекта Регламента о том, что поставщики-разработчики систем ИИ общего назначения должны сотрудничать и предоставлять необходимую информацию поставщикам-применителям, с тем чтобы последние могли исполнять свои обязанности в соответствии с Регламентом.
Бигтэки изначально хотели, чтобы раздела про системы ИИ общего назначения не было вообще, но это была задача максимум. Очевидно, что у них это не получилось. В то же время полномочия по окончательному решению вопроса Совет ЕС предложил передать Еврокомиссии. Бигтэки расчитывают, что смогут повлиять на содержание иплементационных актов Еврокомиссии с тем, чтобы их интересы были в них учтены. Тогда это можно будет назвать их победой. А пока, мы видим их успехи в вопросе перекладывания обязанности по прохождению процедуры оценки соответствия с разработчиков на сторонние компании.
Впереди будут обсуждения в Европарламенте проекта Регламента в редакции Совета ЕС. На этом этапе Бигтэки столкнуться с серьезным влияением левых политических сил и гражданского общества. Мы не сомневаемся, что они продолжат попытки добиться удобного для себя регулирования. Особенно интересно за этим наблюдать в контексте нашумевшего письма с призывом приостановить разработку больших языковых моделей типа GPT-4. Когда видишь ситуацию изнутри, то становится еще более очевидным декларативный характер заявлений публичных людей из Бигтэк индустрии.