Системы искусственного интеллекта общего назначения в проекте Регламента Европейского союза об ИИ
howtocomply_AI
Недавно мы публиковали пост о дискуссиях, которые ведутся вокруг закрепления систем ИИ общего назначения в проекте Регламента ЕС об ИИ. Для полноты картины советуем с ним предварительно ознакомиться.
Системы ИИ общего назначения (general purpose AI systems) умеют выполнять неопределенный круг задач в разных сферах. Они могут распознавать изображения и речь, генерировать аудио и видео, выявлять закономерности из массива данных, отвечать на вопросы. Яркими примерами систем ИИ общего назначения являются GPT-4, ChatGPT, DALL-E 2, Bard, LaMDA, Stable Diffusion 2.0, MidJourney. Как правило, они разрабатываются крупными компаниями, так как их обучение и поддержание работоспособности - дело затратное.
Важной особенностью систем ИИ общего назначения является то, что компании, которые их разрабатывают (уровень разработки), могут предоставить доступ к этим системам другим участникам рынка, чтобы они интегрировали их в свои сервисы (уровень применения). Последние могут использовать готовые обученные модели или дообучать и настраивать их под специфические задачи.
Проект Регламента ЕС об ИИ использует риск-ориентированный подход и делит все системы ИИ на четыре группы. Чем выше риск нарушения прав человека от использования отдельных систем ИИ, тем более строгие предъявляются к ним требования. К системам ИИ высокого риска применяются достаточно объемные требования, вплоть до необходимости прохождения процедуры оценки соответствия (conformity assessment) в некоторых случаях.
Определение систем ИИ общего назначения и раздел 1а, посвященный их регулированию, появились в проекте Регламента только после поправок 2022 года.
Согласно актуальной редакции проекта Регламента система ИИ общего назначения (наш обзор определений можно найти тут) представляет собой систему ИИ, которая - независимо от способа ее размещения на рынке или ввода в эксплуатацию, в том числе в виде программного обеспечения с открытым исходным кодом - предназначена поставщиком для выполнения общеприменимых функций, таких как распознавание изображений и речи, генерация аудио и видео, обнаружение образов, ответы на вопросы, перевод и другие; система ИИ общего назначения может использоваться во множестве контекстов и быть интегрирована во множество других систем ИИ.

Требования к системам ИИ общего назначения применяются независимо от того, вводятся ли они в эксплуатацию (или выводятся на рынок) в виде готовой предварительно обученной модели или подвергаются дальнейшей тонкой настройке фактическими пользователями.
При этом важно, что такие системы ИИ могут быть признаны высокорисковыми, если они применяются в сферах, отраслях и случаях, предусмотренных статьей 6 и приложениями 2 и 3 проекта Регламента.
Высокорисковые системы ИИ общего назначения должны соответствовать требованиям главы 2 раздела 3 Регламента и ряду прямо указанных статей 16aa, 16e, 16f, 16g, 16i, 16j, 25, 48, 61. Данные требования начинают действовать с даты применения имплементационных актов Еврокомиссии, которыми будут уточнены и адаптированы особенности применения требований Регламента к системам ИИ общего назначения. Акты Еврокомиссии должны быть приняты не позднее 18 месяцев с момента вступления в силу проекта Регламента. При этом сам проект Регламента планируется принять во второй половине 2023 года (актуально на момент написания материала). Положения акта начинают применяться по истечению 36 месяцев (есть несколько исключений в статье 85) с даты его вступления в силу. Таким образом, европейские законодатели оставили себе достаточно времени для дальнейшей разработки нормативных требований. Однако риски использования систем ИИ общего назначения актуальны уже сейчас. Об этом свидетельствует масса примеров, когда они предоставляют ложную информацию и демонстрируют предвзятость.
Глава 2 раздела 3 проекта Регламента устанавливает ряд общих требований к системам ИИ выского риска. Эти требования, например, касаются следующих тематик: системы риск-менеджмента, данные и управление данными, техническая документация, ведение учета, прозрачность и предоставление информации пользователям, надзор со стороны человека, точность, надежность и кибербезопасность.
Статья 16 определяет отдельные требования к поставщикам (providers) систем ИИ; статья 25 - требования об уполномоченных представителях поставщиков в ЕС; статья 48 - требования к декларациям соответствия систем ИИ; статья 61 - требования к проведению поставщиками мониторинга систем ИИ выского риска после их вывода на рынок.
Однако эти требования не применяются, если поставщик явно исключил все сценарии высокорискового использования в инструкциях к системе, руководстве пользователя или иной сопровождающей информации.

На днях междисциплинарная группа экспертов в сфере ИИ выпустила Пять соображений по вопросу регулирования применения систем ИИ общего назначения проектом Регламента ЕС об ИИ.
Эти и другие положения проекта Регламента подверглись критике со стороны группы экспертов. В руководстве они указывают на то, что бурное развитие больших языковых моделей и иных систем генеративного ИИ является лишь “верхушкой айсберга”, поэтому необходимо разрабатывать регулирование с прицелом на будущее.
В документе изложены пять ключевых соображений, которыми следует руководствоваться при регулировании систем ИИ общего назначения.
Регулирование должно применяться к широкому кругу систем
Эксперты указывают, что определение систем ИИ общего назначения, содержащееся в актуальной редакции проекта Регламента, является шагом в верном направлении, но имеет ряд недостатков.
Во-первых, оно не содержит исчерпывающего перечня методов и подходов к созданию систем ИИ. Это приведет к неоправданному ограничению объекта регулирования. Не нашли отражения в тексте такие методы, как, например, машинное зрение, распознавание речи, мультимодальный анализ.
Во-вторых, во избежание излишне узкого подхода предлагается использовать технически нейтральное определение, которое не будет связано с конкретным уровнем технологического развития. Такое определение должно позволить индентифицировать универсальные системы ИИ, которые могут быть использованы для решения высокорисковых задач.
Использование систем ИИ общего назначения сопряжено с рисками
Рассматривая примеры использования систем ИИ общего назначения, эксперты приходят к выводу, что на уровне разработки на рынок могут попадать системы, имеющие недостатки, которые создают риски нарушения прав человека. Например, они могут производить ложную информацию, оскорбления, распространять персональные данные. Системы могут быть обучены на некорректных или незаконно полученных данных. Соответственно, при их использовании риски возникновения непредвиденных негативных последствий только увеличиваются. Компании, применяющие системы ИИ общего назначения в своих продуктах, могут не знать или не быть в состоянии распознать, оценить и нивелировать риски.
Регулирование должно распространяться на все этапы жизненного цикла системы
По мнению экспертов, эффективного регулирования можно добиться за счет установления требований не только для уровня применения, но и для уровня разработки.
Во-первых, только на уровне разработки возможно интерпретировать основные компоненты предварительно обученной модели - такие как данные, на которых она была обучена, или пробелы в оценке базовой модели, для уровня применения в большинстве случаев эта информация разработчиками не предоставляется.
Во-вторых, разработчики могут получать финансовую выгоду от передачи систем на уровень применения, но при этом избегать ответственности за возможные негативные последствия.
В-третьих, после создания системы ИИ могут сохранять конструктивные зависимости от разработчиков (например, с облачной инфраструктурой).
В-четвертых, разработчики должны быть ответственными за данные, дизайн системы и иные решения, принятые в ходе разработки. В противном случае в целях избежания ответственности разработчики будут создавать системы под брендом заказчика.
Недопущение перекладывания ответственности с этапа разработки на этап применения
Содержащийся в актуальной редакции проекта Регламента подход об исключении систем ИИ общего назначения из группы высокорисковых, если поставщик явно исключил все подобные сценарии их использования в инструкциях к системе, руководстве пользователя или иной сопровождающей информации, является ошибочным.
Во-первых, сама модель информирования пользователя о высокорисковых сценариях использования через техническую документацию или руководства не является эффективной, особенно с учетом сложности таких систем и обилием выполняемых ими задач.
Во-вторых, из-за того, что разработчики обладают эксклюзивной информацией о данных, на которых обучена система, и ее дизайне, они должны учитывать контексты ее использования на уровне применения перед выпуском на рынок.
В-третьих, указанный подход создает дисбаланс, так как фактически предполагет перекладывание ответственности с разработчиков (как правило, большие компании) на уровень применения (которые могут являться маленькими и средними компаниями). Последние должны нести ответственность за конкретный контекст, в котором применяются эти системы. Однако полностью возлагать на них ответственность несправедливо, так как они не могут влиять на данные, используемые системой, и ее дизайн, определяемые разработчиком при создании.
Тщательная оценка систем ИИ общего назначения
Эксперты считают необходимым проведение всеобъемлющей оценки систем ИИ общего назначения до их размещения в публичном доступе. При разработке стандартов оценки следует учитывать высокие темпы технологического развития и проводить широкие общественные обсуждения.
Во-первых, необходимо выработать критерии оценки систем и требования к документации, которые будут применяться в отношении разработки систем ИИ общего назначения.
Во-вторых, регулирование не должно устанавливать ограниченные стандарты оценивания систем ИИ общего назначения. В частности, общая точность работы системы не всегда является достаточным оценочным критерием для определения ее надежности и безопасности применительно к разным случаям ее использования. В качестве примера авторы обращают внимание, что система распознавания лиц может плохо работать в отношении национальных и гендерных меньшинств, но при этом показывать высокую общую точность. Разработка стандартов оценивания осложняется широтой сценариев использования систем ИИ общего назначения и появлением их новых разновидностей.