Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 4

Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 4

Дмитрий Кутейников

howtocomply_AI


Друзья, возвращаюсь к вам с ещё одной частью разбора проект Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Сегодня пытаемся понять, что же представляют собой требованиям к поставщикам моделей ИИ, представляющих системные риски. Эти требования установлены в статье 55 Регламента ЕС об ИИ. Задача Кодекса — изложить эти требования в конкретных практических шагах, которые должны предпринять провайдеры для соблюдения законодательства.

Требований довольно много, и не все из них останутся в финальной редакции документа, поэтому остановимся на ключевых:

  1. Разработка системы обеспечения безопасности и защиты (Safety and Security Framework, SSF). Провайдеры должны разработать и внедрить такую систему, включающую подробное описание политики управления системными рисками (подробнее об этих рисках я писал в предыдущей части обзора). Они могут использовать предложенную в Кодексе таксономию или дополнить её при необходимости. Также необходимо разработать методологию анализа рисков, определить их источники (например, потенциально опасные возможности моделей), классифицировать их по степени серьёзности последствий и прогнозировать моменты, когда модели достигнут определённого уровня классификации. Очевидно, что речь идёт о механизме, схожем с Responsible Scaling Policy от Anthropic.
  2. Составление отчётов по безопасности (Safety and Security Reports, SSR). Для каждой модели ИИ провайдеры должны подготавливать такие отчёты на ключевых этапах её жизненного цикла. В документации должно быть подробно описано, как оценивались системные риски и какие меры были приняты для их снижения, включая соответствующую техническую документацию.
  3. Процесс принятия решений о разработке и эксплуатации моделей. Провайдеры должны создать механизм принятия решений о целесообразности разработки и развертывания модели ИИ. Этот процесс должен быть изложен в SSF и основываться на результатах SSR.
  4. Управленческие меры по снижению системных рисков. Провайдеры должны внедрять соответствующие управленческие механизмы, например, учреждать специальный комитет в совете директоров. Однако пока неясно, как эти меры должны зависеть от размера организации.
  5. Публикация SSF и SSR. Провайдеры обязаны публиковать эти документы и предоставлять их AI Office. Также они должны документировать всю необходимую информацию, связанную с соблюдением требований Регламента и Кодекса.
  6. Привлечение внешних независимых экспертов. Провайдеры должны привлекать внешних независимых экспертов (а иногда и госорганы) для оценки наличия системных рисков и эффективности мер по их снижению как на этапе разработки, так и эксплуатации моделей ИИ. Эта мера остаётся одной из самых дискуссионных. Уже сейчас некоторые ИИ-разработчики добровольно проводят такие оценки через исследовательские организации, а их результаты в агрегированном виде публикуются в модельных (системных) карточках. Некоторые компании даже прошли внешнюю оценку в окологосударственных институтах. Например, американский AI Safety Institute совместно с британским аналогом провёл предварительные оценки моделей GPT-4o от OpenAI и обновлённой Claude 3.5 Sonnet от Anthropic. Однако остаются открытыми вопросы о количестве необходимых оценок, их привязке к стадиям жизненного цикла модели и перечне независимых экспертных организаций. При обсуждении проекта Кодекса неоднократно отмечалось, что он должен разъяснять положения Регламента, но не вводить новые обязательные требования. Это значит, что вряд ли стоит ожидать появления полноценного внешнего аудита, от которого ранее отказались законодатели. Скорее всего, Кодекс просто обобщит уже существующие на рынке практики.
  7. Документирование серьёзных инцидентов. Провайдеры должны фиксировать информацию о серьёзных инцидентах и предоставлять её AI Office и национальным органам при необходимости.
  8. Защита информаторов. Провайдеры обязаны соблюдать европейское законодательство о защите информаторов и создать каналы для анонимных жалоб.

Report Page