Обзор Указа Президента США о разработке и применении ИИ
howtocomply_AI
30 октября 2023 года был издан Указ Президента США “О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия” (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). Указ содержит массу поручений для органов исполнительной власти, которые затем создадут нормативные, материальные и технические условия для развития инноваций в стране.
Документ является логичным продолжением реализующегося с 2018 года подхода к нормативному регулированию в сфере ИИ, который заключается в том, что государство активно поддерживает развитие инноваций, внедряет их в свои органы и помогает бизнесу избегать негативных последствий за счет принятия актов мягкого права, не тормозя при этом технологическое развитие. Подробнее про него можно почитать в моем материале тут.
Документ получился массивным, поэтому останавливаюсь более подробно на наиболее интересных с юридической точки зрения моментах.
Терминология
- Определен термин “модель ИИ” (AI model) - компонент информационной системы, в котором реализована технология ИИ и используются вычислительные, статистические методы или методы машинного обучения для получения результатов на основе заданного набора входных данных.
- Появился термин “базовая модель двойного назначения” (dual-use foundation model) - модель ИИ, которая обучена на большом объеме данных; обычно использует методику самоконтроля; содержит не менее десятков миллиардов параметров; применима в широком диапазоне контекстов; демонстрирует или может быть легко модифицирована для достижения высокого уровня эффективности при решении задач, представляющих значительный риск для безопасности страны, национальной экономической безопасности, здоровья или безопасности населения или любой комбинации этих вопросов, в частности, путем: а) существенное снижение входного барьера для неспециалистов в области разработки, синтеза, получения или использования химического, биологического, радиоактивного или ядерного оружия; б) создание условий для проведения мощных наступательных кибер-операций путем автоматизированного обнаружения и эксплуатации уязвимостей против широкого круга потенциальных объектов кибератак; или в) возможность уклонения от контроля или надзора со стороны человека с помощью средств обмана или маскировки. Также важно, что модели соответствуют этому определению, даже если они предоставляются конечным пользователям с использованием технических средств защиты, которые препятствуют использованию соответствующих опасных функций.
- Определена терминология по использованию метода красной команды в сфере ИИ (AI red-teaming). Данный метод определяется как тестирование с целью поиска недостатков и уязвимостей в системе ИИ, которое часто проводится в контролируемой среде и в сотрудничестве с разработчиками. Наиболее часто данное тестирование проводится специальными "красными командами", использующими состязательные методы для выявления недостатков и уязвимостей, таких как вредные или предвзятые результаты работы системы ИИ, непредвиденное или нежелательное поведение системы, ограничения или потенциальные риски, связанные с неправильным использованием системы.
Системы ИИ двойного назначения и стандартизация
- 270 дней компетентным органам исполнительной власти дается на то, чтобы: а) разработать документ, дополняющий NIST AI Risk Management Framework, в части генеративных систем ИИ (NIST AI 100-1. for generative AI); б) сделать аналогичный дополняющий документ в части генеративных систем ИИ и базовых моделей двойного назначения для Secure Software Development Framework; в) разработать запуск инициативы по созданию руководства и контрольных показателей для оценки и аудита возможностей ИИ с упором на возможности, с помощью которых ИИ может нанести вред, например, в области кибербезопасности и биозащиты.
- 270 дней отведено на разработку гайдлайнов по AI red-teaming для разработчиков систем ИИ, а в особенности для разработчиков базовых моделей двойного назначения.
- 270 дней дано на разработку инструментов оценки моделей ИИ и испытательных стендов ИИ по предотвращению использованию систем и моделей в опасных целях.
- В течение 90 дней для целей национальной обороны и защиты критической инфраструктуры компании, разрабатывающие или демонстрирующие намерение разработать потенциальные базовые модели двойного назначения, должны на постоянной основе предоставлять правительству информацию, отчеты или записи, касающиеся следующего: 1) любой текущей или планируемой деятельности, связанной с обучением, разработкой или производством базовых моделей двойного назначения, включая меры физической и кибербезопасности, принятые для обеспечения целостности процесса обучения против сложных угроз; 2) подтверждения права собственности на модели и параметры, а также предпринятых мер по их защите; 3) проведения оценки с использованием метода красных команд.
- Устанавливаются требования о раскрытии информации и для организаций, которые приобрели или разработали вычислительные кластеры (с указанием их месторасположения и объема вычислительной мощности).
- Органам власти поручается также разработать критерии для отнесения моделей и кластеров к этой группе. До формулирования этих критериев к ним будут относится модели для, обучения которых потребовалось 10^26 FLOPS (10^23 для использующих данные о биологических последовательностях) и кластеры, физически размещенные в одном ЦОД, соединенные сетью со скоростью более 100 Гбит/с и обладающие вычислительной мощностью более 10^20 FLOPS для обучения моделей ИИ.
- Установить требования для раскрытия информации о иностранных гражданах, которые заключают контракты с американскими компаниями по разработке моделей ИИ, которые потенциально могут быть использованы во вредных целях.
- Внедрить систему оценки рисков по использованию систем ИИ в критической инфраструктуре. Особое внимание уделяется выявлению биологических и радиоактивных угроз на стадиях разработки и применения.
Меры по обеспечению безопасности использования сгенерированного контента
Указом определяются меры по маркировке и выявлению синтетического контента, который создается органами исполнительной власти или по их заказу. Для этого предстоит разработать стандарты и методы для: 1) установления подлинности контента и отслеживания его происхождения; 2) маркировки синтетического контента, например, с помощью водяных знаков; 3) обнаружения синтетического контента; 4) предотвращения создания генеративными системами ИИ материалов о сексуальном насилии над детьми или создания интимных изображений реальных лиц без согласия; 4) тестирования соответствующего программного обеспечения; 5) проведения аудита синтетического контента.
Базовые модели двойного назначения с опубликованными параметрами
Органам исполнительной власти надлежит обратиться к частному сектору, научным кругам, гражданскому обществу и другим заинтересованным сторонам в рамках общественных консультаций для разъяснения вопросов о рисках и преимуществах использования таких моделей. В частности, надлежит исследовать: 1) риски, связанные с их тонкой настройкой или взломом защитных механизмов; 2) способы обеспечения безопасности и управления рисками; 3) нормативные механизмы (добровольное, нормативное, международное регулирование).
ИИ в контексте авторского и патентного права
- В течение 120 дней Ведомству по патентам и товарным знакам необходимо опубликовать руководство для патентных экспертов и заявителей, включающее детальные описания об особенностях рассмотрения заявок, в которых был использован генеративный контент. В течение 270 дней при необходимости выпустить обновленное руководство.
- Бюро авторского права должно подготовить отчет и рекомендации для Президента по возможным мерам, связанным с авторским правом и ИИ. В рекомендациях должны быть рассмотрены вопросы объема охраны произведений, созданных с использованием ИИ, и режим использования произведений, защищенных авторским правом, в процессе обучения моделей ИИ.
- В течение 180 дней органам исполнительной власти надлежит оказать содействие разработчикам по преодолению рисков, связанных нарушением права интеллектуальной собственности.
ИИ в контексте прав человека и уголовного судопроизводства
- Органам исполнительной власти поручается обмениваться опытом друг с другом и обучать персонал для использования систем ИИ.
- Генеральному прокурору надлежит подготовить доклад для Президента о применении систем ИИ для: 1) вынесения приговоров; 2) избрания мер пресечения; 3) досрочного освобождения; 4) полицейского наблюдения; 5) прогнозирование преступности и предиктивная работа полиции, включая включение данных о преступности в системы ИИ для прогнозирования "горячих точек" с высокой плотностью населения; 6) управления тюрьмами; 7) криминалистического анализа.
- В отчете следует: 1) определить области, в которых ИИ может повысить эффективность и точность работы правоохранительных органов; 2) рекомендовать лучшие практики для правоохранительных органов, включая гарантии и соответствующие ограничения использования ИИ; 3) сформулировать рекомендации по разработке нормативной правовой базы.
- Обеспечить права работников и предотвращать возможную дискриминацию граждан.
В акте также нашли отражение вопросы использования ИИ в отдельных отраслях экономики, улучшения защиты персональных данных и имплементации систем ИИ в деятельность государственных органов.