Обзор предложений сообщества европейских авторов и исполнителей в связи с распространением генеративных систем ИИ
howtocomply_AI
В Европе недавно было опубликовано открытое письмо представителей творческих профессий, в котором изложены их предложения о том, как следует регулировать использование генеративных систем ИИ (Authors and Performers Call for Safeguards. Around Generative AI in the European AI Act).
Составители письма утверждают, что рассматриваемый сейчас проект Регламента ЕС об искусственном интеллекте игнорирует их авторские права, поскольку разрешает использование генеративных систем ИИ с минимальными к ним требованиями. В связи с этим они призывают Парламент, Комиссию и Совет рассмотреть возможность внесения следующих поправок в проект Регламента ЕС об ИИ:
а) генеративные системы ИИ должны регулироваться на протяжении всего жизненного цикла продукта, особое внимание нужно уделить поставщикам базовых моделей (большие языковые модели и др.);
О похожем предложении мы писали в посте про регулирование систем ИИ общего назначения (прим. такие системы разрабатываются и функционируют на основе базовых моделей). Действительно, некоторые проблемы эффективно могут быть разрешены на уровне разработки базовой модели. Например, информация о наборе данных, на котором обучена модель, а также о всех ограничениях и возможностях модели может быть не в полной мере известна поставщику, который применяет ее в своем продукте, но не является ее разработчиком.

б) размещение базовых моделей на европейских рынках должно быть обусловлено тем, что поставщики продемонстрируют выполнение следующих минимальных требований:
– полная прозрачность используемых для обучения данных;
– надежность данных для обучения с точки зрения достоверности, точности, объективности и разнообразия, в частности, документальное подтверждение того, что достаточная доля данных для обучения поступает из европейских источников и основана на профессиональных материалах;
– подтверждение наличия правовых оснований для сбора и использования обучающих данных – как для персональных данных (в соответствии с GDPR), так и для неперсональных данных (в соответствии с Европейским законом об авторском праве);
– ответственность за весь контент, создаваемый и распространяемый ИИ, в частности, за нарушение личных и авторских прав, дезинформацию или дискриминацию;
– отсутствие алгоритмического или иного продвижения созданного ИИ контента, которое мешает продвижению контента, созданного человеком, или приводит к диффамации последнего, а также принятие разумных мер по предотвращению возникновения чрезмерного доверия пользователей к контенту ИИ;
– разделение процессов создания и распространения контента, сгенерированного ИИ: поставщики базовой модели (они же разработчики) не должны одновременно управлять цифровой платформой распространения контента;
Управление одним субъектом одновременно генеративным ИИ и цифровой платформой (например, поисковой системой или социальной сетью) пугает авторов письма тем, что такой субъект будет способен создавать персональные профили пользователей на основе данных, собранных на платформе, и генерировать системой ИИ персонифицированный контент и продвигать его через ту же платформу. При этом с таким кастомизированным подходом к генерации и продвижению контента будет сложно конкурировать контенту, создаваемому человеком.
Нам представляется, что разрешение этой проблемы через строгие запреты не является эффективным. Вместо этого необходимо обеспечить конкурентный и равный доступ к цифровым платформам разным компаниям-разработчикам генеративных систем ИИ и субъектам, распространяющим контент, создаваемый человеком. Это позволит потребителю самостоятельно выбирать тот контент, который ему больше всего подходит. Если ему нужно дешевле и быстрее, а уникальность неважна, он может воспользоваться разными генеративными системами ИИ. Для случаев, когда потребителю нужен оригинальный контент и творческий замысел, в производстве которого невозможно обойтись без человека, он должен иметь возможность свободного поиска на разных платформах контента от реальных “криэйтеров”. Не получится так, что люди, занятые в творческой индустрии, ничего не будут предпринимать для развития своих компетенций с учетом технологического развития, а регуляторы должны будут всячески спасать их от результатов прогресса. По крайней мере в истории это еще никому не удавалось.
– должен быть минимальный объем вычислений систем генеративного ИИ, который выполняется расположенной в Европе инфраструктурой, с постепенным его увеличением.
Желание локализовать в Европе инфраструктуру технологических компаний вызвано, скорее всего, экономическими и политическими соображениями отдельных государств ЕС. С одной стороны, крупные европейские страны с развитым IT сектором заинтересованы в том, чтобы их национальные компании имели преимущество над конкурентами, находящимися вне территории ЕС. С другой – маленькие страны-члены ЕС хотели бы иметь доступ к более дешевым и инновационным технологиям неевропейских компаний.
Многие компании сейчас пользуются условиями “дикого запада”, сложившимися из-за отсутствия комплексного правового регулирования. Такое положение позволяет ускорить технический прогресс и снизить издержки, но в то же время может нарушать права человека и несет риски возможных негативных последствий для пользователей генеративных систем ИИ (особенно при их использовании в коммерческих целях).

В этой связи вызывает интерес опыт компаний, которые обучают свои генеративные системы ИИ на основе правомерно полученных данных. Одним из таких примеров является продукт Adobe Firefly – создает изображения при помощи генеративного ИИ. Как указывает компания-разработчик, модель была обучена на базе данных Adobe Stock, а также на работах с открытой лицензией и контенте, находящемся в общественном достоянии, авторские права на который истекли. Продукт отмечает специальной меткой, контент, который не является результатом человеческой деятельности, а был сгенерирован автоматически. Также компания планирует дать авторам возможность генерировать контент на основе своих собственных работ.
Таким образом, компании могут перейти на обучение ИИ на легально полученных данных либо генерировать наборы данных для обучения самостоятельно. Подобные продукты будут иметь значительное преимущество для пользователей с точки зрения безопасности дальнейшей коммерциализации произведенного контента. Также причиной для компаний, разрабатывающих системы ИИ, обучать свои модели только на правомерно полученных данных может послужить отсутствие бесплатного доступа к большим данным, которые хранятся на тех или иных платформах. Уже сейчас некоторые из них сообщают о подобных намерениях: компании Reddit (социальная сеть для обмена контентом) и Stack Overflow (интернет-форум для помощи разработчикам) планируют взимать плату за доступ к данным с их платформ для обучения ИИ. Однако остается открытым вопрос, будут ли эти компании делиться прибылью с самими производителями контента.
Отметим, что опасения в обществе относительно новых технологий – явление частое. Дискуссии возникали и при создании письменности, печатного станка, автомобилей, самолетов, космических кораблей. Однако очевидно, что бесполезно стоять на пути технологического процесса, его, как говорят, проще возглавить. Вот и создателям контента предстоит научиться увеличивать эффективность своих творческих результатов за счет использования генеративных систем ИИ, а не конкурировать с ними. Сделать этот процесс менее травматичным для общества как раз и призваны этика, право и управление рисками.