Суверенный ИИ?
МНМ-Эксперт: главные тезисы панельной дискуссии, организованной Мастерской новых медиа, на форуме «Диалог о фейках 3.0».
Для борьбы с дезинформацией, укрепления присутствия российской системы знаний в интернете и нейросетях, депутат Государственной Думы, первый заместитель председателя комитета по просвещению Алена Аршинова предложила переводить области знаний России на все языки мира:
Мы должны укреплять систему образования. Никто не должен думать или предполагать, что учителя заменит робот или искусственный интеллект. Наша задача – укрепить учителя для того, чтобы он был опорой ученика, мог помочь разобраться, выйти из этой угрожающей фейками системы.
Но если использование нейросетей все же необходимо в учебном или рабочем процессе, нужно сочетать этот навык с критическим мышлением, которое, по словам замгендиректора по стратегии и прогнозированию ЭИСИ, кандидата политических наук Екатерины Соколовой, было утрачено еще с появлением интернета:
Теперь студенты также некритично относятся к тому, что им пишет GPT или другие чаты. И, конечно, наше будущее зависит от того, на какой мы стороне и как мы будем развивать собственную экспертизу.
В источниках информации, которой можно доверять, нуждаются не только молодежь, но и старшие поколения. О результатах исследования запросов в различных возрастных группах рассказал главный редактор 360 Алексей Коваль:
Мы стараемся на этом доверии работать в том числе и с искусственным интеллектом. Поэтому в нашей редакции не используется генерация видео в оперативных новостях. Мы используем ее только в более легких темах. А также мы всегда титруем то, что видео сгенерировано в нейросетях.
Своим айтитрекинговым исследованием фейковых новостей поделился также руководитель кафедры РГУ им. А.Н. Косыгина, доктор экономических наук, участник «Мастерской новых медиа» Борис Тхориков:
Люди от 18 до 24 лет и старше 55 лет в отдаленных [от зоны боевых действий] регионах на сегодняшний момент времени хуже всего воспринимают фейки и принимают их за правду. И в качестве промежуточных выводов: мы глубоко уверены в том, что одно повышение медиаграмотности населения не способно обеспечить борьбу с фейками. У нас нет от природы никакого механизма, чтобы определять, правдивая или ложная информация до нас сейчас доносится. И здесь крайне важна государственная информационная политика.
Тезис о том, что искусственный интеллект можно «накачать» той или иной идеологией, подтвердил геополитический аналитик из Франции, президент Института 1717 Эммануэль Леруа. В качестве примера он привел нейросеть Grok:
Чтобы сохранить нашу культуру, наш менталитет, нашу религию, нужно создать наш суверенный искусственный интеллект. Сейчас на наших глазах разворачивается битва между, можно сказать, «Кремниевой долиной» и остальным миром. С одной стороны, есть униполярный, однополярный, глобалистский искусственный интеллект, а с другой стороны, должен развиваться многополярный искусственный интеллект, который включает в себя свободу и равенство.
По словам Леруа, именно справедливый, многополярный искусственный интеллект поможет сохранить человечество. При этом, важно контролировать разрыв между теми людьми, которые не используют нейросети, и их активными пользователями, – считает CEO Aiinfluence, вице-президент АКАР и член Клуба руководителей медиа Алексей Парфун.
Если мы будем преодолевать его недостаточно решительно, будет возрастать разрыв между теми странами, кто развивает искусственный интеллект, и кто его не развивает, между теми людьми, кто его использует и теми, кто его не использует. Потому что это вызов и это преимущество, которое получают люди с доступом к этой технологии. Если мы не будем контролировать разрыв, это повлияет на общество, экономику и другие сферы.