Третья мировая ИИ война
Сергей ЖдановКто должен регулировать ИИ?
В последние недели мировое ИИ-сообщество обсуждает важнейший вопрос регуляции ИИ: как (и главное — кто) должен регулировать самую могущественную технологию в истории человечества. ИИ развивается с такой скоростью, что некоторые участники дебатов о регуляции говорят, что уже поздно что-либо регулировать: нужно единовременно остановить все ИИ-разработки, чтобы следующие пару десятилетий посвятить решению проблем управления ИИ-сущностями, которые в ближайшее время должны стать умнее людей, — иначе ИИ-владыки нас просто уничтожат. Но другая, гораздо более весомая, часть ИИ-сообщества далека от фаталистичного футуризма пессимистов и обсуждает регуляцию ИИ просто — как вопрос распределения власти и денег.
Давайте для начала подумаем, кто вообще может контролировать и регулировать ИИ:
– ИИ-бизнес. Это люди, лучше других разбирающиеся в технологии ИИ. Они сумели организовать человеческие коллективы и перераспределить доступные им ресурсы (вычислительные мощности и данные) таким образом, что в результате получилось ИИ вроде ChatGPT или Google Bard. ИИ-бизнесмены не обязаны в своей работе отстаивать интересы государств или народов, зато обязаны максимизировать прибыль своих компаний и их акционеров, а также удовлетворять своих пользователей, которыми могут быть и другие бизнесы, и граждане, и государства. Регуляция ИИ для этой группы – вопрос чисто практический, от которого они обычно хотят добиться простых результатов: платить как можно меньше налогов и не иметь проблем с законом стран, в которых работает их бизнес.
– Государственные чиновники. Политиков и законодателей, предположительно, выбирает народ, и они облечены исполнительной и законодательной властью. Каждый чиновник на своем посту балансирует между целым миксом интересов: личные интересы, интересы бизнеса и интересы государства. В отдельных случаях чиновники могут действовать и в интересах всего человечества — по крайней мере, упоминать эти интересы, как это происходит в климатических вопросах. Для чиновников регуляция ИИ – сложный вопрос, так как чиновники как класс не разбираются в ИИ и не до конца понимают, на что он способен, однако даже без погружения в вопрос видят, что он сулит нешуточные проблемы от беспрецедентных уровней безработицы и экономических кризисов, до политических катаклизмов и международных войн. Поэтому, хотя они и не понимают саму технологию, но понимают, что ее срочно нужно регулировать – отсюда синхронность законодательных инициатив в разных странах, о чем мы поговорим чуть позже.
– Народ. Это разрозненная общность людей, которая не имеет консенсуса желаний и общих интересов по поводу ИИ, но везде фигурирует как единая сущность, которую пытаются обслужить ИИ-бизнесмены и чьи отношения с ИИ пытаются зарегулировать политики. В демократических обществах народ решает многое: выбирает представителей государства и политиков на выборах, делает бизнесменов миллиардерами, “голосуя долларом”, бунтует, если что-то идет совсем не так.
В вопросе ИИ народ – большая сила хотя бы потому, что именно мы, пользователи со всего мира, создаем данные и контент, необходимые для воспитания продвинутого ИИ. Не стоит недооценивать и чисто технологическую силу народа в цифровых вопросах: хотя подавляющее большинство граждан разбираются в ИИ даже хуже чиновников, сообщества ИИ-энтузиастов, не привязанных к компании или стране – грозная сила. Децентрализованный, или народный, подход к развитию технологий лежит у самих истоков интернета и всего последовавшего за этим развития. Показательна, например, история индустрии кибербезопасности, которая в 90-х начиналась с хакеров-ноунеймов, самостоятельно находивших уязвимости в коде самых дорогих и авторитетных корпораций вроде Microsoft, а затем продававших информацию об этих уязвимостях либо самим корпорациям, либо их соперникам, либо спецслужбам. Индустрия кибербезопасности показала государству и бизнесменам, что вооруженные технологиями одиночки способны перещеголять укомплектованные тысячами сотрудников корпорации и государственные службы.
Открытая и закрытая модели
Итак, три стороны – государства, бизнесы и граждане – сейчас участвуют в обсуждении того, как нужно регулировать ИИ, главную технологию ближайшего будущего. Сразу оговоримся, что народ на самом деле пока что не участвует в регуляции ИИ полноценно, его время придет, когда начнутся массовые потери рабочих мест, а нейросети станут пугающе мощными. Мне кажется важным помнить, что ИИ касается всех и каждого, в том числе самых обычных граждан, так что самое малое, что могут граждане сделать – осознавать, что эта дискуссия идет прямо сейчас.
Америка, Китай и Европа – три ключевых игрока в сфере ИИ на уровне чиновников и государств. Китай выпустил черновик закона, регулирующего генеративный ИИ, в начале апреля 2023 года, Евросоюз – в начале мая, а в США, мировом лидере в сфере ИИ, даже черновика закона пока нет, зато есть горячие дебаты вокруг того, как этот закон должен выглядеть.
Китай, в котором есть официальная государственная идеология, сконцентрировался на вопросах соответствия ИИ своим социалистическим нормам. Невозможность контролировать американский ИИ вроде систем OpenAI с идеологической точки зрения привела к бану западных систем в Поднебесной. Запрет на иностранный ИИ сработает как фора для китайских ИИ-корпораций вроде Baidu и Alibaba, которые уже относительно успешно разработали собственные аналоги ChatGPT – Ernie и Tongyi Qianwen соответственно. Сразу отметим, что Китай пока что единственная страна, чьи мегакорпорации догоняют американские в разработке ИИ-систем и даже претендуют на первенство.
ЕС в своем черновике Акта ИИ запрещает то, что разрешено в Китае и уже не первый год практикуется на общенациональном масштабе: например, использование биометрических систем и систем распознавания лиц в реальном времени без специальных разрешений со стороны суда и полиции или запрет на создание социального рейтинга (визитной карточки Китая) и предиктивного раскрытия преступлений. В целом Европа не столько настраивается на развитие собственной ИИ-индустрии, сколько пытается избежать апокалиптичных сценариев, к которым, очевидно, относится концепция социального рейтинга, где ИИ будет определять ценность человека, решать что ему разрешено и запрещено, а затем идеально воплощать разрешения и запреты, так как будет точно знать, где находится человек, и иметь возможность автоматически контролировать городскую среду и даже его квартиру.
США, будучи бесспорным технологическим лидером, никогда особо не заботилась о законодательной регуляции этих технологий из-за веры в свободный рынок и настойчивого лоббирования представителей технобизнеса, твердящих, что политики должны оставить в покое инженеров. Поэтому все удивились, когда на прошлой неделе в США провели публичные сенатские слушания, где глава OpenAI Сэм Альтман фактически предложил и даже попросил американское правительство регулировать ИИ-корпорации вроде его компании. Опасность нерегулируемого развития ИИ в глазах правительства на заседании выразил сенатор Джон Кеннеди: «фракция берсерков в ИИ-комьюнити могут специально или неспециально использовать ИИ, чтобы убить нас всех или навредить нам всем». Альтман согласился с такой угрозой и предложил правительству выдавать компаниям лицензии на развитие продвинутого ИИ и строго запретить всю нелицензированную разработку и применение.
Хотя часть ИИ-среды, сконцентрированная на опасностях ИИ, восприняли предложение Альтмана с энтузиазмом, большая часть встала на дыбы и обвинила Альтмана в том, что он пытается через манипуляцию простоватыми сенаторами, которые, по их же признанию, не очень понимают что такое ИИ, зацементировать лидерские позиции своей OpenAI – его корпорация точно получит все нужные лицензии, однако это сделает практически невозможным появление новых компаний и конкурентов. Вместе с Альтманом, который кроме OpenAI представлял своих партнеров из Microsoft, на слушаниях выступала представительница компании IBM и тоже поддержала идею с лицензированием, да и Google, которого на заседании не было, тоже вполне поддерживает такие регуляции, так как это законодательно закрепит за корпорацией лидерские позиции в ИИ.
Крайне интересную позицию занимает Meta Марка Цукерберга: компания критикует идею монополизации ИИ-разработок. Сила продвинутых ИИ-моделей во многом определяется количеством ее параметров: гугловский Bard работает на 540 млрд параметров, GPT-4 от OpenAI, хотя компания не раскрывает этих данных официально, по подсчетам специалистов, работает на 1 трлн параметров, ну а китайский чемпион Ernie от Baidu – на 260 млрд параметров. На контрасте LLaMA, ИИ-модель Meta, фактически выложенные в открытый доступ, работают в промежутке от 7 до 65 млрд параметров – в разы меньше, чем модели ведущих конкурентов. Тем не менее, на основе этих бесплатных моделей Meta независимые разработчики со всего мира (тот самый «народ») разрабатывают системы, технически превосходящие некоторые функции ИИ гигантов вроде OpenAI, Microsoft и Google! Цукерберг продвигает модель edge-ИИ, когда вместо централизованной ИИ-системы (как у Альтмана и ко) работает система небольших децентрализованных нейросетей, запускаемых не на центральных серверах, а работающих прямо с устройств. Такую модель поддерживает и Apple, которая разрабатывает для своих устройств специально заточенные под содержание ИИ микрочипы.
Однако, кто бы какую модель ни предлагал и ни пытался законодательно обставить, все без исключения представители ИИ-мира признают, что мы стоим на пороге ИИ-катаклизмов, а роботы убийцы – отнюдь не единственная и не самая страшная (пока что) перспектива.
Законодателей всех стран пугает мысль о том, что ИИ-терористы будущего, вооруженные продвинутыми нейросетями, смогут в домашних условиях создать вирус из подручных средств и отравить 100 миллионов людей или что-то в этом роде. Но и это не самая большая опасность.
Перспективы 3 мировой войны
Работая над этой колонкой, я наткнулся на цитату Илона Маска за 2017 год. Тогда он комментировал слова Путина о том, что нация, которая будет лидировать в сфере ИИ, будет править миром: «Китай, Россия, а скоро все страны с крепкой компьютерной наукой. Соревнование за ИИ-превосходство на уровне государств скорее всего закончится Третьей мировой войной». Чуть позже Маск снова повторил эту мысль, слегка видоизменив ее: третья мировая война начнется тогда, когда одна из стран разработает футуристичную ИИ-систему и попытается с
удержать другую сторону от создания аналогов, так как эта технология окажется слишком мощной и меняющей все правила игры.
Давайте еще раз вспомним, что нужно для развития продвинутых ИИ-систем:
- мощные компьютеры (hardware),
- пользовательские данные (data)
- и программный код (software).
Пока компании вроде Meta раздают ИИ-алгоритмы даром, последняя software часть ИИ-уравнения не играет принципиального значения.
Война за пользовательские данные (data), необходимые для создания мощного ИИ, уже началась. Именно в этом ключе нужно трактовать рекордный штраф ($1,3 млрд) за опасное обращение с пользовательскими данными для Meta в Европе – в вопросе ИИ не спасают даже союзнические отношения между правительствами стран. Еще более выпукло выглядит нарастающий бан TikTok в Европе и США из-за опасений, что соцсеть неконтроллируемо делится данными западных чиновников и пользователей с китайским правительством.
И совсем очевидно выглядит война за сверхмощные компьютеры (hardware), необходимые для создания продвинутого ИИ, а точнее, — за их ключевой компонент. Тайвань – главный производитель самых продвинутых микрочипов в мире (компания TSMC) и одновременно одна из самых политически и военно напряженных точек в мире. Не вдаваясь в историю тайваньского вопроса, можно обобщить: заводы производителя микрочипов TSMC критически важны для развития ИИ, а значит для ИИ-сверхдержав – США и Китая. Можно также сказать, что сейчас США имеет больший доступ к тайваньским технологиям, что во многом обеспечивает их преимущество в ИИ-гонке перед Китаем, а Китай хочет воссоединиться с Тайванем и получить полный контроль над производством лучших процессоров, чтобы вырваться вперед в этой гонке. К ужасу самих тайваньцев, США и Китай настолько настроены на соперничество за полупроводниковые заводы острова, что лучший план американцев по защите Тайваня — предложение взорвать заводы TSMC, чтобы Китаю незачем было захватывать эту территорию. Получается, что даже если американцы не смогут помочь Тайваню отбить теоретическое вторжение китайцев, они готовы собственноручно разрушить экономику 20-миллионной страны, лишь бы не отдать микрочипы в руки главного ИИ-конкурента. Так выглядит регуляция ИИ в исполнении государств.
Третья мировая война как ИИ-война просматривается еще и через аргументы активистов вроде Елиезера Юдковского — главного ИИ-алармиста и проповедником цифрового апокалипсиса. Он утверждает, что мы в полушаге от разработки сверхмощного ИИ, который уничтожит человечество буквально сразу, как очнется (и это произойдет скоро) – поэтому человечество должно заключить договор и остановить ИИ исследования, чтобы пару десятилетий посвятить осмыслению того, как сдержать ИИ, когда он станет сильнее нас. И раз создание такого продвинутого ИИ угрожает всему человечеству исчезновением, то Юдковскому и его единомышленникам кажется логичным план уничтожить страну, которая слишком вплотную подобралась к созданию такого опасного ИИ. Он пишет: «Отслеживайте продажу всех процессоров. Если разведка говорит, что какая-то страна не соблюдает договор (по сдерживанию разработки ИИ) и строит кластер для содержания ИИ-системы, то не стоит бояться войны между странами, нужно быть готовым разбомбить этот дата-центр авиаударом».
В конечном итоге все сводится к очень простой мысли: регуляция ИИ невозможна без регуляции людей, а как регулировать людей, мы понимаем еще меньше, чем как регулировать нейросети. Поэтому на семь бед у человечества один ответ: всех убить.
Лично я надеюсь, что до того, как мы все убьем друг друга, нам все же удастся с помощью ИИ лучше разобраться в самих себе и прекратить проецировать свое внутреннее насилие на нейтральные машины. Но об этом в другой раз.