Прибыль и ценности
Сергей ЖдановКремниевая долина напрочь забыла всё, что еще недавно считалось “наступившим будущим” и следующей золотой жилой: метаверс, криптовалюты, NFT, AR и VR – всё это теперь в прошлом. Сегодняшнее «наступившее будущее» – это ИИ, а точнее, крупные языковые модели (LLM), среди которых безусловным лидером считается ChatGPT от OpenAI (тот самый,что две недели назад стал доступен и в Украине).
В Америке развернулась конкуренция компаний-создателей ИИ. Сатья Наделла (СЕО компании Microsoft, которая объединила свои мощности с OpenAI) разбередил техно-сообщество, открыто бросив вызов Google, который до недавнего времени считался безусловным лидером в сфере ИИ. Наделла заявил, что Google теперь нужно доказывать, что они всё ещё «умеют плясать». Google, Amazon и Meta — все крупные технокорпорации вступили в эту гонку и действителньо заплясали на полную силу: за последние две недели каждая корпорация выпустили свою собственную нейросеть, аналогичную ChatGPT.
Техногиганты спешат сорвать максимальный куш с чатоботов, пока хайп еще горяч. Согласно концепции капитализма, бешеная конкуренция производителей должна обернуться улучшением продукта и увеличением выгоды потребителей. Но когда продукт, вокруг которого пляшут капиталисты, – ИИ, возникают новые проблемы, которых не было во времена бурного развития автомобилей или домашних компьютеров: создатели нейросетей не понимают до конца, что именно они создали, и чем лучше ИИ, тем меньше его понимания человеком.
Результатом нейросетевой гонки должно стать создание AGI (сильного ИИ) – универсальной нейросети, на порядок превосходящей человеческое мышление. Ошибки при работе над такой технологией будут иметь гораздо более серьезные последствия, чем при проектировании телефона или самолета.
Представьте себе, если бы разработкой и применением атомных бомб занимались не государства, а коммерческие компании, стремящиеся во что бы то ни стало обогнать конкурентов и максимизировать прибыль. Какими могли бы быть последствия такой капиталистической атомной гонки (и было бы, кому о них писать)?
Как по свистку, в нейросетевую гонку включился и Китай. В нулевых Китайская Партия запретила работу Google, Facebook и Twitter в Поднебесной, чтобы позволить своим китайским компаниям аналогам занять ниши этих корпораций – так появились китайские гиганты Baidu, WeChat и Weibo. Технопротекционизм также позволил Партии добиться ценностного суверенитета — плотно контролировать циркулирующую в интернете информацию и распространяемые там нарративы.
Теперь эта история повторяется уже с ИИ: Партия запрещает китайским компаниям пользоваться американскими нейросетями типа ChatGPT. Такой бан нужен, в первую очередь, ради прибыли: крупные языковые модели (LLM) вроде ChatGPT сулят огромную прибыль интегрирующим их компаниям: при определенной сноровке они смогут заменить большинство юристов, финансистов, копирайтеров, рекламщиков и работников службы поддержки одной нейросетью. Ну а корпорации, которые эти нейросети разрабатывают и содержат, получат максимальную выгоду. Без конкуренции со стороны американского ИИ лидером нейросетей Поднебесной станет корпорация Baidu, которую когда-то называли «китайским Google»: ее аналог ChatGPT, чат-бот Ernie, уже работает во всех сферах деятельности корпорации, в том числе в автомобилях с операционной системой от Baidu, и будет работать на тысячи, десятки тысяч более мелких китайских компаний. Миллиарды долларов и триллионы юаней осядут в Китае.
Кроме коммерческого интереса, Китай, ограничивающий американские продукты, озабочен и контролем над ценностями. Китайский ИИ будет работать по другим законам, чем американский: это скажется в первую очередь на trust and safety layer – наборе правил и инструкций, исходя из которых нейросеть показывает или не показывает определенный контент. Правительство Китая – чемпион цифровой цензуры и управляет одной из самых «ценностно суверенных» стран мира. Ни при каких обстоятельствах оно не могло бы допустить своих граждан до свободного общения с американским ИИ, заточенным под демократические ценности.
Но не только китайскому правительству ценности американских нейросетей кажутся проблемными. В окружении Илона Маска (ключевой фигуры в сфере ИИ и претендента на лидерство альтернативной политической силы в США) проблему ценностей обсуждают на фоне поляризованности американского общества. Сейчас нейросети, в частности, ChatGPT, исповедуют прогрессивные ценности демократии, которые у республиканцев, консерваторов и либертарианцев, обильно представленных в техно-секторе, часто вызывают отторжение.
Непрогрессивная часть американский техноэлиты требует альтернативного trust and safety layer. Обвинения в адрес OpenAI часто иллюстрируется неравным отношением нейросети к разным политическим лидерам. Стих про байдена от ИИ будет хвалебным, а про Трампа нейросеть или откажется писать или напишет что-то противное, да и самого Маска ChatGPT считает «противоречивой и проблемной фигурой». На фоне таких раскладов консервативная часть техно-элиты уже презрительно обвиняют ChatGPT в wokeness. Распускаются слухи, что Маск, один из со-основателей OpenAI (комнпании, произведшей на свет “чересчур либеральный” ChatGPT), теперь собирается проспонсировать создание новой уже не-woke-нейросети.
Всё это говорит о том, что борьба за определение будущего ИИ происходит не только между разными политическими государственными системами, но и внутри самой демократии и просто — между людьми, которые так и не договорись о том, что хорошо, а что плохо.
Почему эта нейросетевая гонка не просто может оказаться — но окажется — большой проблемой для всего человечества?
Технология ИИ вступила в фазу взрывного роста, которую невозможно ни остановить ни замедлить. При этом создатели технологий не понимают до конца, как она работает и чего от нее ждать: они надеются на то, что Deus Ex Machina и сам себя объяснит, и сам разберется, что для нас всех лучше. Всё это несовпадение мощностей технологий с нашей собственной разумностью происходит на фоне безобразного срача между разработчиками и эксплуататорами технологий. Они не могут договориться не только о том, по каким ценностям и принципам она должна работать — но даже о том, где нужно прочертить для нее красную линию, которая защитит её от злоупотреблений.
Политическая вражда (между США и КНР), ценностные конфликты (между либералами и консерваторами) и тотальная жажда наживы приведут к тому, что эта красная линия станет ездить туда-сюда, пока не произойдет такой эпизод, после которого мы ужаснемся тому, на что способен ИИ, — и тому, как мы прохлопали такую очевидную опасность.
Например, подумайте о роли ИИ в разворачивающейся у нас на глазах гибридной Третьей мировой войне. Сегодня ИИ лежит в самом сердце конфликта между автократиями и демократиями: например, весь спор вокруг Тайваня сводится к ответу на вопрос о том, кто будет дальше контролировать и использовать самые продвинутые тайваньские микросхемы для создании ИИ — коллективная западная демократия, как это происходит сейчас, или же восточный авторитаризм?
ИИ-гонка между автократиями и демократиями уже выплеснулась на поле боя. Сегодня мы видим, как демократические ИИ, в первую очередь американская компания Palantir, помогают Украине на поле боя, а завтра мы вполне вероятно увидим поле боя, на котором покажет себя автократические ИИ. Тогда послезавтра начнется война ИИ — и она будет опустошительнее, чем все войны, которые нам известны.
Автоматизированная война, не требующая участия (и гибели) людей — прекрасная фантазия. Но современная война искусственных интеллектов между собой начнется гораздо раньше, чем станет возможной война автономных роботов на поле боя. Чисто технически мы пока не умеем делать роботов, которые смогут воевать вместо людей – лучшее, что доступно в данный момент, это условно автономные танки и самолеты. Но война ИИ может выглядеть как взлом и подрыв атомных электростанций, затопление городов, блокировка транспорта, уничтожение пищи и воды – короче все то, что пыталась сделать РФ в Украине, но только без военных, а с помощью кода. Если все это будет делать ИИ, работу которого ни разработчики, ни военные, запускающие его работу, не всегда смогут объяснить, — значит, они не вполне смогут его контролировать.
В 2015 году OpenAI, с подачи Илона Маска, создавалась как non-profit компания, разрабатывающая открытый для всех и прозрачный ИИ, созданный на благо общества (что бы это не значило), а не для извлечения его создателями прибыли. Но пару лет назад OpenAI сменила курс, нацелилась на прибыль и в 2023 году превратилсась в ультра-капиталиста.
Почему то, что создавалась как общественное благо, доступное всем, — превратилась в закрытую систему, существующую ради прибыли? Разумеется, у создателей компании есть разумные и объяснимые причины: из-за конкуренции со стороны китайских ИИ-компаний, которым Партия дает неограниченные средства, или из-за соревнования с другими американскими компаниями, которые переманивают к себе редкие ИИ-таланты. Да и вообще, разработка нейросетей обходится в копеечку.
Но мне кажется, что проблема все же лежит не в деньгах, а в отсутствии ценностей, которое только прикрывается погоней за деньгами. Человечество разрабатывает самую мощную технологию в истории, способную перевернуть весь мир вверх дном, но само не понимает, зачем оно это делает – то ли просто потому, что может, то ли ради денег.
Хотя ИИ — мощнейшая и быстро развивающаяся технология, прямо сейчас она пока что «учится» на материале, созданном людьми: от книг, фильмов и научных отчетов, от лайков и предпочтений контента обычных пользователей в соцсетях — и до устройства мировой политики и реакции мирового сообщества на разные вызовы. Самый стремный пример, который можно показать ИИ, — это жестокие, агрессивные войны.
Громадная совокупность дел людей от самых маленьких до самых больших — это биг дата, которой прямо сейчас кормят ИИ. Мы пришли в точку, когда практически всё, что делает практически каждый человек, сказывается на том, каким будет ИИ, его ценности и решения — а значит, каким этот ИИ сделает наше будущее. Это значит, что каждый из нас участвует в создании технологического грядущего. Это значит, что ради своей жизни и жизни будущих поколений мы должны стремиться привести свою жизнь в соответствии с теми ценностями, которым хотим сохранить жизнь.