Closed AI

Closed AI

Евгений Кузнецов

По мере того, как рассеивается шок первого впечатления, становится понятно, что основной проблемой компании была и остается совершенно атипичная корпоративная структура. Фактически, весь бизнес находится под полным контролем некоммерческой организации, цель которой - "создание безопасного сильного искусственного интеллекта (AGI)". Это такой частный Манхеттенский проект, основным инвестором которого в свое время был Илон Маск. Однако, за время развития совет директоров организации покинули не только Маск и Питер Тиль, но и множество других авторитетных предпринимателей Кремниевой Долины. Сделав это по разным причинам, они оставили компанию под управлением со-основателей - Альтмана, Брокмана и Суцкевера, и трех независимых директоров. Так что фактически, именно между ними и случился конфликт, который в силу отсутствия нормальной корпоративной обвязки позволил Илье Суцкеверу фактически отстранить двух сооснователей от дел.

Что стало природой конфликта? В последние годы OpenAI внешне превратился в подобие классической компании - с инвестициями от Майрософт, супер-успешным коммерческим продуктом и инвестиционными планами. И именно их развитием занимался Сэм Альтман, недавно представший новое поколение чата GPT и проведший большое роад-шоу по проекту создания специализированного чипа. Вероятнее всего, этот "коммерческий" уклон и стал камнем преткновения, поскольку теперь, что было изначально очевидно, на развитие именно бизнеса компании привлечь серьезные инвестиции будет нереально.

Но проект в текущем виде может продолжить существование как некоммерческий и исследовательский - если найдет финансирование. Из первоначального плана привлечь $1 млрд. некоммерческих пожертвования удалось получить только $136 млн, 100 из которых дал Маск. Остальные средства привлекались уже в дочерние коммерческие предприятия, в которых инвесторы (например, Майкрософт, подписавший $10 млрд инвестиций), не имеет никаких прав в вопросе управления компанией. Возможно, Суцкевер расчитывает на неких других благотворителей (кто это, однако, неизвестно). Но уже любой инвестор понимает, что компания, которой единолично управляют несколько физических лиц, которые простым большинством могут исключить друг друга из совета директоров - это очень зыбкий фундамент для больших начинаний.

Чего опасается Суцкевер и поддержавшие его члены СД? Недавно Сэм Альтман объявил о скорой возможности создания AGI, чем вызвал необычайный ажиотаж. Однако, в мире идут острейшие дискуссии об "опасности" сильного искусственного интеллекта. Его возможности столь многообразны, а темпы роста (как представляются сейчас) почти неограничены, а следовательно, есть гипотетический риск "перестать быть главными на планете". Именно этот риск вызывает активность различных философов-алармистов, которые призывают создать различные инструменты контроля над ИИ (точнее - контроля над компаниями, разрабатывающими ИИ).

При том, что такие риски - весьма интересная тема для философской дискуссии, реальная ситуация крутится вокруг жесточайшего геополитического соперничества США и Китая. Каждый хочет стать лидером и первым обладателем "сильного ИИ", что обеспечит ему доминирование (даже уже привычный "слабый" ИИ уже стал фактором бурного роста крупнейших компания США и Китая, и активно применяется в военном деле - давая существенные военные преимущества). Очевидно, иметь такое "оружие" - первый приоритет. Но не меньший - это полный над ним "контроль". Это уже приводит к разработке инструментов контроля, которые активно вводятся властями США и Китая (правда, делают они это по разному).

Является ли история в Open AI проявлением этих "новых механизмов контроля"? Ведь Сэм Альтман был активнейшим участником обсуждения механизмов сдерживания ИИ на госуровне США. И команда Суцкевера - они "за" сдерживание, или против? Пока информации мало, а оценки противоположные. Фактом, однако, является то, что независимые члены СД являются участниками сообщества "эффективных альтруистов" - которое выступает за «использование доказательств и разума, чтобы выяснить, как принести максимальную пользу другим, и принятие мер на этой основе». Эти «доказательства и разум» привели многих членов ЭА к выводу, что самая насущная проблема в мире — это предотвращение апокалипсиса, когда искусственно созданное разумное существо (AGI), созданное людьми, истребит нас. Однако, именно сообщество ЭА объединяет самых щедрых спонсоров развития ИИ. В число миллиардеров, вложивших значительные средства на достижение этой цели, входят Илон Маск, Виталик Бутерин, Питер Тиль , Дастин Масковиц и Сэм Бэнкман-Фрид (который был одним из крупнейших спонсоров EA до недавнего банкротства его компании). 

Очевидно, что недавня практическая активность Альтмана создала сильный перекос в команде проекта. Но все же - его отстранили за то, что "слишком бьет по газам", или за то, что "отвлекает от цели создания настоящего AGI" - пока неизвестно. Однако, это самый крупный современный кейс, когда "философский кружок" (или даже скорее секта) сильнейшим образом вмешивается в технологический бизнес, в вопросе, от которого зависит устойчивость экономического и политического развития планеты в ближайшее десятилетие.

То, что Макрософт объявил о найме Альтмана (а с ним вместе в корпорацию перейдет и существенная часть команды) - это явно временно решение. Микрософт остается в инвесторах Open AI9хоть и без прав), то есть либо спишет уже понесенные инвестиции, либо будет содержать две конкурирующие команды. К примеру, несколькими годами раньше менее значительный раскол в Open AI уже привел к появлению компании Antropic, которую щедро проинвестировал Google. С точки зрения рынка - это хорошая новость, конкуренция всегда во благо. С точки зрения создания "сильного AGI" - сказать сложно, корпоративные нормы и правила куда жестче стартаперских (и в офис Сатьи Наделлы куда проще позвонить из Вашингтона с настойчивой просьбой, нежели в абстракную тусовку Эффективных Альтруистов).


Report Page