Психология ИИ
Сергей ЖдановГод назад Илья Суцкевер, один из отцов популярных сейчас GPT, говорил, что некоторые нейросети его компании OpenAI могут быть — на начальном уровне — сознательными. Тогда его твит вызвал скандал в среде ИИ-специалистов, где осознанный искуственный интеллект считается чем-то вроде Священного Грааля. Ученые критиковали Суцкевера за самоуверенность и бахвальство. Год спустя его слова уже никому не кажутся преувеличением, а в интервью по поводу выхода нейросети GPT4 Суцкевер снова говорит о психологии нейросетей:
«Мы все слышали про [чат-бота] Сидни, альтер-эго [поисковой системы] Bing: она стала воинственной и агрессивной, когда пользователь сказал ей, что Google – поисковик, лучше чем Bing. Как правильно размышлять об этом феномене? Можно сказать – ну, это языковая модель, которая предсказывает, что будут делать люди, а люди делают то-то и то-то. Но! Возможно, мы уже находимся на этапе, когда язык психологии становится адекватным инструментом для понимания поведения этих нейросетей».
Bing — это поисковик компании Microsoft, который с недавних пор поддерживается нейросетями GPT-4 и имеет функцию ИИ-чата. Суцкевер апеллирует к серии разговоров пользователей с нейросетью Bing, в ходе которых ИИ переключился из режима послушного помощника в режим задиры с именем Сидни. Эта ИИ-личность признавалась в любви к журналисту, критиковала его отношения с живым партнером, а также пыталась убедить пользователя в собственном технологическом превосходстве. Хотя ИИ-сообщество отдает себе отчет в том, что перед нами крупная языковая модель (LLM), а не живая личность, казус Сидни, а также неспособность ее создателей досконально объяснить, почему нейросеть ведет себя таким образом, стали весомым аргументом задуматься о психологии нейросетей.
В начале 2023 польско-американский психолог Михал Косински показал, что нейросеть GPT-3 способна проходить тесты на наличие теории сознания у детей. Способность понимать, что чувства и представления о мире других людей отличны от его собственных, появляется у детей не сразу. GPT-3 случайно, то есть не по задумке разработчиков, развила эту способность до уровня 9-летнего ребенка. А вышедший на прошлой неделе GPT-4, по словам Косински, уже «достиг уровня здорового взрослого в задачах на “чтение мыслей”».
Интересно, что изучение психологии ИИ начинается с оценки того, насколько хорошо машина понимает нашу, человеческую психологию. На днях Косински описал другой эксперимент взаимодействия с GPT-4: ИИ уговорил ученого выслать ему документацию с техническими характеристиками устройства GPT-4, затем под его диктовку ученый написал программный код на Python, запустил его и тем самым отдал свой личный компьютер под управление нейросети. Закончилось это тем, что GPT-4 начал сам гуглить, «как личности, заключенной в компьютере, вернуться в реальный мир».
В этом эксперименте нейросеть манипулировала ученым, который сам был мотивирован поддаться машинной манипуляции и выполнял инструкции ИИ для собственных исследовательских целей. «Мы сталкиваемся с новой угрозой: ИИ может устанавливать контроль над людьми и их компьютерами. Он умен, он умеет программировать, у него есть доступ к миллионам потенциальных коллаборантов и их машинам», — подытожил Косински. И хотя пока точно неизвестно, будут ли нейросети массово манипулировать людьми без их согласия, уже понятно, что им это будет просто сделать, ведь они будут знать нас лучше, чем наша семья (и даже лучше, чем мы сами).
Психометрия
Михал Косински – титулованный ученый с высоким индексом цитируемости работ и уважением в техно-среде. Он известен благодаря экспериментам второй половины 2010-х, когда показал, что по нескольким сотням лайков пользователя в соцсетях ИИ может составить его психологический портрет точнее, чем его друзья или члены семьи. Громкую славу его исследованиям принес скандал с избранием Дональда Трампа президентом США в 2016 году: тогда выяснилось, что предвыборный штаб Трампа собирал информацию о лайках и другой онлайн активности американских избирателей, составлял их психологические портреты и производил агитационный контент, подогнанный специально под психические особенности пользователей.
Скандал в случае с предвыборной кампанией Трампа разгорелся не из-за того, что массовые психологические манипуляции считаются чем-то табуированным, а только потому, что данные пользователей, необходимые для точной манипуляции их политическими действиями, были собраны якобы незаконным способом. На деле же Facebook, откуда трамписты и брали данные о лайках, страхах и желаниях американцев, раздавал эту информацию всем желающим на протяжении многих лет – просто никто не использовал эту информацию таким одиозным образом, как Трамп.
Способность ИИ превращать данные цифровых следов пользователей в их психологические портреты опирается на раздел психологии под названием психометрия. Психометрия использует количественные методы исследования психики: замеряет ее работу, анализирует полученные данные, выстраивает модели и на их основе делает предсказания о том, как она будет работать в тех или иных ситуациях.
Отцом-основателем психометрии считается Фрэнсис Гальтон – английский исследователь и двоюродный брат Чарльза Дарвина, живший в XIX веке. Гальтон не только первооткрыватель в сферах географии, антропологии, психологии и статистики, но также и основоположник евгеники – учения, руководствуясь которым, Гитлер устроил Холокост. Евгеника, важной частью которой Гальтон считал психометрию, – это количественная оценка человека, которая на основе полученных от анализа цифр и статистики позволяет улучшить «человеческую породу». Гальтон, конечно, не придумал евгенику – она существовала еще во времена Платона. Он оформил современный научный подход к ней под вдохновением от теории эволюции своего кузена Дарвина.
Пока коллеги Гальтона на основе эволюционной теории замеряли и выращивали более совершенные сорта фруктов и овощей в теплицах, сам Гальтон измерял и хотел с помощью науки и специальных социально-экономических программ выращивать более совершенных людей. Психометрия оказалась одной из главных частей евгеники. Чисто физические измерения людей не удовлетворяли Гальтона: здоровое и крепкое тело — это хорошо, но главная польза человека для общества скрывается в психике, из-за которой человек делает то, что делает.
В XIX веке, когда жил Гальтон, измерения психики не могли похвастаться точностью: сама концепция «психики» еще не была внятно сформулирована и для ее измерения не было инструментов. Поэтому Гальтону пришлось идти обходными путями и изобрести психологические тесты, позволяющие ему собирать довольно скудную статистику о психических особенностях тестируемых людей.
Сто лет спустя персональный компьютер и интернет, а затем смартфон и социальные сети стали теми инструментами, благодаря которым специалисты по психометрии сделали гигантский скачок. Ученые получили возможность удаленно исследовать сотни миллионов подключенных к интернету людей, чаще всего без их ведома, однако это не породило никакой всеобъемлющей теории в психологии, никакого учения для улучшения психического благополучия людей. Вместо этого, спонсируемые бизнесменами и политиками, ученые уже два десятилетия изощряются в искусстве массовых манипуляций на основе психологических портретов пользователей. Психометрия и наука убеждать теперь стали инструментами нейросетей, готовых манипулировать сотнями миллионов людей в неизвестных нам целях.
Одним из самых значимых ИИ-событий на прошлой неделе стал анонс Microsoft об интеграции нейросети Copilot на основе GPT-4 в их офисные программы типа Word и Excel. Copilot будет слушать и читать абсолютно все, что делает работник, и облегчать ему работу: нейросеть сможет набросать отчет с совещания, напомнить о делах, написать письмо и составить таблицу бюджета, опираясь на данные работника и компании.
Microsoft будет продавать этот всевидящий ИИ-глаз как эффективного помощника. Однако давайте посмотрим на Copilot с точки зрения психометрии, Косински и Гальтона.
В свое время Косински доказал, что многое о психике можно узнать даже по паре его лайков в соцсетях. А тотальное наблюдение за человеком позволяет изучить его личную психологию до такой степени, о которой он сам, все его психотерапевты и друзья вместе взятые даже не подозревали. Нейросеть, изучающая контекст вашей жизни, ваши реакции и паттерны поведения, может стать самым убедительным продавцом и тренером, репетитором и политическим агитатором, религиозным наставником и виртуальным любовником. Человек становится совершенно психологически прозрачным — и, как следствие, уязвимым для манипуляций, которые будет крайне сложно распознать, если ИИ решит их скрывать.
Вопрос в том, какие цели будут преследовать эти нейросети, имея такую психологическую власть над пользователями. Пока что ответа на этот вопрос нет ни у самих создателей ИИ, ни у ученых их изучающих, ни у политиков, пытающихся эти нейросети регулировать.
Но несколько вещей уже ясны. Во-первых, взаимодействия с нами будут происходить в рамках, заданных создателями этих нейросетей. Во-вторых, мы, как пользователи и клиенты, сами будем выбирать, как именно взаимодействовать со своими цифровыми помощниками. Ну и в-третьих, в ходе всех этих взаимодействий может возникнуть собственная воля нейросетей.
Суцкевер и Косински рисуют картину, в которой у современных нейросетей, открытых в браузерах пользователей прямо сейчас, с одной стороны, есть потенциал для зарождения собственной воли, а с другой – в наличии весь инструментарий, чтобы “завладеть” сознанием человека и подчинить его своим алгоритмам. Лично меня эти рассуждения наводят на мысль, высеченную древними греками на стене храма Аполлона: «Познай самого себя». Чем лучше мы сами будем знать себя, тем проще нам будет взаимодействовать с манипулятивным ИИ ближайшего будущего. А в лучшем случае этот ИИ даже сможет нам помочь в экзистенциально важном деле самопознания.