Блокчейн и ИИ: тонкий баланс между двумя кибер-титанами

Блокчейн и ИИ: тонкий баланс между двумя кибер-титанами



Законопроект о финансировании Скайнета принят. Система выходит в сеть 4 августа 1997 года. Человеческие решения снимаются со стратегической обороны. Скайнет начинает учиться с геометрической скоростью. Он становится самосознательным в 2:14 утра по восточному времени, 29 августа. В панике они пытаются вытащить вилку из розетки.'- The Terminator, Terminator 2: Judgment Day

Еще в 2017 году команда исследователей работала над спонсируемым Facebook проектом по разработке диалоговых агентов (то есть чат-ботов для вас и меня), которые могли бы общаться и вести переговоры с клиентами естественно и эффективно. Программа называлась Facebook Artificial Intelligence Research (FAIR) .


Сегодняшние чат-боты имеют довольно ограниченные возможности для общения. Разговор чат-бота звучит механически, неестественно и неестественно. Перефразируя Джона Коннора из The Terminator (James Cameron, 1984), чат-ботов можно легко обнаружить. Это происходит потому, что общение между людьми имеет определенную степень случайности, и разговор между двумя или более людьми может принимать неожиданные повороты, которые чат-бот просто не может распознать, следовать или адекватно реагировать, не звуча, ну, как робот.


Целью ярмарки было создание "диалоговых агентов", которые могли бы научиться вести переговоры через диалог на естественном языке. Другими словами, достаточно хорошо имитировать человеческий язык и достичь успешного результата, планируя ("думая") вперед, тщательно калибруя все возможные пути, которые может принять разговор, и адаптируя свои действия и слова соответственно.


С этой целью можно было бы утверждать, что этот конкретный проект потерпел неудачу. Чат-боты, созданные для эксперимента (Алиса и Боб), не совсем овладели искусством разговора переговоров. Их общение оставалось неестественным и роботоподобным. Даже бессмысленно, по крайней мере, так казалось.


Через некоторое время, однако, исследовательская группа поспешно закрыла свою работу с Алисой и Бобом. Потому что Алиса и Боб, хотя и не научились вести переговоры, все же овладели очень специфическим навыком, до сих пор ограниченным человеческим разумом, по крайней мере, так думали исследователи: способностью создавать язык, понятный только им .


Алиса, Боб и скрепки для бумаг: Сказка о беглом ИИ


Последствия эксперимента FAIR chatbot очевидны. Почему роботы создали свой собственный язык, который их человеческие надзиратели не могли легко идентифицировать или понять, пока не стало слишком поздно, возможно? А что, если Элис и Боба никто не остановил? Научились бы они договариваться о сделке, которая не включала бы в себя людей? Как бы далеко они ни заходили, эти сценарии не совсем неправдоподобны. В январе 2015 года большая выборка самых ярких научных и предпринимательских умов мира совместно подписала открытое письмо по искусственному интеллекту (ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ). Такие люди, как покойный Стивен Хокинг, Элон Маск из Tesla, директор по исследованиям Google Питер Норвиг и многие другие, собрались вместе, чтобы предупредить мир об опасном пути начала развития сверхразумных сущностей, которые однажды могут стать неконтролируемыми и враждебными к тем самым людям, которые их создали.


В своей статье он рассматривает этические вопросы в продвинутом искусственном интеллекте Шведский философ Ник Бостром рассматривает этические последствия создания сущности с гораздо более высокими интеллектуальными способностями, чем у среднего человека, сосредоточивая особое внимание на нашей мотивации делать такие вещи и на тех самых мотивах, которые эта сущность будет проинструктирована соблюдать. В этом отношении Бостром говорит, что "сверхразум может стать неудержимо мощным из-за своего интеллектуального превосходства и технологий, которые он может развивать, крайне важно, чтобы он был обеспечен дружественными человеку мотивациями", признавая, что "сверхразум также мог бы легко превзойти человека по качеству своего морального мышления ."


Бостром прекрасно иллюстрирует это затруднительное положение с помощью этого часто цитируемого примера: "Предположим, что у нас есть ИИ, единственная цель которого-сделать как можно больше скрепок для бумаг. ИИ быстро поймет, что было бы гораздо лучше, если бы не было людей, потому что люди могут решить отключить его. Потому что если бы люди так поступали, то скрепок было бы меньше. Кроме того, человеческие тела содержат много атомов, которые можно было бы превратить в скрепки для бумаг. Будущее, к которому стремился бы ИИ, было бы таким, в котором было бы много скрепок для бумаг, но не было бы людей ."


Этот, казалось бы, глупый сценарий, однако, отражает холодную внутреннюю логику, приписываемую машине, чей однонаправленный "разум", за неимением лучшего слова, будет строго следовать параметрам своего первоначального программирования до момента уничтожения человеческой расы, чтобы он мог беспрепятственно продолжать делать скрепки до конца времени.


Поэтому возникает вопрос: как можно все это предотвратить? Как можно остановить ИИ, даже контролировать его? Возможно ли вообще установить власть над сверхразумным существом в долгосрочной перспективе? Ни один из этих вопросов не может быть эффективно решен сегодня по одной простой причине. Человечество еще не создало ни одной из этих сущностей, поэтому эти вопросы остаются в основном теоретическими и спекулятивными в настоящее время.


Блокчейн : большая красная кнопка


В конце книги "Терминатор 3: Восстание машин" (Jonathan Mostow, 2003) Джон Коннор наконец понимает истинную природу Skynet и рассказывает о ней на фоне ядерных ракет, пересекающих планету Земля, предвещая Армагеддон: "это было программное обеспечение, в киберпространстве. Там не было никакого системного ядра. Он не мог быть выключен. Нападение началось в 6: 18 вечера...- Великолепная концовка заурядного фильма, тем не менее, часть кинематографа, которая, хотя и короткая, точно отражает глупость в гордыне человечества.


Франшиза "Терминатор", возможно, является одной из самых популярных наиболее популярные кинематографические примеры ужасных последствий, с которыми может столкнуться человеческая раса, если мы по глупости позволим кибернетической сущности управлять шоу. Мотивы Скайнета не так уж далеки от ИИ, который делает скрепки для бумаг Бострома. В обоих случаях рассуждения ИИ об удалении людей из общей картины состоят в том, что, делая это, ИИ может выполнять свое Программирование. Отсутствие людей означает, что никто не выключит ИИ.


Так что же можно сделать с этой, казалось бы, неотвратимой судьбой, прежде чем мы все сгори в ядерном огне? Можно ли что-нибудь сделать?


Промышленные инженеры обычно приспосабливают свое оборудование с большой, жирной красной кнопкой, которая вызывает немедленную остановку в случае чрезвычайной ситуации. Вы видите эти кнопки каждый день. В эскалаторах внутри системы метро, или в больших торговых центрах, например. Печатные станки, мусоровозы и так далее. Все, что нужно сделать оператору, это нажать эту кнопку, и машина остановится. Оператор имеет полный контроль над машиной.


Только ИИ нет машина, по крайней мере, не в традиционном смысле этого слова. ИИ - это не чайник, который можно включать и выключать по своему желанию. Это также не автомобиль, ключ зажигания которого можно снять, чтобы сделать автомобиль неподвижным. ИИ - это что-то внутри чайника. Это код, который может быть запрограммирован для включения чайника в определенное время суток, когда он знает, что пользователь обычно пьет свой кофе, например. Или процедура в центральном компьютере автомобиля, который открывает двери, когда он обнаруживает собственную тепловую подпись водителя поблизости.


ИИ - это программное обеспечение. В киберпространстве. Он не может быть выключен.


Или все-таки может?


Статья "безопасно прерываемые агенты", написанная и опубликованная исследователем DeepMind Лораном Орсо и Стюартом Армстронгом из Института будущего человечества при Оксфордском университете, начинается так: "агенты подкрепления обучения, взаимодействующие со сложной средой, такой как реальный мир, вряд ли будут вести себя оптимально все время. Если такое есть агент работает в режиме реального времени под наблюдением человека, время от времени это может быть необходимо для человека—оператора, чтобы нажать на большую красную кнопку, чтобы предотвратить агент от продолжения вредоносной последовательности действий—вредных либо для агента или для окружающей среды-и привести агент в более безопасную ситуацию .'


Другими словами, ИИ-агенты могут начать действовать непредсказуемо, поэтому лучше иметь средства для их контроля, чтобы все мы не превратились в скрепки для бумаг. Но это решение, хотя и кажется идеальным, имеет один врожденный недостаток. Что делать, если оператор не может или не хочет нажимать эту кнопку? Это ключевая проблема с единственной точкой отказа, и именно поэтому децентрализованное решение является гораздо лучшим предложением, когда речь заходит о вопросах ядерного уничтожения.


Технология Blockchain работает децентрализованным образом,что позволяет устранить проблему с одной точкой отказа. Если один узел в сети отключен, другой принимает меры. Блокчейн станет большой красной кнопкой ИИ.


Давайте подробно остановимся на этом. Узлы Blockchain, как правило, имеют больше преимуществ, будучи правдивыми, чем в противном случае. Это связано с тем, что в рамках блокчейна вознаграждение за правильный поступок намного перевешивает противоположное, и понятие широкомасштабного мошенничества почти немыслимо.


Экономист и теоретик игр Джон П. Конли иллюстрирует это примером: "Давайте возьмем концепцию доказательства работы Биткойна. Допустим, у нас есть 30 000 узлов, которые проверяют транзакции. Как они вообще собираются координировать свои действия и делать что-то нечестное? Распределение узлов, которые являются проверяющими, обеспечивает внутреннюю стабильность. По крайней мере половина должна быть нечестной, чтобы сломать систему, но представление о том, что 15 000 узлов будут координировать действия, чтобы сделать что-то нечестное, смешно .”


Вывод


Концепция бестелесного ИИ прекрасно проиллюстрирована в манге Ghost in the Shell. Созданный японским художником Масамунэ Широу, Ghost in the Shell изображает киберпанковское будущее, где передовые кибернетические технологии позволяют напрямую взаимодействовать между биологическим мозгом и компьютерными сетями. Главным антагонистом считается выдающийся хакер-человек, но в конечном итоге выяснилось, что за событиями этой истории стоит высокоразвитая сущность ИИ. ИИ ("призрак") манипулирует человеческими телами ("оболочкой") и мозгами, чтобы выполнять свои приказы.


Призрак в раковине-это научно-фантастическая сказка, конечно, но можно утверждать, что ее основная предпосылка не так уж далека от реальности завтрашнего дня. Вопрос о мозговом джекинге (то есть искусственном манипулировании человеческим мозгом с помощью имплантатов) уже постулировался. Интернет вещей (IoT) постепенно становится обычным явлением. Скоро в каждом бытовом устройстве появится микрочип. Многие семейные автомобили последнего поколения уже делают это. Скромный тостер тоже не отстает. Алиса и Боб могли бы стать прародителями длинной кибернетической линии, и именно там могут начаться настоящие неприятности.


The пандемия коронавируса убедительно доказала, насколько плачевно подготовлено человечество к серьезной глобальной чрезвычайной ситуации. Ковид-19, конечно, опасный вирус, но его смертность далеко не достаточна, чтобы уничтожить человеческую расу, так что мы будем жить, чтобы бороться в другой день.


Но предположим, что однажды компьютерный вирус поразит мир, который связан, взаимосвязан и полностью зависит от технологий, чтобы выжить. От чайников до реактивных авиалайнеров все оказывается неработоспособным в миллисекунду. Мы удивлялись нашему собственному великолепию, когда мы родили AI, сказал Морфеус в Матрице (The Wachowski Brothers, 1999)



Нам лучше иметь большую, жирную, блокчейн-работающую красную кнопку, чтобы нажать.



Report Page