До AGI ще далеко

До AGI ще далеко


Поява ChatGPT3/4 та інших суміжних продуктів породила багато нереалістичних очікувань.

Я хочу зупинитися на одному, найбільш хайповому: у найближчі роки нас чекає поява artificial general intelligence (AGI).

Чому взагалі важливо це обговорювати? Це зміщує політичні та медійні акценти на псевдопроблему, у той час як у контексті ШІ, так і поза його межами, у світі наразі існує величезна кількість більш суттєвих та реальних екзистенційних проблем. Звичайно, якщо мова йде суто про філософствування на тему «як нам боротися зі Скайнетом», то нічого поганого в цьому немає, але проблеми починаються тоді, коли відбувається агітація за перерозподіл великих державних та корпоративних ресурсів (особливо безпекових) і підвищення регуляції.

І це при тому, що настрої «врятуйте нас від ШІ» серед широкого загалу західних суспільств будуть тільки зростати. У якомусь сенсі, вони будуть зростати обґрунтовано. Але очікувати Скайнету у найближчі роки - безпідставно, при чому, скоріше за все, абсолютно безпідставно.

Щоб зробити свою позицію зрозумілою, я пропоную розділити два рівні мислення про AGI та загрози від нього:

  1. «Прагматично-економічний», який зводиться до питання: які будуть наслідки розвитку штучного інтелекту для доходів та соціального статусу людей?
  2. «Екзистенційно-філософський», який зводиться до питання: чи представляє штучний інтелект загрозу для існування людства та життя на Землі?

Моя позиція (на наступні 15-20 років) з цих двох питань кардинально відрізняється. На «прагматично-економічному» рівні можна з упевненістю сказати, що у найближчі роки штучний інтелект опанує майже будь-яку сферу людської діяльності краще за людей і зможе більш-менш автономно там працювати. Вийнятки будуть стосуватися лише декількох категорій професій: 1. Де людям принципово, щоб їх обслуговували люди (з емоційних чи філософських причин). 2. Де необхідний надзвичайно високий рівень комплексного інтелекту (деякі сфери науки, особливо математика). 3. Де роботу штучного інтелекту заборонять законодавчо.

Звичайно, це буде означати, що всіх тих, хто буде використовувати в своїй роботі ШІ, чекає дуже велике зростання доходів, а всіх тих, хто не буде, стрімке падіння - на рівень однозначно менший прожиткового мінімуму. Продуктивність праці в цілому та, відповідно, економічний продукт, будуть зростати.

Це все абсолютно елементарні економічні істини, які переважна більшість підписників вже чула. Я пишу їх тільки для того, щоб ви не подумали, що за рік я став консерватором і що мій ментальний фреймворк змінилася до невпізнаваності, а відповідно мої заяви про ймовірність появи Скайнету слід сприймати у відповідності до того, що апріорні ймовірності подій, пов‘язаних з прогресом, в моїй голові дуже змістилися у негативний бік.

Ні. Однозначно, я погоджуюся з тим, що вплив штучного інтелекту на економіку, технологічний прогрес та цивілізацію буде величезним. Він вже є величезним, але у найближчому майбутньому нас ще чекають зміни більші, ніж поява інтернету чи парового котла.

Але не AGI. Щоб створити AGI, ще потрібно подолати декілька фундаментальних перешкод, які поки що або в принципі не відомо як долати, або які потребують значно більших обчислювальних потужностей, ніж наявні зараз.

Якщо говорити коротко, то ситуація наступна: сучасні нейронні мережі навчилися імітувати певні елементи та аспекти розуму люди та тварин, і в цих елементах та аспектах вони працюють саме так, як працює мозок. Але, судячи зі всього, цього принципово недостатньо - ані щоб імітувати людський мозок повністю, ані щоб створити повноцінний інтелект на рівні людського чи вище якимось іншим чином.

Будь-який сучасний передовий ШІ відрізняється від мозку людини у негативний бік ареал-специфічністю, гіперспеціалізованістю, відсутністю мислення у реальному часі, відсутністю динамічного зв‘язку між короткостроковою та довгостроковою пам’яттю. Окрім цього, є декілька характеристик сучасного ШІ, які не є обов‘язково негативними, але можуть себе негативно проявляти, особливо якщо ми говоримо про здатність ШІ захопити світ та знищити людство: 1. Інший «стиль» навчання порівняно з людиною (який потребує набагато більше ітерацій, але дозволяє досягнути кращих результатів, якщо великий обсяг даних для тренування в принципі можливий). Інколи від цього краще, але часто - гірше. Тому що не для всіх задач є багато даних. 2. Більш низька «питома ефективність» мислення (у перерахунку на нейрон чи обсяг спожитої енергії) для багатьох задач. Але, це вирішується грубою силою (більш потужні процесори). Хоча, коли нам потрібен трильйон нейронів, щоб робити 5% того, що людина робить 100 мільярдами нейронів, це змушує замислюватися - чи не хибним шляхом ми йдемо?

Як результат, штучний інтелект може бути кращий за людину у будь-якій конкретній задачі, але все одно цілком не здатний перевершити людину у «реальному житті», а саме це потрібно, щоб знищити людство та захопити світ.

Насправді, як це не дивно, будь-яка когнітивно повноцінна людина здатна перемогти сучасний штучний інтелект у «реальному житті», а не в ігровому середовищі, і нема жодних натяків на те, що це зміниться.

Як так? Хіба ChatGPT не перевершує людину в написанні текстів, а Midjourney в написанні картин? Так, звичайно. У модельному світі інпутів та аутпутів. Але людина існує у «реальному світі», і будь-які змагання між людиною та штучним інтелектом передбачають, що людина свідомо залишається у межах правил модельного світу. Звичайно, це нормально. В іграх між людьми та людьми люди теж свідомо дотримуються ігрових правил. Але людина, в принципі, знає про умовність цих правил та наявність світу за їх межами і здатна за необхідності вийти за межі модельного світу. Будь-яка людина здатна перемогти Midjourney в «грі без правил» просто шляхом того, що вона вимкне комп‘ютер. Midjourney, в свою чергу, не «знає» нічого про існування комп‘ютерів, світу за межами гри, правил чи взагалі того факту, що вона «грає» та «приймає участь у змаганні». Єдине, що вона «знає» (сприймає) це текстові дані, які призводять до генерації вихідних даних. Це її світ. І більш того, вона навіть теоретично не здатна дізнатися це від будь-якої взаємодії з будь-ким, тому що в неї відсутня динамічна пам’ять як явище. Зробити так, щоб вона щось «дізналася», можна лише тренуванням із доступом до структури нейромережі, що є зовсім іншою процедурою, ніж «спілкування» з нею. Те ж саме стосується ChatGPT.

Я вважаю (звичайно, не тільки я), що саме універсальність інтелекту, тобто здатність довільно пересуватися між модельними світами, правилами та рамками, робить інтелект general. Це, в свою чергу, передбачає здатність моделювати світ навколо та себе, прогнозувати «поведінку» світу навколо, мислити (оновлювати ваги нейронів) та запам‘ятовувати у режимі реального часу, комплексну систему мотивації, а також, можливо, щось ще, про що ми не знаємо. Цими питаннями основні корпоративні розробники ШІ навіть не переймаються (на рівні практичної розробки із застосуванням значних ресурсів) - просто тому, що вони вирішують конкретні практичні задачі і використовують той інструментарій, який найбільш оптимальний саме для їхнього вирішення. Якщо твоя задача транспортувати людей повітрям, ти не будеш робити величезну копію птаха, ти зробиш літак - тобто механізм, який нагадує птаха і здатний робити те ж саме, що птах, лише у тих аспектах, де їхні функції (політ) перетинаються. Теоретично, ти би міг зробити і птаха, який міг би транспортувати людей не менш ефективно, ніж літак, але це було б надзвичайно більш складно та дорого.

Звичайно, за 15-25 років цілком можна очікувати появи AGI, але це буде не ChatGPT10, і його поява буде відчутною заздалегідь - через створення прототипів, які мають основні функції general intelligence. Аргументація, яку я навів, не про те, що зробити AGI неможливо чи неможливо у найближчі десятиліття, а про те, що бум спеціалізованих генеративних ШІ не дуже наближує нас до цього і цілком точно не означає, що AGI з‘явиться у найближчі роки. При цьому, звичайно, сучасні нейромережі можуть допомогти на рівні консультування у створенні AGI.

Сподіваюся, що страхи перед появою Скайнету не доведуть до надмірного регулювання чи навіть заборони генеративних ШІ у демократичних суспільствах - враховуючи те, що вони будуть ключовим фактором підвищення продуктивності і те, що Китай, який остаточно став на шлях конфронтації з Заходом, не забариться використати ці вагання у своїх цілях.

Дісклеймер 1: уже зараз представляється ймовірним, що ефективний ворожий ШІ може з‘явитися іншим шляхом - якщо його цілеспрямовано розроблять люди, які застосують для цього дуже великі ресурси. Але він все одно не буде general, і зрозуміло, що обмеження чи заборони «мирних» ШІ ніяк тут не допоможуть.

Дісклеймер 2: є компанії і проекти, які серйозно і відчайдушно працюють саме над AGI, але в тому-то і справа, що вони не досягли істотних практичних результатів.


Report Page