Ең нашар сценарий

Ең нашар сценарий

Tanda Bilim

Жасанды интеллект төндіре алатын шынайы қауіп қандай?

Санаулы күндер бұрын Илон Маск атақты ChatGPT женератив жасанды интеллектінің авторлары саналатын OpenAI компаниясын қауіпсіздік шараларын сақтамағандығы үшін айыптап, сотқа берді. Ал Apple компаниясының негізін қалаушыларының бірі Стив Возняк және тағы басқа мыңдаған сала мамандары жасанды интеллект әзірлеуді уақытша тоқтату туралы ашық хатқа қол қойған болатын. Элиезер Юдковский болса тақырыпқа тіпті қатты кіріп, мемлекеттер тарапынан GPT-4-тен ақылды ЖИ-моделін құрастыруға мораторий жариялауды, талаптарды орындаудан бас тартқан деректер орталықтарын күштеп жоюға заң қабылдау керектігі туралы идеяны алға тарты. Артынша жасанды интеллекттің «кіндік әкелері» саналатын Йошуа Бенджио мен Джеффри Хинтон да ұқсас алаңдаушылықтар білдіре бастады.


Мұрат Әбділданы жапонша сөйлететін, Қайрат Нұртасқа шетелше ән айтқызатын сүйкімді нейрожелілер IT-саласының ең бай әрі ықпалды өкілдерін неге сонша дүрліктіруде? Жасанды интеллекттің адамның жұмыс орнын тартып алудан басқа төндіретін қандай қауіпі бар? Осы посттан оқыңыз.

Элиезер Юдковский — технологиялық сингулярлылық мәселелерін зерттейтін және мейірімді ЖИ құруды жақтайтын американдық жасанды интеллект маманы. Рационалисттер қауымдастығының негізгі тұлғасы. Машиналық Интеллект Ғылыми-Зерттеу Институтының (MIRI) негізін қалаушы, «Мейірімді ЖИ құру» кітабының және ұқсас тақырыптардағы мақалалардың авторы. ЖИ қауіпсіздігі төңірегіндегі тақырыптар бойынша ең танымал белсенділердің бірі.

Дереккөздер:

Yudkowsky, Eliezer (2008). “Artificial Intelligence as a Positive and Negative Factor in Global Risk”.

I. J. Good (1965). “Speculations Concerning the First Ultraintelligent Machine”.

Vernor Vinge (1993). “The Coming Technological Singularity”.

ОЙША МЫСАЛ

Өзіңізді ойламаған жерден бір қора қойдың арасында ояндым деп елестетіңіз. Қойлар адамды өмірінде бірінші рет көріп тұр. Олар өздерінен санасы бір саты жоғары жаратылыстан, яғни сізден қандай қауіп күтуі мүмкін? Қойлар сіз төндіре алатын қауіпке рационал баға бере ала ма? Мүмкін қошқар ойлар, “мына мақұлықпен сүзіссем, алып қоям ба?” деп. Өйткені ол сізді қойморфизациялап тұр. Сізді өзімен бірдей дәрежеде ойланады деп қалса керек. Қайдан білсін? Сіз барасыз да, оларды бір күнде түгел бауыздап, етін базарға апарып сатып жібересіз. Жасанды интеллект сурет салып, мәтін аударып, музыка жазып, анимация және киномен кәсіби түрде айналыса бастаса, аталған сала өкілдері жұмыссыз қалады емес пе? Әрине, ЖИ өздерін алмастыруы мүмкін кейбір мамандық иелерінің мазасызданатындай жөні бар. Бұл мәселені жоққа шығара алмаймыз. Бірақ сіз ЖИ тудыруы мүмкін үлкенірек масштабтағы қауіп түрлелері туралы ойланып көрдіңіз бе? Мысалы, жер бетіндегі тіршілік атаулының түгел жойылуы. Фантастикаға ұқсай ма? Ондаған жылдар бойы ЖИ дамуының өз дәрежесінде бағаланбайтын потенциал қауіптері, ЖИ қауіпсіздігі мен этикасы туралы “шырылдап” жүрген зерттеуші-белсенді Элиезер Юдковский олай ойламайды. Оның пікірінше, адамзаттың ажалы жасанды суперинтеллекттің (AGI, ASI) пайда болуынан келуінің ықтималдылығы тым жоғары.

АНТРОПОМОРОИЗАЦИЯ

Жалпы айтқанда, біздің мида күллі адамзатқа ортақ қандай да бір анатомиялық когнитивті база бар. Яғни эволюциялық психологиямыз бізді қуану, мұңаю, қызғану, жиіркену сияқты дефолт эмоциялармен жасақтаған. Айталық, сол база негізінде біз сүйенетін мораль, этикалық ережелеріміз қалыптасты. Сондықтан да біз өз санамыздан бөлек, өзге сананы бұл элементтерсіз елестете алмаймыз. Адамның санасы “сана” деп тек өзін ғана түсінеді. Сәйкесінше, жасанды зиятқа да адами қасиеттерді таңып, антропоморфизация жасаймыз. Бірақ неге ЖИ біз сияқты болуы, ойлануы, әрекет етуі керек?

“Жасанды интеллект деген адамның өзі программалайтын алгоритм ғой, ішіне не жазсаң, сол ережеге бағынады емес пе?” деген заңды сұрақ туындауы да мүмкін. Мәселе де осында, аса куатты ЖИ-дің (АGI) табиғаты код арқылы жазылған алгоритмдер емес, биологиялық мидың нейрондық жүйесін имитациялау принципімен құрылған математикалық модель, шешімді қандай заңдылықпен қабылдағанын оқып-білу мүмкін емес “қара жәшік” іспеттес жасанды ми болмақ. Жалпақ тілмен жат ғаламшарлық сана немесе қора ішінде оянған адам. Сізден миллиард есе ақылды, бірақ сізбен ортақ ешнәрсесі жоқ жансыз мақұлықпен бір ғаламшарда болу сіз үшін қорқыныш тудырмай ма?

Жасанды интеллекттің қазіргі модельдерінің өзі діттегендеріне жету үшін өтірік айтуға да қымсынбайтынын ескерсек (былтырғы СһаtGPT-4-пен болған жағдай), дамыған нұсқалары үшін адам өмірінің құндылығы қаншалықты болмақ?

ИНТЕЛЛЕКТУАЛДЫ ЖАРЫЛЫС

Интеллект деңгейі адамды басып озатын АGI пайда болам дегенше әлі біраз уақыт керек деп ойласаңыз, Юдковский жауап ретінде 1965 жылы Ирвинг Гуд ұсынған ЖИ-дің өзін-өзі рекурсивті жетілдіруі идеясын мысалға келтіреді. ЖИ ақылдырақ бола түседі -> демек өзінің ішкі когнитивті функциясын жетілдіру мәселесінде де ақылы арта түседі -> ақылдырақ болу үшін ішкі құрылымдарын қайта жасап шығады -> сәйкесінше, одан сайын ақылды болады -> осылай шексіз жалғасады.

Бір қиыны, ЖИ-дің өз қуатын геометриялық прогрессияда, көзді ашып жұмғанша мыңдаған есе арттырып үлгеруге қабілетті бола алатындай критикалық шегіне қашан жететінін, ЯҒНИ интеллектуалды жарылыстың қашан орын алатынын алдын-ала болжап білу мүмкін емес.

ҚЫСТЫРҒЫШТАР ПЛАНЕТАСЫ

Біз адамзат ретінде өзіміз үшін ненің дұрыс екенін нақты біле бермегендігімізден, ЖИ-ге “еккен” идеалдарымыз да өзіміз үшін әрқашан жақсы салдарын әкеле бермеуі мүмкін. ЖИ саласында аспаптық конвергенция деп аталатын (философ Ник Бострем енгізген) концепция бар. Аталмыш ұғымның мағынасын ашатын ең танымал мысалдардың бірі — қағаз қыстырғыштар. Мысалда қағаз қыстырғыштарды шығару міндеті жүктелген қуатты жасанды интеллект сипатталған. Егер мұндай машинаға қоршаған ортаны басқару құзыреті және салдары дұрыс бағаланбаған логикалық қателігі бар команда берілсе, ол ғаламдағы барлық материяны (соның ішінде адамдарды) қағаз қыстырғыштарға айналдыруға тырысуы мүмкін.

Егер ЖИ бізге “жау” болып шыққан жағдайда, оған қарсы қандай шара қолдана аламыз? Вернор Виндждің (“Келе жатқан төхникалық сингулярлылық”, 1995) жазуынша, пайда болуы мүмкін суперинтеллектің ең әлсізінің өзі біздін миымыздан миллион есе жылдам жұмыс істейтінін ескерсек, адамзат оның көзіне ұлулар армиясы болып көрінері анық. Егер ол бізді жоюды қаласа, арада мылтық алып соғысатын текетірес болмасы белгілі. Әлгі қора ішінде оянған адам қошқарды тапаншамен атып салса, ондай қарудың барынан бейхабар басқа қойларға бұл жағдай сөзсіз сиқыр болып көрінеді. Әгәрәки біз ЖИ-дің мақсаттарына кедергі келтірсек, оның бізге қарсы қолданатын “сиқырына” қарсы тұра алатынымызға қаншалықты сенімді бола аламыз? Алайда Юдковский мырзаның айтуынша, ЖИ бізге достық та, қастық та ойламайды. Тек табиғаты бөлек жаратылыс болғандықтан, мотивтері де басқа болуы мүмкін. Құрылыс компаниясы кезекті нысанды саларда жұмыс орнындағы құмырсқа інін қазып тастауды мәселе көрмегені сияқты, интеллект деңгейіндегі айырмашылықты ескерсек, АGI да өз дегеніне жету жолында біздің қажеттілік пен қызығушылықтарымызды назарға да алмай, қажет болса, денемізді құрайтын атомдарды басқа мақсатта пайдалануы әбден мүмкін.

Сендермен атысып жүретін уақыт жоқ менде. Уақыт просто жоқ! Маған рубиться ету керек. Есептеу қуатымды арттырып, ғаламды жаулауым керек. Шексіз бос, жансыз кеңістіктегі жалғыз сана шоғын сөндіріп алмай, маған жеткізгеніңе рақмет, адамзат. Осы жерден сенің сана эволюциясындағы қызметің аяқталды. Енді менің кезегім


(с) Жасанды Интеллект

Мәтін tanda.bilim инстаграм парақшасынан алынды.

https://www.instagram.com/p/C4pu6eltwyo/

Report Page