За іх мусіць быць сорамна. Гістарычны агляд няўдалых відэакарт.
BelKantent
Відэакарты — гэта сэрца любога камп’ютара, але часам іх гісторыя нагадвае сцэнарый трагікамедыі. Некаторыя мадэлі, якія абяцалі рэвалюцыю, на справе станавіліся катастрофамі для кампаній і расчараваннем для пакупнікоў. Сярод іх можна знайсці відэакарты з крытычнымі памылкамі ў апаратнай частцы, дрэннай прадукцыйнасцю ці завоблачным коштам, які не апраўдваў чаканняў. Тыповы прыклад - выхад апошняй лінейкі RTX50 ад NVIDIA, які і натхніў мяне паглыбіцца ў неглыбокую гісторыю і распавесці вам, калі яшчэ выходзілі няўдалыя відэаадаптэры і ў чым былі іх асаблівасці. Гэты артыкул — пра самыя няўдалыя спробы ў галіне графічных акселератараў.
NVIDIA GeForce FX 5800 Ultra (2003)

NVIDIA GeForce FX 5800 Ultra з мянушкай "FLOP" (поўны правал) выпушчаная ў 2003 годзе, стала адной з самых вядомых няўдач у гісторыі графічных карт. Яна была заснавана на графічным працэсары NV30 і працавала на частаце 500 МГц, з 128 МБ памяці GDDR2 і 128-бітнай шынай. Яна сабрала ў сабе ўсе недахопы, якія толькі можна было сабраць. Асноўным з іх быў перагрэў, што ў сваю чаргу вымагала агрэсіўнага і шумнага ахалоджвання. Кулер быў нагэтулькі няўдалы, што і са сваёй задачай спраўляўся слаба і дазволіў стаць відэакарце самай гучнай у гісторыі. NVIDIA прызнала гэтую праблему і нават сама зняла жартаўлівае відэа, дзе параўноўвала сваё тварэнне з фенам, выдзімалкай для лісця і нават аэрагрылем для прыгатавання ежы.

У простанародззі яе ж проста звалі "пыласосам". Што сумна, прадукцыйнасцю сваёй яна таксама не радавала і саступала канкурэнтам ад ATI з прапускной здольнасцю 16ГБ/с супраць 20ГБ/с ATI Radeon 9700 Pro , пры гэтым цана была надзвычайна высокай - 399$ на старце продажаў.
Для NVIDIA гэта няўдача стала прыкладам дрэннага тэхнічнага дызайну і папярэджаннем, што збалансаванасць прадукцыйнасці, ахалоджвання і шуму - важны фактар.
Вынікам работы над памылкамі стаў GeForce FX 5900 Ultra, выпушчаны праз паўгады новы флагман, які меў збалансаванае ахалоджванне, прапускную здольнасць у 27 ГБ/с і энергаспажыванне ў 60 Вт (супраць 75Вт у FX 5800 Ultra)
Matrox Parhelia-512 (2002)

Гэта відэакарта стаіць тут асобна, не як звычайны правал, але як прыклад таго, што ў канкурэнцыі за інавацыйнасць можна страціць усё і растварыцца сярод канкурэнтаў.
Matrox Parhelia-512, выпушчаная ў 2002 годзе, была амбітным праектам кампаніі Matrox, якая імкнулася вярнуць сабе пазіцыі на рынку графічных акселератараў пасля доўгага перапынку. На момант старта карта прапаноўвала унікальныя магчымасці, уключаючы падтрымку трох манітораў («Surround Gaming») і новыя тэхналогіі, такія як фрагментны антыаліясінг і апаратнае паскарэнне рэндэрынгу тэксту.
Як вы ўжо пэўна здагадваецеся, праблема хавалася там, дзе яе ўвогуле быць не павінна было, і гэты крытэр мусіў быць галоўным для вытворцы. Падтрымку трох манітораў Matrox Parhelia забяспечвала, але не забяспечвала гульнявой прадукцыйнасці, нават не было падтрымкі тагачаснага DirectX9. Пры гэтым яна каштавала 399$, прычым на практыцы яе прадукцыйнасць была бліжэй да значна таннейшых мадэляў, такіх як GeForce 4 Ti4200 (150$). Праз некалькі месяцаў выйшаў ATI Radeon 9700 які прапаноўваў поўную падтрымку DirectX9 і значна пераўзыходзіў Matrox Parhelia-512 па прадукцыйнасці.
Нягледзячы на свае недахопы, Parhelia-512 знайшла невялікую нішу сярод карыстальнікаў, якім былі патрэбныя яе інавацыйныя функцыі. Аднак камерцыйны правал прымусіў Matrox адмовіцца ад далейшага развіцця гульнявых графічных акселератараў. Гэтая карта засталася ў гісторыі, як тыповая няўдалая спроба канкурэнцыі і памылковага пазіцыяніравання.
NVIDIA GeForce FX 5200 (2003)

Калі NVIDIA GeForce FX 5800 Ultra пазіцыяніравалася як флагманская відэакарта, то NVIDIA GeForce FX 5200 мусіла займаць нішу бюджэтнай, прыйшоўшы на змену слабапрадукцыйнай, але таннай і займеўшай статус народнай "затычкі" NVIDIA GeForce 4 MX440. З плюсаў агучвалася тая ж самая падтрымка DirectX9, што мусіла зрабіць відэакарту папулярнай у шырокім коле карыстальнікаў, але нешта пайшло не так, і FX 5200 пацярпела поўнае фіяска.
Праблема заключалася ў вельмі нізкай прадукцыйнасці ў DirectX9, карыстальнікі ў атрымлівалі вельмі нізкі FPS і дрэнны ўзровень графікі, што цалкам рабіла падтрымку DX9 бессэнсоўнай, бо гульні проста не хацелі запускацца ў рэжыме сумяшчальнасці. Аўтар уласнаруч меў FX5200, ад якой вельмі хутка пазбавіўся, набыўшы NVIDIA GeForce 4 Ti 4200, якая хай і была старэйшага пакалення, але прынесла ў гульні глыток свежага паветра.

Акрамя таго, FX 5200 мела састарэлую архітэктуру і працавала на павольнай памяці DDR, што яшчэ больш абмяжоўвала яе прадукцыйнасць. У параўнанні з канкурэнтамі, такімі як ATI Radeon 9000, яна прайгравала па ўсіх параметрах. Нават у бюджэтным сегменце яна не магла канкурыраваць, бо прапаноўвалася па завышанай цане, стаўшы прыкладам такога ж няўдалага балансу і пазіцыяніравання, як і флагман той жа серыі FX 5800 Ultra.
ATI Radeon HD 2900XT (2007)

ATI Radeon HD 2900 XT, выпушчаная ў 2007 годзе, сутыкнулася з шэрагам праблем, якія зрабілі яе няўдалай, асабліва гэта адчулася на фоне NVIDIA GeForce 8800GTX. HD 2900 XT пры кошце ў 399$ цалкам саступала "зялёнаму" канкурэнту. Прычынай няўдачы быў тэхпрацэс у 80нм, відэакарта спажывала 215Вт энергіі і выдзяляла вельмі шмат цяпла, пры пасрэднай прадукцыйнасці, пры гэтым патрабуючы магутнага блока сілкавання. Не дапамагала ёй і шырокая шына ў 512-біт і падтрымка DirectX10, усё было марна, бо адставала ад флагмана NVIDIA GeForce 8800GTX недзе на чвэрць.

у канкурэнцыі нават з на прыступку ніжэйшай картай "чырвоныя" прайгравалі.
Чаму так сталася, цяжка сказаць. Увогуле не прайшоў і год, як ATI была паглынута AMD (улетку 2006 года) што скалынула абедзьве кампаніі. Мажліва ўплывала пастаяннае змаганне з уласнымі драйверамі, якое было пракляццем відэакартак ATI Radeon на працягу ўсёй іх гісторыі. Няўдачы самой AMD, якая набыла ATI за шалёныя грошы і страціла канкурэнтаздольнасць з Intel, якія стварылі сваю эпоху дамінавання на працэсарным рынку. Але трэба адзначыць адно, далей справы пайшлі ў відэакартак AMD-ATI уверх. Наступная серыя Radeon HD 3000 была працай над памылкамі, а пасля Radeon HD 4000 і Radeon HD 5000 нарэшце змаглі зраўняцца і крыху пераўзысці NVIDIA, выпусціўшы свае легендарныя відэакарты гэтай лінейкі.

NVIDIA GeForce GTX480 (2010)

Nvidia GeForce GTX480 была флагманскай відэакартай, выпушчанай у 2010 годзе, першая відэакарта на базе архітэктуры Fermi і на 40нм тэхпрацэсе. У NVIDIA адразу не задалося з тэхпрацэсам, з-за чаго рэліз навінак быў адкладзены, а ў гэты момант AMD-ATI разгарнуліся і прыціскалі "зялёных" лепшай сваёй серыяй Radeon HD 5000.
Рэліз адбыўся скамканы, і GeForce GTX480 вярнула сабе першынства з перавагай у 10% над Radeon HD 5870, але коштам шалёнай цаны 500$ супраць 380$ і неверагодным энергаспажываннем звыш 200Вт і з тэмпературай графічнага чыпа вышэй за 90 градусаў.

грылем. Прыглядзіцеся, радыятар сістэмы ахалоджвання сапраўды нагадвае грыль.
З-за няўдач з тэхпрацэсам чыпы былі ў дэфіцыце, і ў дадатак да ўсяго з-за экстэмальных тэмператур лёгкаплаўкія элементы не вытрымлівалі і карты выходзілі з ладу. Якраз з канца серыі GTX480 пачалося непрыемнае і даволі працяглае выкарыстанне вытворцамі дрэнных тэрмапаст у сістэмах ахалоджвання. Якраз тады і з'явілася мода на прапяканне відэакарт у духоўках і будаўнічымі фенамі (і гэта не жарт), што часцей за ўсё ненадоўга дазваляла вярнуць кантакт да элементаў з друкаванай платай і працаздольнасць прыладаў.
У выніку серыя не пражыла і паўгады саступіўшы месца 500-ай. Жыццёвы час у GTX480 з'яўляецца адным з самых кароткіх сярод серыйных відэакартак.
Аднак трэба адзначыць, што тэхпрацэс быў дапрацаваны, а тэхналогіі, якія ўпершыню былі задзейнічаны, дазволілі NVIDIA у будучыні перахапіць лідарства ў вытворчасці відэаадаптараў, пакінуўшы AMD статус даганяючага. Напрыклад, гэта значнае павелічэнне хуткасці апрацоўкі дадзеных у паралельных разліках, што выкарыстоўвалася ў навуковых задачах і прыкладаннях, якія задзейнічалі CUDA-ядры.
У гульнявым сегменце гэтыя навацыі не гралі ніякую ролю, таму сярод геймераў карта атрымала толькі велічэзную колькасць апраўданых мемаў, улічваючы, што цудаў у колькасці FPS яна не паказвала, была гарачай, ненадзейнай і вельмі шумнай.
AMD Radeon R9 290X (2013)

AMD Radeon R9 290X як зараз модна, на паперы, заяўляла высокія амбіцыі, і яна уражвала: графічны працэсар Hawaii XT з 2816 струменевымі блокамі і 4 ГБ памяці GDDR5 з 512-бітнай шынай. "Чырвоныя" хацелі пазбавіць NVIDIA лідарства, якое стала зацягвацца, і селі ў непрадказальную лужыну. Гэта быў той выпадак, калі поспех вось - у руках, выбітныя характарыстыкі, забойца флагмана канкурэнта, звышпрэнцэндэнтная прадукцыйнасць і .... камерцыйны правал.
Так, зноў у пагоні за прадукцыйнасцю забыліся пра цеплавыдзяленне, рэферэнсная турбіна не магла адвесці 300Вт цеплавой энергіі і стварала гукавы фон звыш 50Дб. Разынкай, невядома кім прасунутай у высокатэхналагічную прыладу быў "UBER MODE", які яшчэ больш падымаў і без таго высокія працоўныя частоты і шум вырастаў да 55Дб, што было складана вытрымаць звычайнаму чалавеку і ў дадатак тэмпературы трымаліся на ўзроўні каля 90 градусаў. На рэшту да ўсяго відэакарта драселіравала, што прыводзіла да нестабільнай працы, пры перагрэве частоты скідваліся і яна не выдавала сваю запланаваную прадукцыйнасць, дроў у гэтае пекла падкідвалі ўсё тыя ж нестабільныя драйверы. Нерэферэнсныя варыянты сітуацыю амаль не змянілі, бо да ўсяго відэакарта каштавала 549$ і карыстальнікі маглі абраць больш танную NVIDIA GTX780, якая ў некаторых гульнях апераджала R9 290X, была цішэй, халадней і спажывала меньш энергіі, ці больш дарагую флагманскую NVIDIA GTX780 Ti, якая таксама працавала больш стабільна і не прымушала карыстальнікаў доўга выбіраць сабе прыладу.
У рэшце рэшт AMD Radeon R9 290X стаў дарагой цацкай для энтузіястаў і фанатаў AMD, таксама задавальняючы патрэбы карыстальнікаў у рэндэрынгу. Пры ўсім гэтым продажы і водгукі паставілі крыж на спробе AMD зрынуць NVIDIA.

У 2015 AMD яшчэ раз наступіць на тыя ж граблі, выпусціўшы AMD Radeon R9 FURY X, дзе па гэткай жа схеме быў аформлены пройгрыш NVIDIA GTX980 Ti. Незразумела на што разлічвалі інжынеры AMD, улічваючы, што сабекошт відэакарты з неабслугоўваемым вадаблокам не мог канкураваць з паветраным ахалоджваннем NVIDIA. Radeon R9 FURY X быў такім жа дарагім, складаным ва ўсталёўцы і гарачым відэаадаптэрам. Яго магло проста не быць і нічога б не змянілася. 2015 год стаў пераломным для AMD у гонцы з NVIDIA і кампанія перайшла ў статус даганяючай па сёняшні дзень.

Nvidia GeForce GT 1030 DDR4 (2018)

Крыху прызямлімся і перастанем размаўляць пра няўдачы флагманаў. Але ў зоне бюджэтных відэакарт, якія ў прастанароддзі называюць "затычкамі" таксама бывалі дзіўныя рашэнні. Якія нават зараз цяжка растлумачыць. Nvidia GeForce GT 1030 DDR4 - стала адной з самых няўдалых відэакартак за ўсю гісторыю кампаніі. Уявіце сабе, вы выпусцілі бюджэтную відэакарту GeForce GT 1030 GDDR5 у 2017 годзе, каб задаволіць патрэбы самага ніжняга сегменту ў дыскрэтным відэаадаптары. І праз год вы выпускаеце відэакарту з такой жа назвай, толькі утрая павольнейшую. Тут застаецца толькі разводзіць рукамі. Глядзіце, прапускная здольнасць памяці ў версіі з GDDR5 - 48 ГБ/с, у версіі з DDR4 усяго 16 ГБ/с. Спачатку карыстальнікі лічылі што гэта быў нейкі жарт, але жарты скончыліся, асабліва, калі ў продаж сталі трапляць карты, дзе адрозніць знешне версію з GDDR5 ад DDR4 было амаль немагчыма. Відэакарта называлася проста GeForce GT 1030 і цана за розныя версіі магла быць аднолькавая. І гэта была не выпадковасць, а наўмысны ўвод у зман. Памятаю, як бачыў у прапановах некаторых кампаній сістэмнікі з GT 1030 з пазнакай "гульнявы". Гэта падман памножаны ўдвая.
Самае сумнае, што GT 1030 GDDR5 і так зорак з неба ў гульнях не хапала, а GT 1030 DDR4 - была проста непрыдатная для гульняў з-за павольнай памяці.
Магчыма, NVIDIA хацелі пазбавіцца ад запасаў старых чыпаў памяці, але зрабілі гэта настолькі неэлегантна і брыдка, што назаўжды ўпісалася ў гісторыю графічных адаптэраў.
AMD Radeon RX 6500 XT (2022)

А зараз давайце ўспомнім падобны выпадак і з AMD RX 6500 XT, якая была выпушчана ў самы цяжкі час для мікраэлектронікі. Бушуе кавід, дэфіцыт крэмнію, майнінгавы бум, цэны на відэакарты ўзляцеўшыя да нябёсаў. І тут AMD выпускае бюджэтную відэакарту за 199$ для геймераў. Таму што іх больш прадукцыйныя адаптэры 6000й серыі (якія далі бой NVIDIA у растры) не знайсці ў продажы, а тым больш па адэкватнай цане. І здавалася, што вось яна, файная ідэя і гульцы будуць задаволены, і майнераў яна не зацікавіць. І тут вытворца пралічыўся, карта не зацікавіла нікога, гульцы і аглядальнікі проста яе разнеслі як бессэнсоўную.
Чаканні былі высокія, патрэбы былі велічэзныя. Але AMD RX 6500 XT была выпушчана з ўсяго чатырма гігабайтамі памяці, усяго 64-ма бітамі памяці і ўсяго на 4х лініях PCIe 4.0, што фатальна зніжала прадукцыйнасць на сістэмах з PCIe 3.0 . Даходзіла да смешнага, відэакарта ў некаторых гульнях саступала старой GTX 1650 Super, не мела апаратнага кадавання і дэкадавання H.264/H.265, чым адвярнула ад сябе стрымераў і апрацоўшчыкаў відэа.
Той самы прыклад, калі спробы зрабіць нешта на патрэбы перагрэтага рынку, прывялі толькі да стратаў і яшчэ болей разгневалі і без гэтага незадаволеных выбарам відэаадаптэраў карыстальнікаў.
Сапраўды, выпускаць дыскрэтную відэакарту з магчымасцямі ўбудаваных ноўтбучных адаптэраў у адчайных абставінах было не самым лепшым ходам.
Nvidia GeForce RTX 4060 Ti 8GB (2023)

А зараз разгледзім крыху іншы прыклад. Калі NVIDIA пад выглядам новага прадукта, лічыце, прадае перамаркіраваны стары. Nvidia GeForce RTX 4060 Ti 8GB была выпушчана ў 2023 годзе, прапаноўвала сучасную архітэктуру Ada Lovelace, DLSS3 і не прапанавала ніякіх паляпшэнняў у прадукцыйнасці ад свайго папярэдніка Nvidia GeForce RTX 3060 Ti 8GB. Адзінае, у новай лінейцы гарантавана, не было памяці Micron, якая выходзіла з ладу на яе папярэдніцы, што таксама моцна засмуціла многіх карыстальнікаў у свой час. Які сэнс ад новых тэхналогій, якія не нясуць павышэння прадукцыйнасці за большыя грошы? Натуральным чынам відэакарта правалілася, бо не змагла знайсці сабе мэтанакіраваных пакупнікоў.
Відэакарта з-за малога аб'ёму відэапамяці і вузкай шыны не магла задаволіць прыймальны FPS у 1440p раздзяленні, забяспечыўшы дрэнныя суадносіны кошту і якасці, кошт аднаго кадра ў секунду быў вельмі дарагім.
Тыповы прыклад, калі абнаўленне дзеля самога абнаўлення, не нясе ніякіх пазітыўных бонусаў карыстальнікам.
Насамрэч, гэты артыкул мог быць нашмат большы, таму што няўдалыя рашэнні сустракаліся амаль у кожнай лінейцы відэаадаптэраў як ад NVIDIA, так і ад AMD. Я паспрабаваў вылучыць самыя значныя няўдачы, якія часта ставілі крыж на продажах, ці выклікалі шаленства карыстальнікаў і часцей за ўсё былі выкліканы самімі вытворцамі графічных чыпаў. Тут можна прыгадаць яшчэ колькі прыкладаў, калі вытворцы-партнёры рабілі няўдалыя крокі. А іх было вельмі шмат, ад дробных да вельмі непрыемных. Можна ўзгадаць, як AMD выпусціў Radeon RX Vega 56, які пераўтвараўся пры прашыўцы BIOS ад флагмана Radeon RX Vega 64 ў флагманскую відэакарту ў 95% выпадкаў. Ці як NVIDIA паставіла ў GeForce GTX970 3.5GB з 4Gb хуткую відэапамяць, а 500Mb павольную. Усе гэтыя выпадкі не ўспомніш і не апішаш, ну ці гэта трэба пісаць цэлую кніжку.
Адно засмучае, гледзячы на апошнія тэндэнцыі на рынку відэаадаптэраў. Вытворцы прымушаюць купляць горшыя прадукты па вышэйшых коштах. І выхад адсюль толькі адзін, здаровая канкурэнцыя і гатоўнасць некага з вытворцаў рабіць відэакарты для людзей, гульцоў, прафесіяналаў, а не для прыгожых прэзентацый і папяровых рэлізаў.
Вялікі дзякуй маім патронам за падтрымку. Без вас гэтага артыкула не было б.
Таксама падзяка ўсім, хто цікавіцца, чытае мае артыкулы і пакідае водгукі, дзякуючы вам мне лягчэй крочыць у сваёй творчасці далей.
У мяне з'явіўся ютуб-канал, вы таксама можаце падпісацца і глядзець новыя відэа:
https://www.youtube.com/@Belkantent
Навіны hardware і лічбавага свету ў тэлеграм канале: