Эволюция графических ускорителей — от GeForce 7900 / Radeon Х1950 и до наших дней

Успешный выход флагманских видеокарт нового поколения линейки GeForce 8800 сказался не только на благополучии NVIDIA, но и на очень уж незавидном состоянии конкурента. Переживая слияние с компанией AMD, производитель графических решений, ATI, изо всех сил пытался оставаться на плаву и не только вести бюрократические согласования, но и попутно заниматься разработкой GPU с поддержкой DirectX 10.

Естественно, все работы по созданию новых чипов шли, что называется, в «пожарной обстановке». Не клеилось буквально все — новый 80-нм техпроцесс, который ATI решила использовать в новом поколении GPU, еще не был полностью отлажен, выход годных чипов был очень мал, а драйверы никак не хотели эффективно раскрывать потенциал инженерных семплов будущего флагманского решения. Тут же и NVIDIA ставила палки в колеса, не давая сконцентрироваться на работе — к весне 2007 года подоспели бюджетные и среднеценовые видеокарты серии GeForce 8600\8500\8400, которые обладали поддержкой DirectX 10 и основывались на все той же прогрессивной унифицированной шейдерной архитектуре. Однако главный удар ждал компанию впереди: зная, что ATI ведет разработку нового флагманского ускорителя, NVIDIA еще в конце 2006 года бросила силы на создание еще более мощного продукта — GeForce 8800 Ultra.

Чип G80

G80, произведенный по 90-нм техпроцессу, однако сам GPU уже выпускался на новой ревизии кристалла, что позволило поднять тактовую частоту до внушительных 650 МГц (против 575 МГц у GTX) а также частично уменьшить энергопотребление и тепловыделение, пусть и на символические 5 ватт. При этом в GeForce 8800 Ultra было решено использовать ту же РОВ, ограничившись лишь новыми, очень дорогими 0.8-нс микросхемами памяти типа GDDR3, способными в теории работать на 2400 МГц («родные» 1.0-нс чипы у GeForce 8800GTX работали только на 1800 МГц). Но такая чудовищная тактовая частота была совсем не нужна — пропускной способности с 384-битной шиной хватало за глаза, поэтому было решено ограничиться частотой в 2160 МГц. Таким образом, добавив мощи и без того очень производительному флагманскому продукту, NVIDIA решила сделать некоторый запас прочности на будущее для потенциальной борьбы с DX10- конкурентом, который разрабатывался ATI под кодовым названием R600.

R600 — не оправдавший надежд Тем временем у «красных» все еще шла активная разработка чипа нового поколения. Отчасти его архитектура была позаимствована у R500 Xenos, который был создан специально для ХЬох 360 и базировался на унифицированной шейдерной архитектуре. Приступая к разработке нового GPU, еще в 2005 году разработчики пыталась достичь нескольких основных целей, главной из которых было создание хорошо масштабируемой «базы» на несколько лет вперед, которую можно было бы легко улучшать, дополнять и развивать. Отправной точкой стало создание унифицированного супер- скалярного процессора, который объединял 5 элементарных независимых скалярных блоков для выполнения простейших математических операций, один из которых мог обрабатывать и более сложные инструкции. Всего таких блоков должно было быть в конфигурации ядра 320 штук (или, если быть точным, 64 суперскаляра, по 5 ALU в каждом). Такие скалярные блоки могли выполнять операции как с вершинами, так и с пикселями, что делало их универсальными, на манер R500/G80.

Прошлый опыт в создании R580

Учитывая прошлый опыт в создании R580 где количество пиксельных, текстурных и ROP’s блоков было использовано в соотношении 3:1:1, в новом чипе решено было использовать ту же схему — как показывала практика, в графических приложениях DX9 основная нагрузка шла именно на шейдерные операции (то есть на красивые эффекты), а не на скорость текстурирова- ния. Поэтому в R600 оставили то же соотношение (а точнее увеличили его до 4:1:1) и сделали упор именно на шейдеры, оставив 16 текстурных и 16 блоков растровых операций, перекочевавших с R580+.

Но и это еще не все — для того чтобы графический процессор эффективнее работал с памятью, ему впаяли аж восемь 64-битных контроллеров памяти, образовав широкую 512-битную полосу для обмена данных GPU с vRAM. Инженеры были в восторге: с «простенькой» GDDR3-naMflTbio, работающей на 1600 МГц. удавалось достичь таких скоростных показателей пропускной способности — никакая GeForce 8800 Ultra тут и рядом не стояла. А чтобы выделиться на фоне конкурента, инженеры ATI реализовали в новом чипе еще кое-что. Во-первых, в сам GPU был интегрирован звуковой процессор для вывода звука по HDMI. Но поскольку сами видеокарты не комплектовались этим разъемом, чип был необходим для передачи звука через переходник DVI-HDMI. ведь DVI не предполагает одновременную передачу звука и видео. Интегрированный звуковой чип как раз и занимался таким вот «согласованием» передачи обоих потоков через цифровой интерфейс. Во-вторых, R600 стал первым более-менее современным чипом, в котором был реализован блоктесселяции! Правда, как с ним работать, инженеры ATI так и не рассказали, и впоследствии, из-за ряда программных ограничений в играх, он ни разу задействован не был.

Новый чип

Казалось бы, у ATI получился настоящий монстр. Чип производился по 80-нм техпроцессу, имел внушительную .тактовую частоту ядра в 625 МГц, большое количество унифицированных шейдерных процессоров и при всем этом мог похвастаться широченной шиной памяти. Тут уж и сама NVIDIA занервничала — хватит ли ей производительности готовящейся к выпуску 8800 Ultra, чтобы хоть как-то сдержать противника? Правда, как оказалось, волноваться калифорнийцам было не о чем — по предварительным тестам,новинка,названная Radeon HD 2900ХТ, не могла соперничать с 8800GTX. не говоря уже о 8800 Ultra. Обладая 512 Мбайт видеопамяти, продукт на базе R600 замечательно «сражался» с 8800 GTS 640 Мбайт, однако везде и всюду «сливал» более мощной версии G80. Не помогала и 512-битная шина, которая вовсе не была узким местом GPU — вся проблема заключалась именно в малом количестве текстурных блоков. Соперничать с конкурентом, у которого их было вдвое больше, оказалось R600 не по силам. В драйверах тоже нашлось несколько досадных косяков: в режимах с использованием антилиазинга производительность падала на внушительные 30-40%, в то время как 8800 GTX переносила более «мягкое» падение в количестве кадров. Но это был не самый главный просчет — 320 скалярных процессоров являлись по сути 64 суперскалярами, чем-то схожими с одним унифицированным шейдерным процессором у NVIDIA G80. Другими словами, для раскрытия потенциала всех 320 блоков необходимо было максимально распараллеливать потоки между ними, что, впрочем, оказалось не такой уж и тривиальной задачей. Немного позже проблему с неэффективным использованием множества скалярных ALU все-таки решили — в том же Crysis игровой код замечательно подходил под множество простых исполнительных элементов супер- скалярного блока, и как раз там HD 2900ХТ показывал себя во всей красе, умудряясь кое-где догонять 8800 GTX.

Новичку не помогла даже заманчивая цена в $400 (аналогичная 8800 GTS), потому как 8800 GTS с 320 Мбайт памяти, стоила всего $300, а по производительности в разрешениях до 1600×1200 шла ногу в ногу с Radeon HD 2900 XT и 8800 GTS 640 Мбайт. ATI попыталась реабилитироваться и выпустила версию HD2900 ХТХ с 1024 Мбайт высокочастотной GDDR4-naMflTH, но и та была лишь на несколько процентов быстрее 512-мегабайтной версии.

К сожалению, очень перспективный чип погубил ряд мелких неудач, которые накладывались друг на друга и вскоре превратились в огромный ком проблем. Поэтому

ATI/AMD пустила все запасы R600 под нож, выпустив слегка урезанные HD 2900 Pro и HD 2900 GT по очень привлекательной цене в $200-250, реализовав почти все залежи революционного, но не сыскавшего популярности GPU.

Косметический ремонт

Создание новой архитектуры — процесс крайне сложный, ресурсозатратный и долгий. А карманы производителей железок хотят набиваться прибылью ежегодно, без двухлетних перерывов. Да и реализовать весь потенциал графической архитектуры редко у кого получается с первого раза. Поэтому разработчики не сразу спешат создавать нечто новое, а приступают к скрупулезному допиливанию уже имеющегося, но не обделенного потенциалом семейства.

К концу 2007 года NVIDIA вновь решила удивить общественность — на этот раз не заоблачной производительностью и новыми рекордами в 3DMark Vantage, а более эффективным и функциональным обновлением. Компания просто решила оптимизировать G80, убрать пару лишних и не совсем нужных вещей, добавить к ним то, что раньше не помещалось из-за слишком толстого техпроцесса, сдобрить все еще более высокими частотами и выпустить под видом нового продукта. Им стали видеокарты GeForce 8800GT и GeForce 8800GTS 512 Мбайт, основанные на чипе G92 — обновленной, свежей и изрядно полегчавшей версии старичка G80. Структурно он остался тем же, однако количество текстурных блоков фильтрации возросло вдвое, с 32 до 64. Схема NVI0, раньше располагавшаяся на отдельном чипе, теперь была интегрирована в кристалл G92, печатная плата упростилась и заметно уменьшилась в длине. Шина памяти также была уменьшена до 256 бит, ROP’s стало меньше аж на 8 штук — они ушли вместе с двумя 64-битными контроллерами, оставшись в количестве 16 блоков. По результатам тестирования GeForce 8800 GT со 112 шейдерными процессорами оказывалась быстрее 8800 GTS 640 Мбайт и лишь немного недотягивала до GTX-версии. Впрочем, это делал ее старший брат — 8800 GTS 512 Мбайт, получивший полнофункциональный G92 со 128 шейдерными процессорами, умудрялся достигать уровня 8800 GTX/Ultra на базовых частотах, при этом, имея почти вдвое меньшую стоимость! Тем временем устаревшие 8800 GTX/Ultra были сняты с производства, так что у NVIDIA оставались лишь новинки на базе 65-нм чипа G92, пусть и потерявшего в битности шины памяти, но оптимизированного и поднабравшего текстурных блоков.

ATI тоже не дремала. Уже осенью 2007 года на прилавки вышли долгожданные DirectX 10 — середнячки с достаточно мощной конфигурацией ядра. Ими стали Radeon HD 3850 и HD 3870, получившие поддержку DirectX 10.1, что позволило им выгодно отличаться от конкурентов, даже несмотря на фактическую бесполезность обновленного API. Оба чипа базировались на модифицированном ядре RV670, который представлял собой слегка переработанный R600 с измененным и улучшенным контроллером памяти и переведенный на тонкий, 55-нм техпроцесс. Разработчикам пришлось урезать шину памяти с 512 до 256 бит, тем самым упростив строение печатной платы и сделав конечный продукт существенно дешевле, однако улучшенный контроллер памяти, а также GDDR4-naMflTb, используемая в более дорогой HD 3870, нивелировала этот недостаток, превращая линейку HD 3800 в очень мощных игроков среднего ценового диапазона — во всем остальном это были те самые HD 2900ХТ, но более эффективные и менее дорогие. В сравнении же с новинками серии GeForce 8800 новую линейку HD 3800 ждала неудача — GeForce 8800 GT оказывался заметно быстрее HD 3870, но последний был и дешевле, a Radeon HD 3850 256 Мбайт и вовсе конкурировал со среднеценовой 8600 GTS, которую он обгонял Примерно в два — два с половиной раза.

К сожалению, выпуск нового семейства HD 3800 не решил финансовых проблем тандема ATI/AMD — сказывался и неудачный старт процессоров Phenom архитектуры К10, которые имели слишком уж много недостатков.

Двухголовые мамонты

В начале 2008 года положение ATI/AMD на рынке видеокарт все еще нельзя было назвать стабильным и крепким. Сильный удар, полученный еще во времена выпуска R600, не давал инженерам прийти в себя — на разработку чего-то абсолютно нового требовалось время. Но представить истинного конкурента 8800 GTS/GTX/Ultra надо было немедленно — звание производителя самых быстрых видеокарт в мире давало очень мощную моральную поддержку и признание у покупателей, так что завоевание статуса короля рынка 3D было для ATI/AMD как нельзя более актуальным. В феврале 2008 инженеры ATI решаются на выпуск экспериментального флагманского решения — двухчипового монстра на базе двух RV670, которые умещались бы на одной плате, создавая эффективный Crossifre-дуэт. Оснастив РСВ мостом- коммутатором, отвечающим за слаженную работу двух RV670, ATI/AMD анонсировали Radeon HD 3870X2 — самую мощную видеокарту в мире, вернув тем самым доброе имя производителя самых быстрых графических решений. Оба чипа имели собственный дамп памяти, состоящий из 512 Мбайт. Вместо GDDR4 использовалась недорогая и медленная GDDR3, что, впрочем, не сильно повлияло на конечный результат и позволяло HD 3870X2 укладывать на обе лопатки не только 8800 GTS на базе G92, но и мощных старичков 8800 GTX и 8800 Ultra. Новинка отличалась совсем невысокой ценой (порядка $350 — почти эквивалент 8800 GTS 512 Мбайт), но в современных играх была быстрее. Но и тут оказалось не все так идеально, как того хотела бы ATI, — драйвера требовали отличной оптимизации под два GPU, которая, ввиду ограниченности ресурсов в рядах ATI/AMD, имела место быть лишь в самых современных играх. Проекты постарше оказывались плохо оптимизированными, и в них детище экс-канадской компании часто уступало конкурентам.

Наслаждайтесь победой NVIDIA

Впрочем, наслаждаться победой «красным» пришлось совсем недолго — уже в марте NVIDIA повторила эксперимент, и на базе двух G92 выпустила «бутерброд» GeForce 9800 GX2. Новинка представляла собой две 8800 GTS 512 Мбайт, объединенных в одном металлическом корпусе. Имея мощь 256 потоковых процессоров, видеокарта, естественно, обходила предыдущего флагмана. Но с ценой все было не так гладко, как с производительностью, — NVIDIA требовала аж 700 баксов (к слову, это сделало видеокарту самой дорогой из доступных на то время). В свою очередь, тяжелейшая система охлаждения делала GeForce 9800GX2 очень увесистой, поэтому самой NVIDIA было официально разослано поедупоеждение: не перевозить 9800GX2.

Последние представители DirectX 10 Выиграв с выпуском 9800GX2 достаточно времени, к лету NVIDIA завершила работы над полноценным наследником G80 — не его косметическим обновлением под видом G92, а совершенно новой разработкой — GT200. Новый чип имел существенно переработанную конфигурацию ядра и должен был стать настоящим хитом — GPU получил 240 потоковых процессоров, 80 текстурных блоков и целых 32 блока ROP’s. Более того, GPU имел в своем составе почти полтора миллиарда транзисторов, что сделало его чуть ли не самым сложным полупроводниковым чипом в истории IT-индустрии. Не подкачала и РСВ — в ней использовалась многослойная компоновка, позволившая реализовать 512-битный интерфейс памяти. Применение столь широкой шины помогло отказаться от несовершенной и дорогой памяти типа GDDR4 — ее преимущества втактовой частоте очень сильно страдали из-за повышенных таймингов памяти, что практически полностью перекрывало ее превосходство над стандартом GDDR3. Появившиеся на прилавках GeForce GTX 280 и GTX 260 (версия со 192 потоковыми процессорами, 64тек- стурниками и 28 ROPs с 448 битной шиной) хоть и стоили дорого, зато были почти вдвое быстрее 8800 GTS 512 Мбайт, a GTX 280 оказывалась даже шустрее двухчипового бутерброда 9800 GX2. Стоит также отметить, что новые видеокарты создавались не только для работы с ЗО-графикой, но и для обработки неграфических данных, для чего графический процессор GT200 был превращен в некое подобие микрокомпьютера, который имел свою, пусть и крошечную, временную память (выделяемую из шейдерных процессоров). Благодаря новому SDK появилась возможность программировать шейдерные процессоры на неграфические вычисления и даже прикрутить к драйверам «бесплатную» реализацию PhysX для аппаратного расчета физики потоковыми процессорами. NVIDIA начала активно продвигать CUDA и свои видеокарты на профессиональном рынке, создавая на базе GT200 модульные суперкомпьютеры для параллельных вычислений.

AMD стал полной неожиданностью

Вот тут, в конце июня 2008 года, ответ ATI/AMD стал полной неожиданностью — компанией были анонсированы новые чипы семейства RV770 с полностью переработанными потрохами, пусть и базирующимися на предке R600. Обновленную архитектуру оптимизировали и улучшили слабые места: чип получил 800 скалярных процессоров, 40 текстурных блоков и полностью переработанный алгоритм работы с антилиазингом. Теперь активация ААх4 отнимала в среднем не более 15-20% производительности, что улучшило КПД вдвое, по сравнению с предыдущими решениями на базе RV670. Новый чип научился работать на еще более высоких частотах, перемахнув планку в 700 МГц. Шина памяти осталась той же, 256-битной, однако использование простой РСВ существенно уменьшило цену, сделав новинки в лице HD 4850 и HD 4870 заметно дешевле конкурентов. При этом HD 4870 получила память GDDR5, что помогло ей стать первой в мире видеокартой, которая использовала данный тип памяти. Высокая скорость нового стандарта обеспечивала отличную пропускную способность, благодаря которой можно было эффективно «прокачивать» данные из GPU через относительно узкую 256-битную шину. Новые видеокарты оказались настолько мощными и недорогими, что NVIDIA тут же пришлось снижать цены на свое семейство GTX 280/260, делая его доступнее на $100-150. При этом HD 4850 с 512 Мбайт памяти стоил всего $200 и в тестах запросто обгонял 9800 GTX (переименованная и слегка разогнанная версия 8800GTS 512 Мбайт), который стоил на $50 дороже, a HD 4870 за свои 300 баксов умудрялся существенно обходить GTX 260 со 192 потоковыми процессорами, которая изначально стоила $500.

ATI/AMD вновь удалось заявить о себе как о производителе, который в состоянии выпускать мощные и конкурентоспособные продукты, и похоронить многочисленные слухи о скором банкротстве. Успех HD 4800 удалось закрепить с помощью уже известного приема, а именно выпуска HD 4870×2, которая в полтора раза опережала GTX 280 и на протяжении полугода оставалась самой мощной и производительной видеокартой в мире.

DirectX

Новый перелом в расстановке сил обоих соперников произошел осенью 2009 года, когда неожиданно для всех ATI/AMD анонсировала DirectX 11 поколение видеокарт Radeon HD 5800, с чипами, изготовленными по 40-нм техпроцессу. Новинки оказались очень мощными — сказывалась вдвое более мощная конфигурация ядра. Количество скалярных процессоров в полно- . ценной версии RV870 (HD 5870) возросло вдвое — до 1600 штук, текстурных блоков стало 80, а блоки ROP’s были доведены до 32. Все это активно сдабривалось очень высокими частотами графического процессора и скоростной GDDRS-памятью, делая Щ одиночную HD 5870 по производительности почти полным аналогом двухчиповой Radeon HD 4870X2, но более дешевым и холодным.

В архитектурном плане никаких глобальных новшеств не произошло — это была все та же доработка R600, обросшая улучшениями и получившая солидную прибавку в функциональных блоках. Единственное, что необходимо отметить, — новый, полностью переработанный блоктесселяции, подогнанный под работу в режиме DirectX 11 и позволяющий существенно повысить детализацию 30-модели относительно безболезненно для самого GPU и уровня FPS.

От старого, оставшегося еще со времен R600, пришлось избавиться, ведь требованиям нового API он не отвечал. Еще одной фишкой стал выпуск видеокарты HD 5870 Eyefinity, благодаря которой можно было реализовать поистине мультимониторную конфигурацию, включающую до 6 экранов. Обычные версии HD 5870, в силу меньшего количества интерфейсов, могли работать только с тремя мониторами — но и этого было достаточно для «домашнего» использования.

И вновь AMD/ATI была, что называется, на «коне» — предыдущий флагман NVIDIA, GTX 285/GTX 260, не дотягивал даже до уровня слегка урезанной HD 5850, не говоря уже о более мощной HD 5870. Более того, флагманская новинка при помощи небольшого разгона начинала наступать на пятки двухчиповому флагману GTX 295, состоящему из двух чипов GT200b с суммарным объемом в 480 потоковых процессоров.

Интересное решения от NVIDIA

Лишь спустя полгода NVIDIA могла выпустить свой первый чип DirectX 11GF100, который лег в основу GTX 480 и GTX 470.

На этот раз неудача постигла калифорнийцев — их графический процессор состоял из 3 миллиардов транзисторов, это было самое сложное полупроводниковое устройство, созданное во всем мире. Дабы хоть как-то уменьшить размеры и тепловыделение новинки, NVIDIA решила использовать 40-нм техпроцесс, однако на фабрике TSMC, которая, собственно, и выполняла заказ калифорнийцев на производство GF100, возникли небольшие проблемы — техпроцесс еще не был обкатан и производство такого крупного кристалла оказалось весьма нетривиальной задачей. В результате из-за огромного количества брака функционально GPU пришлось урезать для повышения выхода годных графических чипов. Так. из основной 512-конвейерной конфигурации был отключен один шейдерный процессор с 32 унифицированными блоками и заблокирована часть текстурных блоков, из-за чего GTX 480 получил всего лишь 480 потоковых ALU и 56текстурников вместо 512 и 64 соответственно. Еще одной проблемой стали избыточные токи, которые приводили к уменьшению КПД GF100 и увеличению тепловыделения — рабочая температура под сотню градусов, даже с очень мощной системой охлаждения, для GTX 480 была в порядке вещей. Но несмотря на все недостатки, «дурной мощи» у новичка было хоть отбавляй: блоктесселяции позволял флагману архитектуры Fermi обгонять соперника во всех DirectX 11 играх, причем с существенным опережением — у HD 5870 эффективность работы тесселяции была не в пример хуже, чем у конкурента. Более того, сказывались и 48 блоков ROP’s, которые позволяли такой мощной видеокарте работать в режиме АА практически без потерь скорости. Более того, 384-битная шина предполагала использование и более крупного объема видеопамяти, так что yGTX 480 изначально преимуществ над конкурентом было чуть больше. В огромных разрешениях с использованием DirectX 11, благодаря 1536 Мбайт vRAM, GTX 480 оказывался быстрее там, где не хватало 1024 Мбайт HD 5870.

Но, несмотря на преимущество в играх, флагманский продукт ATI/AMD смотрелся куда привлекательнее. Он стоил он на 150 долларов меньше, работал тише, был холоднее и обеспечивал превосходную производительность во всех современных играх без исключения. Пользователи предпочитали именно его — GTX 480 покупали только ярые фанаты, готовые отдать огромные деньги за обладание самой мощной одиночной видеокартой, способной обеспечить максимальную производительность из всех доступных решений.

Новое от NVIDIA

К концу 2010 года NVIDIA реабилитировалась, как-то очень резко запустив в производство линейку GeForce GTX 580 на обновленном GF110 — абсолютно том же самом GPU, только на этот раз с полностью функционирующими блоками и слегка повышенной тактовой частотой. Благодаря оптимизациям и освоению 40-нм техпроцесса наконец-то удалось обуздать утечки и существенно понизить энергопотребление и тепловыделение. Таким образом, GTX 580 стал тем, чем должен был стать еще GTX 480. Подобная задержка с «допиливанием» нового чипа позволила AMD закончить работу над «пробой пера» для следующего поколения архитектуры. В самом начале 2011 года инженеры закончили все проектировочные работы и анонсировали Radeon HD 6900 — семейство видеокарт на базе новой архитектуры, таким образом, произошло ее существенное изменение, а не просто «наращивание блоков». В фундаментальной составляющей скалярной архитектуры пройзошли некоторые изменения: супер- скалярный потоковый процессор состоял не из 5 скаляров, а из 4-х, что позволило не только увеличить количество суперска- лярных процессоров на той же площади кристалла, но и улучшить их эффективность, уменьшив время простоя: стало удобнее компилировать код под симметричное VLIW4 строение суперскаляра.

В результате HD 6970 обзавелся 1536 скалярными процессорами (у HD 5870 их было больше — 1600), однако суперскаляров, то есть основных «элементов» обработки графики, стало, наоборот, больше (384 вместо 320), что в конечном итоге позволило HD 6970 достаточно существенно обходить предыдущего флагмана. Увеличилось и количество текстурных блоков — до 96 штук. Однако главной особенностью нового семейства стал, конечно же, переработанный блоктесселяции, благодаря которому производительность в играх с активацией DX11 практически не падала по отношению к DX10. Одной из самых интересных особенностей новых видеокарт стала поддержка двух BIOS, так что с помощью переключателя, распаянного прямо на плате, можно было менять различные конфигурации с тактовыми частотами, прописанными в ROM BIOS. AMD тоже сделала подарок своим фанатам. Поначалу все HD 6950 делались из HD 6970 путем программного отключения 48 скалярных и 8 текстурных блоков, сами же РСВ были идентичными, однако вскоре нашелся способ, как программным методом (а точнее, прошивкой BIOS от HD 6970) совершенно безболезненно превращать HD 6950 в HD 6970! Ядро при этом становилось полностью активным, все функциональные блоки работали великолепно, а пользователь получал халявные 15-20% скорости. Правда, «лавочку» вскоре прикрыли путем аппаратного отключения блоков, но счастливых обладателей HD 6950, превративших свою видеокарту в HD 6970, было предостаточно.

Так, в продажу поступили слегка обновленные решения, вытекающие из HD 5800, но с новой архитектурой скалярного процессора, увеличенным количеством функциональных блоков и новым блоком тесселя- ции. Снабдив все это добро 2048 Мбайт видеопамяти, AMD сделала для HD 6950/6970 неплохой запас на будущее, доведя архитектуру R600 до предела — казалось, дальше уже развиваться было некуда и надо начинать все с чистого листа.

GCN и Kepler — взгляд в будущее

Основы, заложенные в G80 и R600, до сих пор являлись фундаментальными для обеих архитектур, и все видеокарты, выпущенные позже, так или иначе основывались на продолжателях именно этих унифицированных графических архитектур. Но ничто не вечно, 2012 год стал переломным в плане графических решений — AMD выпустила Radeon HD 7970 на базе GCN (Graphic Core Next), a NVIDIA анонсировала свое видение будущего — GeForce GTX 680 на базе Kepler. В чем же отличие этих двух флагманских монстров от своих предшественников? Начать стоит с HD 7970: промежуточная архитектура строения скаляра VLIW4, используемая в HD 6900, была заменена более прогрессивной. Теперь чип поделен на вычислительные блоки, каждый из которых состоит из четырех массивов скалярных процессоров общим объемом 64 штуки. Всего таких GCN-блоков в новом GPU 32, с общим количеством скалярных ALU в 2048 штук. Новая архитектура отходит от принципа построения GPU на основе суперскалярных процессоров, теперь обработкой графики занимаются более сложные массивы из 64 скаляров, которые эффективнее своих предшественников. Работая в паре с высокочастотной видеопамятью стандарта GDDR5 и связываясь с ней по 384-битному интерфейсу, HD 7970 стал очень мощным решением с огромным заделом на будущее.

В то же самое время конкурент в лице GTX 680. базируясь на GK104, также имеет полностью переработанные шейдерные исполнительные процессоры. Теперь каждый такой мультипроцессор имеет целых 192 потоковых ALU, в то время как у предшественника GTX 580 их было всего 32. Суммарно конфигурация GK104 насчитывает 8 мультипроцессоров с общим количеством ALU, равным 1536. NVIDIA провела некислую оптимизацию и упрощение своих потоковых процессоров, благодаря чему их стало больше, но сами по себе они стали куда проще предшественников, потеряв в теоретической производительности где-то 30-50%. Другими словами, один потоковый процессор GTX 680 нельзя уже сравнивать с потоковым процессором GTX 580, поскольку он стал чуточку «глупее». Что, впрочем, нивелирует его недостаток при большом количестве этих самых ALU, работающих вместе.

NVIDIA затевала нечто грандиозное, но из-за очередных проблем с освоением 28-нм техпроцесса выпустить GK100 не получилось, так что флагманскую честь пришлось отстаивать GPU, который изначально был разработан в качестве среднеценового решения. Посуди сам — несмотря на внушительное число потоковых ALU и текстурников (теперь их уже 128 а не 64, как у GF110), количество ROP-блоков было уменьшено наравне с шиной памяти. Для того чтобы GTX 680 бодренько смотрелся на фоне Radeon HD 7970, пришлось устанавливать базовую частоту ядра на 1006 МГц! При этом GDDRS-память работает на не менее внушительной частоте в 6000 МГц.

И все же эффективность новой архитектуры нельзя не признать — если уж среднеценовой чип умудряется быть таким крутым (GTX 680 на самом деле является преемником GTX 560 Ti, а не GTX 580), то чего уж говорить о более мощной конфигурации топового графического процессора GK100, который все еще находится в разработке? Новые ускорители, HD 7970 и GTX 680, являются на сегодняшний день самыми совершенными сточки зрения архитектурных особенностей, оптимизации и энергопотребления. Поговаривают даже, что именно эта парочка вдохнет жизнь в следующее поколение консолей, которые, по слухам, уже вовсю тестируются в чертогах Sony и Microsoft. Они — некая новая ступень эволюции GPU, достаточно развитая, чтобы считаться архитектурой, разработанной с чистого листа. Они дают невероятный скачок производительности по сравнению с предшественниками, и все будущие видеокарты серии HD и GTX, которые появятся в ближайшие несколько лет, будут основываться именно на производных GCN и Kepler. Итак, новая революция отгремела буквально полгода назад, настало время для очередных эволюций!

Обсуждение закрыто.