ИСТОРИЯ СОЗДАНИЯ ВИДЕОКАРТ ФИРМЫ nVIDIA, СЕМЕЙСТВА GeForce
История создания GeForce
История знает немало примеров, когда название нового продукта становится нарицательным, общеупотребительным. Применительно к компьютерному (или связанному с ним) оборудованию достаточно вспомнить «ксерокс» или «саундбластер». Обозначая вполне конкретные продукты, быстро завоевавшие широкую популярность, эти слова стали ассоциироваться с копиром и звуковой картой, и далеко не каждый потребитель связывает их с конкретными торговыми марками.
На рынке видеокарт несколько лет назад уже складывалась ситуация, которая могла обогатить наш лексикон синонимом слова «ускоритель». Сверхпопулярные ускорители трехмерной графики 3dfx Voodoo, долгое время означавшие эталон скорости, могли войти в историю, если бы не одно «но». В ряду фирм, выпускающих видеокарты с поддержкой аппаратной трехмерной графики, к этому времени уже прочно обосновалась компания nVIDIA. Невзирая на громкие в этой сфере имена, такие как S3, Matrox, ATi, уже упомянутая 3dfx и др., компания nVIDIA стала выпускать чипы, обладавшие хорошей производительностью и возможностями. Основанные на чипах Riva128, Riva128ZX, TNT и TNT2 видеокарты постепенно расширяли рынок компании, а в начале III квартала 1999 года появился первый продукт с именем GeForce.
К середине 1999 года производители программного обеспечения выпускали игры, предъявлявшие весьма высокие требования не только к видеосистеме, но и к системе в целом. Главным недостатком видеокарт того времени было отсутствие встроенного геометрического процессора. На центральный процессор перекладывалась работа по расчету координат и освещения. Напомним, что расчет сцены в трехмерных программах (и в играх в том числе) выполняется в трехмерных координатах, но поскольку устройство отображения, а именно дисплей монитора, является двухмерным, возникает необходимость производить вычисления, которые и ставят в соответствие трехмерное пространство программы двухмерному пространству монитора. Эти вычисления, в зависимости от сложности сцены, могут быть очень емкими [6].
Предположим, мы играем в некую абстрактную игру, которая представляет собой стратегию реального времени. При условии, что движок игры функционирует тем лучше, чем лучше задействован центральный процессор, отнимать ресурсы процессора для расчета графики становится, с одной стороны, невыгодно, так как ухудшается работа компьютерного интеллекта, а с другой – неразумно, поскольку с такой задачей лучше справится специально предназначенный для этого графический процессор. Конечно, сказанное справедливо не только для стратегических игр, но и для любых приложений, которые работают с динамичной трехмерной графикой и поэтому требуют больших объемов вычислений.
Именно по этой причине появление GeForce 256 – первого массового ускорителя со встроенным графическим процессором – было принято пользователями на ура. Заметим, что формальное лидерство принадлежит компании S3 c ее чипом Savage 2000 с интегрированным GPU (Savage 2000 был анонсирован на один день раньше GeForce 256, но поступил в продажу гораздо позже).
Процессор GeForce 256 имеет встроенный блок трансформации и освещения, осуществляющий аппаратную реализацию преобразования трехмерных координат в двухмерные, последующее отсечение невидимых поверхностей и дальнейшее наложение освещенности на объекты. Разрядность графического ядра, работающего на частоте 120 МГц, составляет 256 бит, о чем говорится в названии модели, а разрядность шины памяти – 128 бит.
Если сравнивать с предыдущими моделями nVIDIA, то эта модель выполнена по более прогрессивной технологии выращивания кристаллов – 0,22 микрон вместо 0,25 у Riva TNT2A. И хотя теоретические пределы скорости ядра выше 120 МГц, повысить тактовую частоту не удалось вследствие усложнения архитектуры процессора. Достаточно сказать, что к моменту выхода в свет GeForce 256 далеко не каждый центральный процессор имел в своем распоряжении 23 млн. транзисторов!
Располагая четырьмя конвейерами рендеринга, при частоте 120 МГц GeForce 256 обладает теоретическим пределом в 480 млн. пикселов в секунду. Блок трансформации и освещения способен производить расчет освещения одновременно для восьми источников света. С выходом GeForce 256 связана также и впервые реализованная поддержка кубических карт среды, позволяющих достичь более высокой степени реализма при рендеринге трехмерных сцен. Были выпущены видеокарты на основе процессора GeForce 256 с установленной обычной SDRAM-памятью и DDR SDRAM-памятью.
Свое развитие архитектура GeForce нашла в процессорах семейств GeForce 2 и GeForce 2 MX. Первое семейство включает модели GeForce 2 Ti, GeForce 2 Pro, GeForce 2 GTS и GeForce 2 Ultra. Эти графические процессоры производятся по технологии 0,18 микрон и имеют незначительные различия, обусловленные в основном частотами, на которых функционируют графическое ядро и установленная видеопамять. Все они имеют по четыре пиксельных конвейера с двумя текстурными блоками на конвейер. Наивысшую производительность среди этих моделей демонстрируют карты на основе процессора GeForce 2 Ultra, скорость которого (в мегагерцах) выше, чем у GeForce 3. Процессоры серии GeForce 2 оснащены улучшенным блоком трансформации и освещения, а также имеют блок NSR (nVIDIA Shading Rasterizer) для эффективного аппаратного мультитекстурирования и поддерживают декодирование в форматах HDTV. Одновременно с линейкой карт на основе GeForce 2 нашла свое развитие и MX-серия.
Три модели этой серии также различаются, главным образом тактовыми частотами, а младшая в линейке модель – GeForce 2MX 200 – обладает всего лишь 64-разрядной шиной видеопамяти. И хотя производительность видеокарт, основанных на процессорах семейства GeForce 2 MX, существенно ниже, чем у остальных на основе GeForce, такие акселераторы обладают прекрасным соотношением производительности на единицу вложенных денег, а кроме того, они поддерживают технологию Twin View, обеспечивая работу пользователя с мультимониторными конфигурациями.
Существенным шагом в развитии модельного ряда графических процессоров стал выпуск компанией nVIDIA в 2001 году процессора GeForce 3. Технологический процесс 0,15 мкм позволил поднять тактовые частоты на приемлемо высокий уровень в 200 МГц для графического ядра и 460 МГц для памяти соответственно. В конце прошлого года появились модели GeForce 3 Ti 200 и Ti 500, которые, не внося отличий в архитектуру GeForce 3, представляли собой соответственно слегка замедленный и разогнанный варианты флагманского процессора nVIDIA того времени.
Как и GeForce 2, процессор GeForce 3 обладает четырьмя конвейерами и при тактовой частоте 200 МГц способен выдать «на гора» в режиме мультитекстурирования 800 млн. пикселов в секунду. Но главной особенностью этого процессора стала осуществляемая им полноценная поддержка пиксельных и вершинных шейдеров, позволяющих существенно поднять качество визуализации трехмерных сцен. Помимо этого GeForce 3 на аппаратном уровне поддерживает технологию наложения теней в реальном времени, способен работать с объемными текстурами и имеет продвинутую схему работы с памятью nfinite FX. И хотя видеокарты на базе GeForce 3 выпускаются уже около года, прекрасные возможности и производительность, заложенные в этот процессор, позволяют комфортно использовать его до сих пор в самых ресурсоемких и требовательных приложениях. Это, впрочем, и не удивительно – процессор построен на 57 млн. транзисторов и благодаря своей мощной архитектуре обладает высоким запасом прочности.
В 2002 году компания nVIDIA выпустила обновленный ряд процессоров для настольных систем. Старшие модели – GeForce 4400 и GeForce 4600 – имеют архитектуру, во многом схожую с процессором GeForce 3, улучшенную поддержку пиксельных и вершинных шейдеров, а также более высокие рабочие тактовые частоты. Кроме того, эти акселераторы поддерживают фирменную технологию полноэкранного сглаживания Accuview Antialiasing и обновленную технологию мультимониторности.
Процессоры линейки MX представлены тремя моделями: GeForce 4 MX 420, GeForce 4 MX 440 и GeForce 4 MX 460. Видеокарты на базе GeForce 4 MX 420 оснащаются SDRAM-памятью, а две старшие модели работают с памятью DDR-SDRAM и различаются лишь рабочей тактовой частотой ядра и памяти. Заметим, что процессоры, представляющие линейку GeForce 4 MX, не являются слегка урезанными версиями моделей GeForce 4 Ti, а имеют собственную архитектуру. В частности, модели GeForce 4 MX имеют встроенный аппаратный декодер видео (Video Processing Engine), отсутствующий у более мощных GeForce 4 Ti 4400 и GeForce 4 Ti 4600, и интегрированный DVI-интерфейс.
По своему устройству эти процессоры больше напоминают GeForce 2 MX, нежели GeForce 4, что подтверждается наличием всего лишь двух пиксельных конвейеров, а также отсутствием полноценной поддержки пиксельных и вершинных шейдеров, что свойственно процессорам GeForce второго поколения [7].
Поколения GeForce
GeForce – бренд семейства графических процессоров и чипсетов материнских плат компании NVIDIA, ориентированного на потребительский рынок. Графические процессоры GeForce используются преимущественно в видеоадаптерах для персональных и переносных компьютеров.
С конца 1999 года в семействе GeForce сменилось более десяти поколений:
1. GeForce 256(рис. 2.1) - поколение графических процессоров потребительской серии GeForce компании NVIDIA, вышедшее 31 августа 1999 года.
2. GeForce2 (рис. 2.2) – поколение графических процессоров потребительской серии GeForce компании NVIDIA, вышедшее на рынок в 2000–2001 годах.
На тот момент это ядро было самым производительным чипом в своём классе. Оно включало в себя полную поддержку DirectX 7, OpenGL 1.2 и аппаратные функции по трансформации освещения (T&L). Было представлено более десятка модификаций: GeForce2 GTS, Ultra, Pro, MX и т. д. Также были представлены: NV11(GeForce 2 Go) для мобильных систем и NV15GL(Quadro 2 Pro) для работы с графикой.
Технические характеристики: GeForce2 (как и в GeForce 256) оснащён 256-разрядным ядром, работающим на частоте 200 МГц, количество транзисторов составляет 25 млн., технологический процесс: 0,18 мкм, Pixel Fillrate и Texel Fillrate: 800 млн в секунду, интегрированный TMDS.
3. GeForce3(рис. 2.3) - поколение графических процессоров семейства GeForce, разработанное и выпущенное компанией NVIDIA в 2001 году.
Графический процессор NVIDIA GeForce3 с подсистемой nfiniteFX и архитектурой памяти Lightspeed.
4. GeForce4 (рис. 2.4) – 4 поколение графических ускорителей компании NVIDIA, выпускавшихся под маркой GeForce. Серия GeForce4 была запущена в производство в начале 2002 года. Под этим названием выпускались два разных семейства графических карт: высокопроизводительные Ti (Titanium) и бюджетные MX. На базе GeForce4 также выпускались GeForce4 Go для рынка мобильной графики и серия профессиональных графических карт Quadro4 XGL.
Бюджетные GeForce4 MX наследовали архитектуру GeForce2, отличаясь повышенным быстродействием. Бюджетный ряд базировался на чипе NV17, который состоял из 27 млн. транзисторов и производился по нормам 150 нм.
Графический процессор имел 2 блока рендеринга, 4 текстурных блока, 1 блок T&L, 128-битный 2-канальный контроллер памяти с LightSpeed Memory Architecture II и был лишен поддержки пиксельных шейдеров т.к. её реализация, по словам NVIDIA, обошлась бы слишком дорого. Кроме этого чип имел подсистему сглаживания Accuview, блок VPE (Video Processing Engine) для декодирования MPEG-2 и полноценную поддержку двух мониторов с выходом для телевизора. Стандартный объём видеопамяти составлял 64Мб.
NV17 не имел шейдерного движка nFiniteFX и поэтому не мог полностью поддерживать новый DirectX 8.1. Вместо этого был использован движок NSR (nVidia Shading Rasterizer) для поддержки уже устаревшего DirectX 7.1. Обеспечивалась поддержка OpenGL 1.2.
Модельный ряд графических карт серии MX включал несколько модификаций (см. сравнение графических процессоров NVIDIA): GeForce4 MX 460, GeForce4 MX 440, GeForce4 MX 440SE, GeForce4 MX 420. Позже появилась модель PCX 4300 с поддержкой PCI-Express, а обновленный вариант GeForce4 MX на базе NV18b получил коммерческое название GeForce4 MX 4000 и выпускался дольше всех из серии GeForce4.
Графическое ядро GeForce4 MX также использовалось в наборах системной логики nForce2 под обозначением CR18.
Модельный ряд Titanium, базируясь на ядре NV25, продолжал развитие архитектуры GeForce3 с пиксельными шейдерами и был представлен моделями Ti 4200, Ti 4400 и Ti 4600, различавшимися между собой частотами графического процессора и видеопамяти (см. сравнение графических процессоров NVIDIA). Графический процессор состоял из 63 млн. транзисторов и производился по нормам 150 нм. GeForce4 Ti использовал 128-битный 4-канальный контроллер памяти с LightSpeed Memory Architecture II, имел 4 блока рендеринга, 8 текстурных блоков, 2 блока T&L, подсистему сглаживания Accuview и шейдерный движок nFiniteFX II, который обеспечивал полную поддержку DirectX 8.1 и OpenGL 1.3.
Стандартный объём видеопамяти составлял 128Мб, однако младшая модель Ti 4200 так же предлагалась в вариантах с 64 Мб видеопамяти. GeForce4 Ti, в отличие от моделей MX, не имели обновленного блока VPE для декодирования MPEG-2, а вместо него имелся устаревший HDVP (High Definition Video Processor). Отсутствие декодера VPE объясняется возможностью использования этих видеокарт в мощных системах, где центральный процессор может компенсировать отсутствие полного аппаратного декодирования MPEG-2.
5. GeForce FX (рис. 2.5) – 5 поколение графических процессоров семейства GeForce, разработанное и выпущенное компанией NVIDIA в 2003–2004 годах.
Используемая версия шейдеров DirectX Shader Model 2.0a преподносилась компанией как прорыв в область кинематографичных эффектов. Однако, производительность шейдеров оказалась низкой, по сравнению с линейкой конкурентов (ATI R300), но при соответствующей оптимизации вполне удовлетворительна для игроков.
Некоторые компании, такие как Valve, отказались от Shader Model 2.x на NV30 и использовали Shader Model 1.х для них в Half-Life 2. Doom 3, напротив, был хорошо оптимизирован под NV30, что показало, что этот чип был не таким уж неудачным, вопреки распространённому мнению.
6. GeForce 6 (рис. 2.6) – шестое поколение трехмерных графических акселераторов от корпорации NVIDIA. Первый и основной чип серии – NV40[1], первый графический чип компании поддерживающий DirectX 9.0c и Shader Model 3.0. Но несмотря на это чип не имел серьёзных архитектурных изменений по сравнению с прошлым поколением видеокарт, он также основывался на потоковой конвейерной архитектуре. Он был разработан в 2004 году. Выпуск видеокарт на основе чипов GeForce 6 серии продолжался до 2006 года.
7. GeForce 7 (рис. 2.7) – седьмое поколение графических процессоров компании NVIDIA, предназначенных для ускорения трехмерной графики. Являясь наследниками NVIDIA GeForce 6 Series, графические процессоры седьмой серии не несут революционных изменений, они так же поддерживают DirectX 9.0c и OpenGL 2.0. Однако поточно-конвейерная архитектура, на которой были основаны графические процессоры GeForce 6 серии претерпела серьёзные изменения, что позволило повысить производительность в полтора раза при том же количестве потоковых конвейеров. Производство NVIDIA GeForce 7 серии началось с чипа G70 в августе 2005 года и закончилось чипом G72 в конце 2007 года.
8. GeForce 8 (рис. 2.8) – серия графических акселераторов, анонсированная 8 ноября 2006 года. Эта серия была основана на чипе G80, который имеет унифицированную шейдерную архитектуру. Эти видеокарты также имеют поддержку DirectX 10 и Shader Model 4.0.
Это первая серия видеокарт от NVIDIA, которая поддерживает CUDA – программирование общего назначения.
9. GeForce 9 (рис. 2.9) – поколение графических микропроцессоров семейства GeForce компании NVIDIA. Первая модель GeForce 9 появилась 29 февраля 2008 года.
10. GeForce 100 (рис. 2.10) - поколение графических микропроцессоров семейства GeForce компании NVIDIA. Первая карта этой серии был запущен в январе 2009 года. Как и в GeForce серии 300, GeForce серии 100 состоит из ребрендинг видеокарт от предыдущего поколения доступна только для OEM-производителей. Текущий карты включают G 100, GT 120, GT 130, GT 140 и GTS 150. GT 120, основанный на 9500 GT с улучшенными тепловыми конструкции в то время как GT 130 основана на 9600 GSO (который сам был повторно под маркой 8800 GS). GT 140 является просто перепод маркой 9600 GT. GTS 150, версия OEM от GTS 250 с некоторыми незначительными изменениями. Несмотря на то, основанных на предыдущих 9 серий карт, G 100, GT 120 и GT 130 использовать совершенно иную печатную плату и слегка различными частотами.
11. GeForce 200 (рис. 2.11) – десятое поколение графических процессоров семейства GeForce, разработанное и выпущенное компанией NVIDIA в 2008–2009 годах.
Производство GeForce серии 200 началось 17 июня 2008 года с GeForce GTX 280. GTX 260 начал производиться 26 июня. Обе модели поддерживают следующие технологии: CUDA 2.0, PhysX и улучшенную версию PureVideo (с полной поддержкой декодирования видео H.264, VC-1, MPEG-2) [8].
Поддерживается DirectX 10 и Shader Model 4.0. На основе видеокарт 10 поколения впервые создана карта, специализирующаяся на общих вычислениях – Tesla. Она имеет повышенную надёжность и 4 Гб памяти.
На июнь 2008 GT200 – самый большой серийно производящийся графический процессор. Он состоит из 1,4 миллиарда транзисторов, занимающих площадь в 576 мм². GT200 выполнен по 65-нм техпроцессу.
8 января 2009 года был представлен чип GT200b, на основе которого производятся видеокарты NVidia GeForce GTX 260, 275, 285, 295. Он также обладает 1,4 миллиардами транзисторов, однако его площадь составляет 470 мм². Такого уменьшения площади добились путем перехода на 55-нм техпроцесс.
GeForce GTX 280 и 260 производятся на одном и том же чипе. Те чипы которые не проходят тест на полное соответствие спецификации GTX280, повторно проверяются уже на соответствие GTX260, которая подразумевает наличие меньшего количества потоковых процессоров и более узкую шину памяти.
12. GeForce 400 (рис. 2.12) – линейка графических процессоров, основанная на архитектуре NVIDIA Fermi, первая в арсенале компании, обладающая поддержкой DirectX 11. NVIDIA Fermi – архитектура названная в честь итальянского изобретателя атомного реактора Энрико Ферми.
NVIDIA GF100 (GT300) – 40-нм графический процессор (GPU), разработанный корпорацией NVIDIA, первый представитель линейки GeForce 400. К нововведениям чипа относятся действие по схеме Multiple Instructions Multiple Data, поддержка ECC, переход на 64-разрядные регистры видеопамяти, поддержка технологий DirectCompute, OpenCL, C++, позволяющих проводить вычисления на GPU, поэтому NVIDIA Fermi можно отнести в разряд General-Purpose Graphics Processing Unit.
Чип NVIDIA GF100 обладает 512 суперскалярными шейдерными процессорами и 3 миллиардами транзисторов. По оценкам NVIDIA чип показывает 400 % прирост производительности в вычислениях с двойной точностью по сравнению с предыдущим поколением продукции компании.
Первые видеокарты на основе чипа GF100 должны были поступить в продажу в четвертом квартале 2009 года, однако их выход был перенесен на первый квартал 2010 года в связи со сложностями при серийном производстве чипов.
13. GeForce 500 – линейка графических процессоров семейства GeForce, представленная 9 ноября 2010 года.
GeForce GTX 500 - представляет собой доработанную архитектуру Fermi в виде видеокарт семейства GeForce 400. Видеокарты основаны на чипах GF11x (GF110 для GTX 570, GTX 580 и GTX 590; GF114 для GTX 560 Ti; GF116 для GTX 550 Ti). Графический процессор поддерживает технологии: 3D Vision Surround, CUDA Technology, PhysX Technology и 3-Way SLI Technology. Для GeForce GTX 590 доступна технология NVIDIA Quad SLI. Поддерживается DirectX 11. Видеокарты семейства GeForce GTX 500 обладают большей производительностью и сниженным энергепотреблением по сравнению со своими предшественниками.
По сравнению с чипами GF10X серии, в GF11X была произведена оптимизация энергопотребления на уровне транзисторов. Если в кристаллах GF100 использовались два типа транзисторов: более медленные с низкими токами утечки, и быстро переключающиеся с высокими токами утечки (что и обусловило внушительное потребление тока), то в кристаллы GF110 удалось внедрить третий тип транзисторов, сочетающий в себе характеристики двух вышеприведенных.
В результате такой оптимизации технологического процесса производства, новые чипы получились значительно более экономичными. Данные изменения применены ко всей серии GF11X. Младший чип GF114, кроме оптимизации внутренней схемотехники (что позволило поднять частоту работы), не получил никаких архитектурных изменений, относительно GF104 (GTX 460), кроме разблокировки всех функциональных блоков, и так имеющихся в GF104.
Флагманские же GPU GTX 580 и GTX 570, основанные на чипах GF110, кроме разблокировки всех блоков, подверглись и архитектурным изменения. По данным NVIDIA, все эти архитектурные изменения, при равных частоте и количестве функциональных блоков с GF100, дают прирост до 15%. С учетом возросшей частоты и большего количества функциональных блоков - до 30% [10].
Рис.2.1 VisionTek GeForce 256 DDR
Рис.2.2 Canopus GeForce2 Ultra
Рис.2.3 Canopus GeForce3 Ti 500
Рис.2.4 MSI GeForce4 Ti 4800
Рис.2.5 GeForce FX 5950 Ultra
Рис.2.6 GeForce 6800 Ultra
Рис.2.7 GeForce 7950 GX2
Рис.2.8 GeForce 8800 Ultra
Рис.2.9 GeForce 9500 GT
Рис.2.10 GeForce G100
Рис.2.11 GeForce GTX 280
Рис.2.12 GeForce GTX 480
Выводы
Вообще, несмотря на возможную неразбериху в головах пользователей, отчаянно пытающихся понять, на какой из «GeForce» следует обратить свое внимание, нужно сказать, что кто ищет, тот всегда найдет себе что-нибудь по сердцу.
Компания nVIDIA сумела стать одним из крупнейших монополистов на рынке трехмерных ускорителей графики, а грамотная маркетинговая политика позволяет компании успешно продавать свои изделия во всех ценовых сегментах рынка. Ситуация с графическими процессорами очень напоминает войну процессорных гигантов Intel и AMD накануне окончательного раздела сфер влияния.
Практически так же, как и в случае с центральными процессорами, мы имеем пару солидных монополистов и постепенно уменьшающуюся долю рынка, где представлены решения менее крупных компаний, которых к тому же становится все меньше в результате жестокой конкуренции.
Возможно, через несколько лет потребитель сможет выбирать лишь между продукцией nVIDIA и ATi – ведь выживает сильнейший.
ЗАКЛЮЧЕНИЕ
Видеокарты за последнее время стали ощутимо дешеветь, и при этом - наращивать аппаратные возможности.
Сейчас перед рядовым потребителем, решившим приобрести себе это чудо техники, стоит непростая задача. Чтобы не ошибиться в выборе, желательно изучить основные характеристики видеокарт, знания которых могут понадобиться при работе, и определить круг задач, для которых она будет использоваться.
Таким образом, знание этих основ позволит покупателю ориентироваться в бесконечном многообразии моделей и фирм, представленных на рынке.
Различия между моделями одной категории в большинстве случаев не существенны.
Компания nVIDIA сумела стать одним из крупнейших монополистов на рынке трехмерных ускорителей графики, а грамотная маркетинговая политика позволяет компании успешно продавать свои изделия во всех ценовых сегментах рынка.