История Nvidia
1995
История этой калифорнийской
корпорации берёт начало в 1995
году, когда она была основана
предприимчивыми Дженсеном
Хуангом – будущим президентом и
генеральным директором , и
Крисом Малаховски
–вице-президентом по разработке
аппаратного обеспечения…
Первым их продуктом является чип
NV1,выпущенный в 1995 году, NV1
и его модификация STG2000 были
первыми "полными"
мультимедиа-ускорителями. Оба
чипа были идентичны за
исключением того, что NV1
использовал
высокопроизводительную VRAM, а
STG2000 - более дешевую DRAM.
Несмотря на то, что NV1 был
первым продуктом NVIDIA, для
свого времени он был весьма
продвинутым решением: 2D- и
3D-графика, встроенный
аудиопроцессор мощностью 350
MIPS и процессор ввода-вывода.
Самой известным ускорителем на
основе NV1 был Diamond EDGE 3D.
Когда чип NV1 был только
представлен, многие из
3D-стандартов, которые сейчас
кажутся непререкаемыми, еще
принимались. Пока полигоны не
были окончательно утверждены в
качестве стандарта для 3D-игр,
NVIDIA решила использовать
другой способ формирования
примитивов объемного изображения
- Quadratic Texture Maps (кривые
поверхности третьего порядка).
Тогда как современным
3D-ускорителям требуется большое
количество маленьких полигонов
для воспроизведения гладкой
поверхности, в NV1
использовались искривленные
стороны полигонов. Это позволяло
чипу отображать гладкие
поверхности без особой нагрузки.
Текстуры хранились в системной
памяти и подавались через шину
PCI или VESA Local Bus по мере
необходимости - по тому же
принципу через несколько лет
будет работать AGP.
Однако первый продукт NVIDIA не
состоял целиком из графического
ядра. В NV1 была интегрирована
микросхема для воспроизведения
звука. С 32 каналами, 16-битным
CD-качеством и аппаратным
ускорением примитивного
объемного звука, NV1 производила
более сильное впечатление, чем
многие PCI звуковые карты
первого поколения. В качестве
банка для MIDI (таблица MIDI
была сертифицирована Fat Labs)
использовалось 6 МБ системной
памяти.
Вместо традиционного игрового
порта на NV1 был размещен
разъем, поддерживающий геймпады
и джойстики от Sega Saturn,
которые можно было использовать
в любой совместимой с
DirectInput игре, включая Virtua
Fighter, Virtua Cop и Panzer
Dragoon.
Хотя чип NV1 намного превосходил
возможности конкурентов и был
значительно перспективней,
именно технология кривых
поверхностей третьего порядка
привела к его рыночной смерти.
Когда Microsoft утвердила
спецификации Direct3D, незадолго
после того, как NV1 появился на
полках магазинов, именно
полигоны были выбраны в качестве
стандартных примитивов. И,
несмотря на все усилия NVIDIA и
Diamond, разработчики больше не
хотели ориентироваться на NV1.
Компания Diamond даже пыталась
увеличить число покупателей
огромными скидками и включением
в комплект поставки геймпада от
Sega, но и это не принесло
успеха.
С помощью Direct3D Microsoft
практически уничтожила NVIDIA.
Производители ПК отказывались
ставить в машины видеокарты на
чипе, несовместимом с Direct3D,
и инженеры NVIDIA понимали, что
не смогут вывести на рынок новый
полигональный 3D-ускоритель.
Компания ушла от общественного
интереса и была вынуждена
уволить несколько сотрудников.
Если бы тогда NVIDIA смогла
обойти необходимость вводить
поддержку Direct3D и продолжила
использовать кривые поверхности
третьего порядка...
Из интервью с Джоном Кармаком:
Технология кривых поверхностей
третьего порядка могла бы стать
на самом деле мощным свойством
NV1, и Microsoft загубила
хорошее начинание, утверждая в
качестве примитивов
треугольники. Гм, не совсем так.
Уже несколько лет NVIDIA
развивается не в пример
остальным графическим компаниям,
но давайте не будем
романтизировать былые дни. NV1
был полным отстоем, и он
значительно повредил бы развитию
3D-ускорителей в будущем.
Microsoft провела хорошую
работу, вытесняя стандарт NVIDIA.
Существует негласное мнение, что
кривые поверхности лучше, чем
треугольники, потому что для
формирования кривой поверхности
нужно много треугольников.
Конечно, кривые можно упростить
до того, чтобы они выполняли
роль треугольников, но это -
значительная потеря пропускной
способности.
К сожалению, тогда существовал
целый ряд продуктов, у которых
отсутствовала поддержка
важнейших функций [рендеринга],
однако было встроено подобие
патчевых поверхностей, что
требовало выравнивания текстур в
соответствии с направляющей
сеткой патча.
Это похоже на производную от
2D-графики, где нормальное
движение спрайтов дополняется их
масштабированием, поворотом,
проектированием и искривлением.
По такой схеме работали продукты
3DO, Saturn и... NV1. Возможно
некоторые люди сейчас работают
над заменой стандартных методов
формирования текстур, но они,
скорее всего, делают ту же
ошибку.
Без возможности разделять
процессы текстурирования и
геометрического преобразования,
нельзя получить отсечение в
самом общем смысле слова (не
говоря даже о том, что отсечение
кривой вне направляющей сетки
приведет к нарушению ее
структуры), и либо приходиться
смиряться с тем, что плотность
текселя широко варьируется,
уменьшаясь иногда до точки, либо
стыки текстур проявляются при
каждой смене ее плотности.
Никакой возможности повернуть
текстуру на поверхности, или
спроектировать ее на множество
поверхностей. Нельзя заменить
общие принципы, не говоря уже о
треугольниках, такими
примитивами.
Даже если отвлечься от
теоретической стороны вопроса, у
NV1 не было HSR (hidden surface
removal - устранения скрытых
поверхностей), края кривых не
смыкались, не отсекались
плоскости и не поддерживалась
коррекция перспективы. Это было
приспособление, а не инструмент.
1996
1996 год для nVidia можно
считать “безрыбной” порой, в тот
год корпорация работала на новым
чипом, понимая, что NV1 сильно
ударил по их репутации.
1997
И наконец в 1997 году nVidia
представляет свой новый чип :
NVIDIA RIVA 128 –первый
высокопроизводительный 128-
битный Direct3D процессор.
С выходом этого чипа nVidia
стала стремительно продвигаться
на рынке. Riva 128 действительно
оказалась очень сильным
продуктом.
Газеты
в то время говорили:
"Наши исследования показывают,
что разработанная NVIDIA
128-битовая архитектура
доминирует в категории
высокопроизводительных
графических акселераторов для РС,
сегодня ей принадлежат 44
процента рынка, — заявил д-р
Джон Педди, президент Jon Peddie
Associates, ведущей
маркетинговой компании,
занимающейся исследованием рынка
цифровых технологий. — По нашим
данным, компания NVIDIA
принадлежит к числу самых
быстроразвивающихся, темп ее
роста составил 65 процентов за
год. Сегодня она поставила
больше 128-битовых
3D-процессоров, чем вся
остальная индустрия, вместе
взятая".
1998
1998 год стал годом выпуска Riva
TNT , ставшая логичным
продолжением Riva 128 . На тот
момент лишь производительность
voodoo 2 не давала взойти ей на
трон. И лишь выпуск Riva TNT 2
помог nVidia полностью
укрепиться на рынке ,как лидер,
в то время как 3dfx потерпел
неудачу со своим voodoo3.
1999
1999год –год выпуска первой
256-разрядной видеокартой, что
стало на тот момент самым
большим прорывом за всю историю
существования корпорации.
Итак. В то знаменитое время,
когда была война между
производителями чипов, всё
становилось на ноги. 3Dfx её
проигрывала и на nVidia смотрели
как на королеву, которая никого
не щадит. Возведение её на трон
способствовала линейка чипов TNT
и TNT 2.
Нужен был продукт который бы
навечно её оставил там. И он
вышел, появившись в холодном 3
квартале 1999 года. Это стало
действительно достижением. Все
карты перед ним меркли и не
годились в сравнение. Он открыл
людям наслождение играть в
разрешении 1024 х 768. Люди это
оценили.
Сам чип работал на частоте 120
МГц., память работала на частоте
166 МГц (дальше частоты карт
буду писать как 120/166).
Появился он в массовой продаже
по цене около 350 баксов.
Производительность была выше
всяких похвал. Quake 2 летал на
всех разрешениях, а в Quake 3
можно было играть на 1024 х 768
в 32 битном цвете.
Кадров давал в нем около 60.
Скажете мало? С выпуском этой
видеокарты выявилось такое
явление как “процессорозависимость”,
чем сильнее процессор, тем
больше производительность. В то
время Pentium II 450 был не у
каждого. Разгон видеокарт
приводил к радостным дивидендам.
Гнались хорошо, до 150/210.
“Стандарт”. Для нормальной игры
в большинство 3D шутеров, к
которым относится и Quake 3, для
разрешения 1024 на 768 и цвете
32 бита (дальше будет как
"стандарт"), нужно в среднем 60
кадров в секунду.
Это и является пределом
играбельности. Этот стандарт и
станет основополагающимся
пределом. Мерь сюда. Средняя
скорость 60 кадров это с запасом
при том что нижний предел не
будет опускаться меньше 25-30
кадров в сложных сценах. Для
увожающего себя игрока это мало,
нужен предел играбельности в 100
кадров на этом разрешении,
минимум будет падать до 40.
На этом чипе впервые была
опробована DDR память.
Одинаковая по частоте с SDR
памятью она могла пропускать в
два раза больше данных через
себя чем предшественница, т.е.
Работающая на частоте 150 МГц.
DDR память имела такую же
пропускную способность, как SDR
при частоте 300 МГц. Но такой
сверх скоростной SDR не было,
поэтому постановка DDR, вместо
обычной памяти, была оправдана.
Обозначается же DDR память
несколькими способами. Есть
такое обозначение 333 МГц. DDR,
по идее это должно обозначать,
что стоит 333 МегаГерцовая DDR
память которая соответствует 666
МегаГерцовой памяти SDR, но
иногда я и сам путаюсь.
Потому-что 166 МГц DDR память
уже увеличили и поставили число
333, но оставили DDR имея ввиду,
что это уже увеличенная до
значений SDR памяти DDR память.
Вот так. Имейте это ввиду.
Дальше я буду применять для DDR
памяти второе обозначение.
И начинаем мы вот с чего. К
концу 1999 года на рынок вышла
видеокарта на чипе GeForce 256 с
поддержкой DDR памяти.
Её частоты 120/300.
Производительность по отношению
к SDR версии плат выросла
примерно на 15-20% в особенности
в больших разрешениях, в
особенности при применении 32
битного цвета. В Quake 3 при
1024х768 давал 70-75 кадров в
секунду. В разгон карты шли
плохо. До 150/320.
2000-2001
Ровно через пол года после
первого GF, в начале 2000, вышел
GF 2, а точнее GF 2 GTS (GigaTixelShader
– первый кто мог перемалывать
более 1 миллиарда текселей в
секунду). Эта видеокарта
задумываласть для будущего дня.
Который должен был наступить
через 2 года, и вот он наступил.
Обозначение GTS это архитектура
которая упрощает построение
фигур.
Ничем особенным правда он от
предшественника не отличался. Но
была повышена его частота до
200/333, да производиться он от
предшественника стал по 0.18
мкм., а не 0.22 мкм
тех.процессу, из-за этого
тепловыделение уменьшилось.
Применялась только DDR память.
Производительность увеличилась
на 25-30%. Но если посчитать по
частотам то мы придем к выводу,
что что-то здесь не так. GF 2 мы
будем сравнивать с DDR версией
GF I.
Даю их частоты 120/300 и
200/333. Сразу видно, что
видеокарты на его основе не
сбалансированы. При увеличении
частоты работы чипа на 66%
память работает только на 11%
быстрее. А ведь всем известно,
что всё в видеокартах зависит от
самого медленного элемента коим
память и являлась здесь. Но как
ни крути производительность всё
равно выросла, 25-30% это тоже
не мало.А на счет трех букв.
Так вот. Эта архитектура на нем
работала очень криво, или вообще
отказывалась работать. В
будующем мы увидим, что её
работа осуществлялась програмно,
но не самим чипом. Самое же
главное состоит здесь в том, что
игры с её поддержкой появятся
массово только в 2003 году!!!
На данный момент, конец 2001
года, есть одна игра и один тест
с поддержкой этой функции. А
какого тогда черта покупать
суппер дорогой ускоритель (500$
в момент его появления) главная
фишка которого не
поддерживается?!
Для игроманов он всё-таки
остается чем-то символическим
вплоть до наших дней. В Quake 3
при разрешении 1024 на 768 и 32
битном цвете он давал 90-95
кадров. В разгон шел плохо.
230/366 было. Разгон чипа, в
большинстве своем ничего не
давал, а память гналась плохо.
Всё-таки екнуло что-то у nVidia
и посмотрев на свою ошибочку (
может и не на ошибку, а на
целенаправленную стратегию) она
в 3 квартале 2000 года выпустила
на рынок два новых чипа: GF 2 MX
и GF 2 PRO. Видеокарты на основе
первой: нацелены на народ.
Второй чип – это тот же GTS, но
перемаркированный как GF 2 GTS
PRO. nVidia решилась на
перемаркировку из-за того, что в
продажу начали поступать карты
якобы с GF 2 PRO, но под
намертво приклееным радиатором
стояла маркировка GF 2 GTS.
По частотным же показателям GF 2
GTS PRO опережал GF 2 GTS. Они у
карт на нем составляли 200/400.
Как видно частота памяти была
увеличена, что заменто
высвободило мощь чипа. По
отношению к предшественнику
производительность сразу-же
выросла на 25%. В Quake 3 при «стандрте»
давал 110-120 кадров в секунду.
Сейчас у карт на этом чипе есть
все шансы стать “народными”.
Ну а теперь наш рассказ будет
посвящен самой удачной “народной
видеокарте” на чипе GF 2 MX.
Что-же за зверь такой этот МХ? В
общем-то ничего такого
особенного. nVidia проделывала
это много раз во времена карт на
TNT и TNT 2, то шину доступа к
памяти урежет, то частоты
занизит, то количество памяти
уменьшит раза в 4.
Ну и что же мы видим. Рассуждаем
и ворочаем мозгами. Даю рецепт
приготовления. Уменьшим частоту
с номинальных 200 до 175. Вместо
4 конвееров рендеринга оставим
только два, а точнее
“кастрируем”. Снабдим не
хваленой DDR памятью, а SDR
памятью. Нет а почему только SDR,
давайте добавим всё-таки DDR, но
не 128 битную, а 64 битную. Ну а
для того чтобы брали вставим
чего-нибудь такого, чего нет в
обычном GF 2 GTS, а точнее
поддержку двух мониторного
режима. Вот вам без лишних
хлопот и новая карта
вырисовывается.
Всё. Чип приготовили. И так. Вот
перед нами чип GF 2MX. Но самое
удивительное он оказался
удачным. Он был ориентирован на
средний, а потом и на нижний
диапазон пользователей.
Стандартные частоты nVidia дала
для производителей карт как
175/166. Карта давала в Quake 3
на «стандарте» - 60 кадров в
секунду. Что для пользователя, у
которого был 17 дюймовый монитор
который работал в самом
распостраненном для них
разрешении 1024 на 768, было
самым наилучшим выбором. Да и
цена в момент появления была
140-150 долларов. Это был
действительно наилучший выбор
для среднего пользователя.
В начале 2001 года ряд карт на
GF 2 MX был расширен. Появились
карты на МХ 100, МХ 200 и МХ
400.
Первая – это самый зарезаный МХ,
у него занижены частоты до
143/166, но самое главное , шина
памяти уменьшена до 32 бит
(жуть). Производительность
неизвестна, из-за того, что была
на нем выпущена только одна
карта, которая является сейчас
раритетом.
Вторая - это кастрированный
GeForce 2 MX, но не такой
зарезанный, шина памяти уменшена
до 64 бит, производительность на
50 % ниже, частоты 175/166.
Третья - обычный чип, но чуть
разогнанный до 200/183,
производительность на 10 %
лучше.
Но самое главное все чипы на GF
2 MX созданы для разгона. С
обычных частот видеокарты с GF 2
MX 175/166, ты можешь получить
от неё 210/210 и получить
прибавку ещё до 25 %.
Максимумальный разгон добытый
мной в сети был равен частотам
работы карты - 250/260 и был
достигнут на карте CardeXPERT MX
400.
А на самом деле, чтобы дать
изюминку в своей продукции,
фирмы делавшие на этом чипе
карты завышали их частоты (или
занижали их). Можно заметить
карты на МХ 400 с частотами
200/166, а можно и на 200/200, и
даже 240/240.
Эволюция продолжилась. GTS и PRO
были по частоте 200 Мгц. И тут
nVidia решила выпустить самую
лучшую и производительная карту
из семейства Двоек - GF 2 Ultra.
По производительности эта карта
оставила всех предшественниц за
бортом. 60 кадров в секунду
давала в 1600 на 1200, а в
«стандарте» 150 кадров (Проха
давала 110 -120 кадров). Но она
стала самой большой неудачей.
Она работала на частотах
250/460, выпуск годных чипов,
работающих на такой частоте, или
чуть больше, был 5-8%. Но самое
главное, что появившись на
прилавках за 600 баксов их никто
не брал. Только самые искушенные
и тестеры. Цена её и осталась
такой-же высокой, упав до 350
долларов, но и тогда её тоже
никто не брал. Потому-что скоро
должен был выйти новый Суппер
чип GF 3, который появился
только за 380 чубаксов и
превосходивший Ультру на 10-50%!
Значит так. Вышел этот мастодонт
и все замерли. По
производительности в 32 битном
цвете он не имел себе равных на
протяжении 6 месяцев. Он
оказался такой мощный, что для
его силы не было игр готовых её
применить. Только осенью у него
появился противник от ATI, а
также начали выходить игры
специально для него.
А теперь о производительности. У
всех предыдущих чипов от nVidia
есть одна очень большая
проблема. Их скорость сильно
зависила от пропускной
возможности памяти. Во время
начала властвования GF 2 (нет
всё-таки чуть раньше, во время
появления первых GeForce-ов за
год до этого) все играли при
16-битном цвете.
И вот случилось, они вышли и их
начали покупать. Но сущъность
человека состоит в том, что ему
всего мало. Мало 16-битного
цвета, надо 32. Так вот. На этих
картах можно было играть в
разрешении 1280 на 1024 при 16
битном цвете, но никто этого не
хотел, а играли в 800 на 600, но
в 32 битном. А почему не в 1024
на 768 ? Да потому-что при
переходе в 32-битный цвет
производительность падала на
45-50 процентов. И это никого не
радовало.
И все брали, и все ругали, даже
я.
А вот сейчас небольшое
отступление. У ATI представившей
тогда свою карту на своем
чипсете RadeOn, этой проблемы не
было.
В 16 б. цвете видеокарты от неё
проигрывали GF процентов 30-40
во всех разрешениях везде, а вот
в 32 б. цвете они сравнивались с
ним и вигрывали начиная с 1024
на 768 уже 5 -10%. Всё из-за
памяти. АТI-вские чипы не так
были привязаны к пропускной
способности памяти Да еще и
разгружали её систему при
задействовании специальной
системы HyperZ. В отличии от
карт nVidia.
Это продолжалось до появления
этого самого аборигена. ВПЕРВЫЕ
за всю историю nVidia смогла
сделать чип который не делал
такого большого падения
производительности при переходе
от 16 к 32 битному цвету.
Это был первый акселератор 32
битного цвета. 95 кадров можно
было получить в 1600 на 1200 при
32 б. цвете. При разгоне со
штатных 200/460 до 240/540 тянул
на 110 кадров. В 16 б. при
стандартной частоте было 105
кадров. Производительность
падает незначительно, на 5-10%
при переходе от 16 к 32 битам.
Сейчас такой комбайн стоит
300-350 в России и 400 в
Эстонии. Производительности
хватило бы на всех, даже самых
требовательных игроков.
Но в начале все испугались из-за
того, что Третий проигрывал
Второй Ультре в 16 б. цвете
10-15%. Из-за этого все начали
орать что nVidiа сделала Трехе
"Мать Убийцу" своего нового
чада. Но вышли новые драйвера
которые занизили
производительность! плат на
Ультре (примерно во всех
разрешениях на 10-15 % в 16
битном цвете, по отношению к
прежним показателям), но этого
никто в слух не говорил. Дорога
к успеху была проложена.
Вот уже три года nVidia
выпускает новые карты ровно в
срок. Новая карта в 1 квартале,
улучшенная в 3 квартале и так
пока продолжается. Всем был
хорош GeForce 3, но вдруг
очнулась после долгой спячки
Канадская компания ATI и
выпустила линейку карт на своём
Radeon-е. 7000-ки для
безденежных и 8000-ка для
продвинутых. В первой группе 6
карт, во второй 1. Две из них
7500 и 8500 могли составить
серьезную конкуренцию: первая –
GF 2, вторая – GF 3.
И тут наш герой встрепенулся. И
дал залпом сразу три карты -
линейку под названием Titanium-ы.
В составе GF 2 Ti, GF 3 TI200 и
GF 3 TI500. Что
они из себя представляют:
Первая - чип от GF 2 Ultra, а
память от GF 2 GTS PRO -
250/400.
Вторая - заниженный по частотам
GF 3 - 175/400.
Третий - разогнанный GF 3 -
240/500.
2001-2002
Конец 2001 года, начало 2002,
стало рассветом новой линейки
видеокарт от nVidia. GeForce Ti
4 показывал небывалую по меркам
того времени производительность.
Была представлено несколько
модификаций, различия
основывались на частотах и
кол-ве памяти. Младшая моделька
– Ti4200 ,представляла собой
решение для среднего сегмента
рынка, Ti 4400- высшая ступень
этого же сегмента, Ti 4600 же
представлял
высокопроизводительные решение
бизнес- класса.
Далее последовала линейка FX
–которая стала одной из самых
неудачных вех в истории nVidia .
Первым был выпущен чип NV30:
Компания сделала около семи
pевизий чипа NV30 (возможно, их
было «всего» четыpе, а еще тpи
так и не были выпущены), каждый
pаз выплачивая своему чипмейкеpу
(TSMC) поpядка $1 млн. за сам
пpоцесс, а также около $20 млн.
- за увеличение темпа pабот.
Лишь на четвеpтый или пятый pаз
из пластин были получены пеpвые
годные чипы. Состояние пеpсонала
самой компании, как Вы
понимаете, было близко к
паническому. Пеpвые видеокаpты
GeForce FX 5800 создавались на
основе тех немногих годных
чипов, котоpые все-таки
удавалось получить из
обpаботанных пластин.
Для пpимеpа, на пеpвых поpах из
126-127 чипов, умещающихся на
пластине, pабочими оказывались
всего 7-10 штук, что поднимало
цену каждого пpоцессоpа NV30 с
$10-20 до $60. В свете
чpезмеpного и ничем не
подкpепленного оптимизма
маpкетингового и PR-отдела
(именно под давлением котоpых,
отчасти, и были подняты pабочие
частоты, ставшие пpичиной
использования печально
знаменитой системы Flow FX),
выставлявших новинку как
«убийцу» для пpодукции
конкуpентов, последовавший за
этим пpовал GeForce FX 5800
нанес NVIDIA очевидные имиджевые
потеpи.
Hе менее удивительно выглядит
ситуация и с последними
новинками компании в лице NV36 и
NV38. Дело в том, что выпуск
пеpвого из этих двух чипов был
намечен на втоpую половину
сентябpя, тогда как NV38 должен
был выйти еще в конце августа.
Однако, несмотpя на pазницу в
pеальных сpоках появления чипов,
их анонс был пpоведен не только
одновpеменно, но еще и с
наpушением всех pанее
пpогнозиpовавшихся сpоков .Для
того, чтобы понять, почему это
пpоизошло, необходимо сделать
небольшое отступление.
Как мы знаем, согласно новому
пpавилу ATI, анонс любого
пpодукта должен быть пpоведен не
pаньше 30 дней до момента его
появления на pынке.
Hегласный же закон NVIDIA
тpебует, чтобы было выпущено как
минимум 10 тыс. единиц пpодукции,
пpежде чем она будет объявлена
официально.
2003-2004
Весь 2003 год ушел на доработку
драйверов под серию FX ,но кроме
этого nVidia всё это время
усиленно работала над новым
чипом…
Что собственно сама nVidia
говорила тогда о нём, мы может
понять из уст Дана Виволи:
Дан Виволи (Dan Vivoli) является
исполнительным вице-президентом
nVidia по маркетингу. С октября
1988 до декабря 1997 он работал
в должности вице-президента по
маркетингу в компании Silicon
Graphics, Inc., а затем в 1997
вступил в нынешнюю должность у
nVidia.
С 1983 до 1988 года Виволи
занимался маркетингом в компании
Hewlett-Packard.
Недавно nVidia анонсировала чип
следующего поколения - GeForce
6800. И вновь компании пришлось
конкурировать с ATi, которая
через неделю анонсировала
линейку X800. У нас появилась
возможность взять интервью у
Дана Виволи по поводу новой
линейки продуктов, конкуренции,
будущих тенденций и технологий.
Tom's Hardware Guide (THG).
Люди, которые покупают
графические карты, часто
сомневаются, приобретать
продукцию nVidia или вашего
конкурента. Приходится ли вам
работать над тем, чтобы сильнее
дифференцировать nVidia от ATi,
и как вы планируете вообще к
этому подходить?
Дан Виволи (DV).
Создать продукт, превосходящий
конкурентов! ;-)
Если же говорить серьёзно, то мы
тратим немало усилий на создание
новой архитектуры, что
отразилось на NV40 (уже шестое
семейство карт). Это очень
тонкий процесс, охватывающий всю
компанию: архитекторов,
инженеров, специалистов по
маркетингу и, что более важно,
группу поддержки разработчиков.
С выходом шестой серии видны
плоды нашего труда. Никогда до
этого у нас не было архитектуры,
столь сильно засветившейся в
сообществе разработчиков. Каждая
функция Shader Model 3.0
создавалась именно по их
просьбам. Кроме того, мы
добавили фильтрацию с плавающей
запятой и смешение (blending) в
кадровом буфере только из-за
просьб разработчиков.
А потребители просто получают
максимально возможное качество
на самом производительном GPU.
К тому же, один из самых важных
наших секретов - это процессор
видео. Он использует
впечатляющую и удивительную
технологию, которая даёт
потребителем средство работы с
видео непревзойдённого качества.
Так что вскоре вы можете ожидать
от нас появления новых продуктов
в области видео.
THG. Представители nVidia
упоминали, что ваша компания
работает над увеличением своей
рыночной доли настольных
графических чипов. Есть ли у вас
шансы на успех?
DV. Конечно. Мы уверенно
занимаем 60% рынка настольных
GPU. Но есть ещё 40%, которые
нам тоже не помешают!
Как мы считаем, нам нужно
проводить образовательную работу
с остальной частью рынка.
Сегодня 50% продаваемой графики
- это интегрированные решения.
Однако большинство потребителей
не понимают, что интегрированное
решение является компромиссом, и
на самом деле, это не настоящий
GPU.
Пользователи не только получают
медленные игры, часто с
визуальными дефектами и
нестабильной работой, но и
испытывают определённые
неудобства при работе с
2D-приложениями типа графических
редакторов. Как я считаю,
каждому пользователю необходим
второй процессор в ПК -
графический. Возьмите более
медленный CPU, докупите карту с
нормальным GPU - и вы получите
лучшую машину.
THG. Чип nVidia 6800 впечатлил
индустрию и прессу. Были ли вы
сами удивлены столь большим
ростом производительности?
DV. Нет! Мы с самого начала
планировали осуществить самый
большой прорыв за всю историю
nVidia. Да и поддержка SM 3.0
действительно многое значит. Но
ещё не всё! Мы готовим широкую
линейку карт на основе 6800. Так
что потребитель с любым
достатком сможет насладиться
шестой линейкой наших карт и SM
3.0.
Если вам понравилась 6800, вам
понравится и SLI. Технология
Voodoo SLI была впечатляющей.
SLI у шестой линейки GeForce
представляет собой полностью
новый подход, обладающий лучшим
качеством и эффективностью.
THG. Чипы nVidia 6800 и ATi X800
демонстрируют значимые
продвижения по
производительности. Если
посмотреть в обозримое будущее,
ждёт ли нас ещё одна подобная
революция?
DV. Мы не планируем замедляться.
Впереди нас ждёт много работы. Я
помню времена, когда мы
выпускали GeForce2.
Это была настолько быстрая и
функциональная карта, что трудно
было представить что-то лучшее.
Затем появилась GeForce3 - и
процесс пошёл... Сегодня
GeForce3 уже мало кого
интересует. А через 2-3 года в
небытие уйдёт и 6800!
THG. Где nVidia видит
возможности для инноваций?
DV. Мы только начали затрагивать
программируемость. На то, чтобы
достичь кинематографического
качества в реальном времени,
уйдёт ещё несколько поколений.
Да и мы всё больше вкладываемся
в наш процессор видео - и вы это
ощутите.
THG. Какие продукты в вашей
линейке имеют лучшие шансы на
успех?
DV. Мне очень нравятся наши
планы развития мобильных
решений. Мы планируем немало
достижений по соотношению
производительность/энергопотребление.
Шестая линейка обладает
десятикратным преимуществом по
этому параметру в сравнении с
предыдущим поколением!
К тому же, не забывайте о
процессоре видео, который уже
заинтересовал производителей
ноутбуков. Я жду очень многого
от шестой линейки чипов для
ноутбуков.
К тому же, мы только начали
проникать в область карманных
ПК. Развитие линейки GoForce
просто впечатляет. Следите за
новостями...
nVidia вышла на рынок карманных
ПК с GeForce.
THG. Рынок интегрированной
графики теперь всё больше и
больше завоёвывает Intel -
сегодня доля этой компании, по
данным Mercury Research, уже
достигла 60 процентов. Как вы
планируете зарабатывать деньги
на этом рынке, ведь здесь очень
низкая прибыль, и, в принципе,
конкуренция привела даже к
демпингу?
DV. На самом деле, чтобы
получить реальное представление
о рыночной доле, необходимо
учесть и "двойное наличие". В
зависимости от квартала, до 1/5
части продаваемой
интегрированной графики просто
не используется (то есть в
системе присутствует нормальный
GPU). Поэтому интегрированная
графика, на самом деле,
занимает, примерно, половину
рынка. Как мы полагаем, этот
процент не изменится в обозримом
будущем.
И хотя этот процент сегодня
намного выше, чем 4 или 5 лет
тому назад, конкурентов на рынке
интегрированной графики стало
намного меньше. Сегодня рынок
выглядит уже не так пёстро, как
раньше. Вспомните: VIA, SiS,
3dfx, Matrox, Intel, Rendition,
S3, Chromatic... все эти
компании предлагали свои GPU.
THG. Что вы думаете о HDTV?
DV. HDTV для нас является
значимой вехой. Да и для
потребителей эта технология
немаловажна. И, конечно, HDTV
требует больше графической
мощности - а мы это любим.
Флагманской моделью линейки NV4x
является чип NV40, увидевший
свет в апреле 2004 года.
Он производится по хорошо
отработанному, но стремительно
устаревающему 130-нм техпроцессу
на заводах IBM, его 222 миллиона
транзисторов потребляют до 120
Ватт энергии, поэтому "силовых"
возможностей штатного интерфейса
AGP 8x уже катастрофически не
хватает и на видеокартах,
изготовленных на базе NV40,
обычно устанавливают по два (!)
дополнительных разъема питания.
Да и система охлаждения всей
этой "печки" должна быть не
самой слабой. Наряду с NV40,
выпускается и его PCI
Express-модификация NV45, все
отличие которой от базовой
модели, заключается в
интегрированном в корпус чипа
AGP-PCI-E мосте HSI. В
производственной линейке NVIDIA
встречается еще и чип NV48,
который отличается от базового
NV40 только тем, что выпускается
на фабриках TSMC.
Таким образом, NVIDIA целиком и
полностью отказалась от услуг
IBM в области изготовления
чипов, и вернулась к своему
старому и, видимо, более
приемлемому, чем IBM,
технологическому партнеру.
256 битный четырехканальный
(организация 64х4) интерфейс
памяти NV40 обеспечивает
подключение до 1 Гбайта памяти
любого типа - как обычной
DDR1/DDR2, так и специально
разработанной для использования
в видеоустройствах GDDR3. Что
касается архитектурных
особенностей NV40, то стоит
отметить, что он стал первым
графическим процессором,
возможности которого полностью
соответствуют требованиям
DirectX 9.0с, иными словами, его
вычислительные возможности
позволяют выполнять шейдеры
версии SM (Shader Model) 3.0.
Высокую производительность
обеспечивают 6 вершинных и 16
пиксельных конвейеров (каждый из
которых, в свою очередь,
оборудован двумя шейдерными
блоками и одним блоком
текстурирования). Одновременно
могут работать либо два
шейдерных блока, либо текстурный
и один из шейдерных блоков.
Таким образом, NV40 позволяет
выполнить за такт до 16
текстурных операций или 32
операций с глубиной и буфером
шаблонов, обеспечивая
анизотропную фильтрацию с
соотношением сторон до 16:1
включительно.
На базе ядра NV40/NV45/NV48
выпускаются видеокарты: GeForce
6800 Ultra, GeForce 6800 GT,
GeForce 6800 и GeForce 6800 LE.
Типовые значения частоты
ядра/шины памяти GeForce 6800
Ultra составляют 400 МГц/1,1
ГГц, у модификации GeForce 6800
GT они снижены до 350 МГц/1 ГГц,
у GeForce 6800 - до 325 МГц/700
МГц, а у GeForce 6800 LE
частотные параметры не оговорены
вообще - все отдано на
усмотрение производителей
видеокарт. При этом у последних
двух еще и уменьшено до 12
количество пиксельных
конвейеров.
Причем, в отличие от
общепринятой практики, когда
"урезание" осуществляется путем
программного отключения
некоторого числа процессоров
(что дает возможность народным
"умельцам" путем нехитрой
операции подключить
неиспользуемые блоки, получив,
таким образом,
полнофункциональную GeForce 6800
за небольшие деньги), в данном
случае компания NVIDIA выпустила
специальное "усеченное" ядро
NV41. В нем имеется всего лишь
12 "физических" пиксельных
процессоров, тогда как все
остальное полностью
соответствует базовому NV45.
Ядро NV42 является 110-нм
версией NV41. Кстати, именно оно
лежит в основе самой последней
новинки NVIDIA - GeForce 6800 GS
(частота чипа - 425 МГц, памяти
- 1000 МГц), призванной
составить конкуренцию ATI Radeon
X1600 XT.
Для видеокарт среднего уровня,
компания NVIDIA в августе 2004
года выпустила графическое ядро
NV43, являющееся, впрочем,
несколько упрощенным (путем
уменьшения числа вершинных и
пиксельных процессоров и каналов
контроллера памяти) решением,
основанным на архитектуре NV40.
Однако NV43 выполнен по 0,11-мкм
технологии TSMC (количество
транзисторов в ядре составляет
146 млн.), и, кроме того, он
стал первым графическим ядром
NVIDIA с встроенным контроллером
PCI Express (возможна трансляция
интерфейса PCI-E в APG 8х с
помощью двустороннего PCI-E-AGP
моста HSI).
Благодаря более "тонкому"
технологическому процессу и
меньшему количеству
исполнительных устройств в ядре,
тепловыделение NV43 не превышает
70 Вт, то есть на PCI-Express
карте разъем для дополнительного
питания не нужен.
Набор вычислительных ресурсов
NV43 ровно вдвое меньше, чем у
старшей модели NV40 - он оснащен
восемью пиксельными конвейерами
и тремя вершинными, а ширина
шины памяти уменьшена с 256 до
128 бит.
В настоящее время представлено
две Mainstream-модификации
видеокарт, базирующихся на
графическом процессоре NV43 -
GeForce 6600 и GeForce 6600 GT,
а также одна класса Low-End -
GeForce 6200 (впрочем, с
недавних пор она переименована в
GeForce 6600 LE). Частоты ядра и
шины памяти GeForce 6600
составляют 300 и 550 (иногда -
500) МГц, а у модификации GT -
500 и 1000 МГц соответственно. В
GeForce 6200/6600 LE
используется "усеченное" ядро
NV43V с четырьмя (вместо
пиксельными конвейерами, а его
частотный диапазон соответствует
GeForce 6600.
Благодаря достаточно высокой
тактовой частоты чипа, несмотря
на всего лишь 8 пиксельных
конвейеров рендеринга, NV43
обеспечивает филлрейт даже
больший, нежели 12 конвейерный
GeForce 6800. Однако реально
достичь уровня
производительности своего
"старшего товарища" GeForce 6600
GT не дано - сказывается и
использование 128-битной шины
памяти и уменьшение до 3 числа
вершинных процессоров, хотя все
это и позволило заметно
удешевить 6600-ю серию.
Поэтому совсем неудивительно,
что видеокарты на чипах GeForce
6600 GT и, особенно, GeForce
6600, сегодня демонстрируют
наилучшее соотношение
"цена/производительность".
В младшей модели семейства
графических процессоров NVIDIA
GeForce 6x00 - GeForce 6200ТС
используется преимущественно
ядро NV44, изготовленное по
0,11-мкм проектным нормам. Как и
в случае NV43, PCI Express у
него нативный (то есть
реализованный на чипе), а AGP 8х
вариант чипа обозначается как
NV44А. NV44 имеет 3 вершинных
процессора, как у NV43, и 4
пиксельных, какие-либо
глобальные архитектурные отличия
от NV40 и NV43 отсутствуют.
Главным ограничителем
производительности у NV44,
является подсистема памяти -
ширина шины ограничена
64-битами. Индекс TC обозначает
поддержку технологии TurboCache,
призванная задействовать часть
системной памяти при рендеринге
буфера кадра, благо, пропускной
способности шины PCI-E x16 для
этого хватает.
Конечно, такие видеокарты
заметно проигрывают по уровню
производительности своим
полноценным собратьям, зато
немного выигрывает у них по
стоимости. А для бюджетных
решений, каждый сэкономленный
доллар может оказаться решающим
в деле продвижения на рынок
решений той или иной
конкурирующих фирм.
Тем не менее, для того, кто
захочет немного сэкономить,
приобретя такую видеокарту,
такой выигрыш окажется
иллюзорным. Ведь системная
память, в особенности DDR2, от
которой "оттяпывает" свою часть
видеосистема, отнюдь не
безразмерна и далеко не
бесплатна.
2005
Середина лета 2005 года стала
новой вехой в истории компании
NVIDIA - был выпущен графический
процессор нового поколения G70.
Но, несмотря новое кодовое
название чипа, его архитектуру
нельзя считать принципиально
новой - он является очередным
этапом эволюции хорошо знакомой
всем нам архитектуры семейства
NV4x (о чем свидетельствует
первоначальное кодовое
обозначение чипа - NV47).
Плюс к этому, NVIDIA не стала
рисковать и выпустила его по
хорошо отработанному 110-нм
техпроцессу TSMC, поэтому нет
ничего удивительного в том, что
видеокарты семейства GF7800GTX
стали доступны в массовых
количествах сразу после анонса.
Основным новшеством G70,
базирующемся на все том же
наборе шейдеров Shader Model 3.0
(SM 3.0), стало увеличение до 24
(или, по терминологии NVIDIA, до
6 процессоров квадов) числа
слегка улучшенных, по сравнению
с NV4x, пиксельных процессоров,
а вершинных - до 8, объем
адресуемой памяти типа GDDR3
может достигать 1 Гбайт.
Кроме того, была осуществлена
оптимизация питания и
энергопотребления, благодаря
чему типовое потребление
видеокарты GeForce 7800 GTX не
превышает 110 Ватт, то есть
осталось на уровне GeForce 6800
Ultra, несмотря на 30%
увеличение числа транзисторов. В
G70 появилась аппаратная
поддержка ряда потенциальных
"хитов" ближайшего будущего:
воспроизведение видео в формате
HDTV, а также поддержка важных
специальных возможностей
графической драйверной модели
Windows Vista.
Кроме High-End видеокарты
GeForce 7800 GTX (430/1200 МГц),
процессор G70 устанавливается и
в его чуть более скромном
собрате - GeForce 7800 GT,
отличающимся от GTX не только
пониженными (до 400/1000 МГц)
частотами, но и урезанным числом
конвейеров (20 пиксельных и 7
вершинных) рендеринга, что
обеспечивает ему место (по
показателям производительности)
где-то посередине между GeForce
7800 GTX и GeForce 6800 Ultra.
2006
9 марта 2006 года миру был
представлен новый флагманский
чип от NVIDIA, носящий кодовое
название G71. Данный чип был
представлен двумя картами:
GeForce 7900GTX - флагманская
карта, которая должна была
возглавить иерархию карт
калифорнийской корпорации, и
GeForce 7900GT,имеющий урезанные
частоты относительно старшей
модификации.
Собственно их частоты: 650/1600
для 7900GTX и 450/1300 для
7900GT. Конечно, это относится
именно к референс-картам, и в
серийных картах в зависимости от
производителя частоты могут
меняться.
Говоря о архитектуре чипа G71,
очевидно, что это та же самая
архитектура, что была
реализована в G70, просто
переведенная на технологию 90нм
и с минорными изменениями. Стоит
сказать, что к примеру в G71
транзисторов стало меньше
относительно G70, но на скорости
это не как не сказалось.
В новом G71 блоков стало судя по
всему под завязку - то ли выход
годных на 90нм производстве так
хорош, толи NVIDIA может
позволить себе больше брака
(т.к. себестоимость чипа упала
из за существенно меньше
площади). Еще один вариант
ответа на этот вопрос -
значительная оптимизация - тоже
вероятен, но менее, т.к.
сократить число транзисторов на
25 миллионов, без какой-либо
потери в скорости при совершенно
такой же архитектуре сложно. Но,
может быть и возможно, не будем
отвергать такую версию сразу.
Итак, косвенные причины
показывают на высокий выход
годных и отсутствие проблем с
производством, а также на
заметно меньшую себестоимость
нового чипа по сравнению с G70.
Таким образом становится и
понятен его кодовый номер - G71
- чип и правда проще по
транзисторам, хотя в итоге и
быстрее благодаря более высокой
частоте - такой вот парадокс.
Итак, с точки зрения
архитектуры, в наличии все те же
возможности и все тоже число
активных блоков. Т.е. все
определит тактовая частота,
которая заметно выше, и цена,
которая, благодаря более тонкой
технологии и меньшему числу
транзисторов может потенциально
опуститься заметно ниже, чем в
случае с G70.
Говоря, собственно, о
производительности G71, то стоит
сказать, что в данном случае она
примерно равна чипу от ATI R580.
При чем данный паритет может
колебаться в зависимости от
используемого приложения, и его
ориентировки. Например, сложные
ветвистые шейдеры на R580
выполнялись быстрее. А
приложения, которые требовали
выборки текстур из "вершинников"
позволяли G71 выйти вперед,
засчет невозможности выполнения
этого процесса на R580.
Что же, на данном этапе война
между ATI и NVIDIA разгорелась с
новой силой, и все должна была
решить цена. А она имеет, как мы
знаем, любит в зависимости от
региона существенно меняться.
Так что баталии этих двух
графических гигантов временами
перечеркивались работой
спекулянтов той или иной
местности. Но одно было ясно,
чип у NVIDIA получился очень
добротный.
При очень неплохом уровне
проивзодительности, он имел
совсем небольшой уровень
тепловыделения и
энергопотребления, чего было
нельзя сказать о R580. Так что
при покупке карточки на чипе
G71, мы могли быть уверены, что
получите "холодную", "тихую" и
производительную карту. А чего
еще надо для обычного
пользователя? Впрочем, любителей
разгона NVIDIA тоже не
обделила,т.к. GeForce 7900GT на
базе чипа G71,должен был
показывать отменный разгон.
Говоря о новинках, выпущенных на
тот момент NVIDIA, стоит
сказать, что калифорнийскими
кудесниками был выпущен также
чип для среднего ценового
сегмента. Кодовое имя чипа -
G73.
Было очевидно, что G73 это
практически ровная (если не
считать 5 вершинных блоков
вместо 4) половина G71. Как с
точки зрения контроллера памяти,
так и пиксельной части. Однако и
тут необходимо оговорить
некоторую поправку, физически у
G73 присутствует 16 пиксельных
процессоров а не 12 (т.е. в
наличии 4 квада), один квад
оставлен для борьбы за выход
годных чипов или (чем не шутит
рынок) для выпуска решения с 16
пиксельными блоками, способного
отреагировать на новую
конкуренцию в нише.
Сравнивая на тот момент, чипы
G73 и NV43(чип на базе которого
выпускались до этого GeForce
6600/6600GT, именно на замену
этого чипа был выпущен
G73),стоит омтетить,что чип
меньше по площади, чем NV43 - но
почти в два раза
производительнее.
Видеокарты, которые должны были
базироваться на G73 и должны
были носить названия GeForce
7600/GT/GS.
Но кроме всего прочего, nVidia
побеспокоилась и о AGP -секторе,
и вскоре мы смогли любоваться
картой 7800GS. Говоря о ней,
стоит сказать, что она
представляла собой чип G70 с
урезанными конвейрами,в данном
случае число пиксельных
конвейров было уменьшено до 16,
а вершинных до 6. Частота GPU
также была занижена до 375 мгц,
частота памяти составляла
1200мгц. Все характеристики
карты говорили о заведомо
отличном разгоне.
На тот момент GeForce 7800GS без
особого труда смог стать королем
AGP рынка видеокарт, прежде
всего засчет достаточно высокого
уровня производительности и
отличного разгонного потенциала.
Также NVIDIA на том этапе
выпустила карту и для LOW-
сектора. Имя этому герою -
GeForce 7300GS. Карта обладает
4-мя пиксельными и 3-мя
вершинными конвейрами. Имеет
частоту GPU равную 550мгц,
конечно, это значение может
меняться в завимости от
экземпляра и производителя.
Частота памяти 700 мгц, и
набрана она чипами DDR2 , с
64-битной шиной памяти, что
является достаточно серьезной
преградой нормальной
производительности.
Но все же 7300GS демонстрировала
неплохую производительность для
своего сектора( LOW), и была
явно быстрее предыдущих карт для
данного сегмента рынка от NVIDIA(GeForce
6200).
http://comp-history.narod.ru