10 июля 2003
Обновлено 17.05.2023

NVIDIA GeForce FX. Приоткрывая дверь в будущее

NVIDIA GeForce FX. Приоткрывая дверь в будущее - изображение обложка

Скорый поезд 3D-технологий споро несется вперед,

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 1

неумолимо приближаясь к своему единственному и вожделенному пункту назначения, именуемому не иначе как “изображение, по качеству сравнимое с фотографическим”. По пути, как это водится, случаются казусы. Нередко, разглядев на очередном полустанке вывеску “графическая революция №ХХХ”, суетливые вагоновожатые торопятся перецепить вагоны. И так уж повелось, что главный машинист состава — теперь уже совсем немаленькая калифорнийская корпорация NVIDIA. Год за годом ее чипы свершают небольшие революции, незначительные поначалу и глобальные со временем. На этапе GeForce 256 мы узнали умные слова GPU , T &L и антиалиасинг. GeForce 3 стал фактически первым чипом, кардинально изменившим картинку со времен 3Dfx Voodoo. Он поведал нам о попиксельном освещении, пиксельных и вершинных шейдерах. Результаты той, уже давней, революции мы очень хорошо ощущаем сейчас — фантастической красоты освещение в Tom Clancy’s Splinter Cell , феерические крушения дамб в **Command & Conquer: Generals,**ослепительные взрывы в Haegemonia… Сегодня настает час новой революции. Имя ей — GeForce FX. Взгляд в будущее Данный материал не для тех,

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 2

Такая вот травка появится во “Второй мировой” от Maddox Games.
кто любит, скрупулезно уткнувшись в страницу, изучать графики а-ля “зависимость количества кадров в секунду от качества анизотропии при гибридном мультисэмплинг антиалиасинге 8xS на драйверах Detonator сорок-три-точка-девять-десять-одиннадцать”. Наш сегодняшний рассказ немного о другом. Он о той революции, что свершается на наших глазах сегодня. О тех технологиях, что пока лишь ставят несгибаемые распорки меж челюстей, но станут правдой жизни всего через несколько лет прогресса. Важная причина подобной формы повествования — рыночное позиционирование плат на GeForce FX. Предположительно проходной продукт, давший повод считать себя “не жильцом” еще до появления в широкой продаже. Известно, что чипов NV30 (см. ниже) выпущено немного, NV31 и NV34 (см. там же) малоубедительны, а NV35 ( GeForce FX 2 ) будет на прилавках уже этим летом. Так что массовым станет, вероятно, лишь FX2. А FX — просто проба пера, предназначенная в основном для профессионалов, работающих с 3D -графикой, и узкой когорты сумасшедших геймеров, покупающих все новое без разбора. Все это, впрочем, не мешает нам восхищаться несомненными достоинствами GeForce FX и, пользуясь ей как ключиком, приоткрыть заветную дверь в будущее… Построение Для начала расскажем о модельном ряде GeForce FX. Различия между чипами в пределах ряда более чем существенны. NVIDIA даже дала им разную маркировку — NV30 , NV31 и NV34 , хотя чип на самом деле один. По сути, перед нами три линейки карт, нацеленные на разные сегменты рынка. * NV30 — он же GeForce FX 5800/5800 Ultra — передовая модель, работающая на высоких частотах ядра ( 400 / 500 МГц) и укомплектованная 128- битной DDR-II памятью нового типа с частотой 400 / 500 ( 800 / 1000 ) МГц и объемом 128 / 256 Мб. * NV31 — он же GeForce FX 5600/5600 Ultra — модель среднего класса, наиболее близкая к оригинальному NV30. Призвана занять нишу видеокарт "до $ 200 " и прийти на смену GeForce4 Ti4200. Частота ядра — 350 МГц, карты комплектуются до 256 Мб обычной 128 -битной DDR памяти с частотой 350 ( 700 ) МГц. Смеем предположить, что вся разница между Ultra-модификацией и обычной будет как раз упираться в количество и частоту памяти (о точных спецификациях NVIDIA пока умалчивает). * NV34 — он же GeForce FX 5200/5200 Ultra — традиционно бюджетная модификация, которая заменит GeForce4 MX. Ядро — 325 МГц, память — до 128 Мб обычной 128 -битной DDR памяти с частотой 325 ( 650 ) МГц. Внушает надежду тот факт, что на этот раз маркетинговый отдел не повторил ошибки с GeForce 4. Народ до сих пор не может понять, отчего два абсолютно разных продукта с индексами MX и Ti идут под одним именем. Ныне же мы имеем три отдельных модельных ряда с разными характеристиками, выполненных по очень схожим, но все же разным технологиям. И это уже потенциальный минус. Если раньше можно было прикупить какой-нибудь Ti4200 и разогнать его до номинала, скажем до Ti4400 , то сейчас такой фокус не пройдет. NV31 и NV34 просто-напросто не обладают такими вычислительными мощностями, как NV30. Причем разница — вдвое и более. Если NV30 содержит 125 миллионов транзисторов, то NV31 и NV34 — только 45. То же касается и текстурных блоков и пиксельных конвейеров — у NV30 их вдвое больше, нежели у младших собратьев. Также стоит отметить, что NV30 и NV31 выполнены по новому 0.13 мкм техпроцессу, тогда как NV34 — по старому 0.15 мкм. Модели на NV30 комплектуются

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 3

Размер имеет значение!
новой высокоскоростной DDR-II памятью от SAMSUNG. Ее отличают меньшее время доступа (от 2.2 нс до 1.8 нс, напомню, что предел у DDR составляет 2.9 нс), хорошая защита от наводок (результат — более чистый сигнал) и меньшее энергопотребление (c 2.5 В до 1.8 В). С другой стороны, NV30 использует 128 -битную шину, что дает, например, 5800 Ultra меньшую пропускную способность, нежели у ATi Radeon 9700 PRO с его 256 -битной DDR ( 16 Гб против 19,8 Гб). Частично это объясняется тем, что в рукаве NVIDIA припрятан козырь — новые технологии экономии пропускной способности памяти (о них ниже), которые помогут эффективно использовать данные 16 Гб. Также можно предположить, что переход на 256 -битную шину не за горами, вероятно, это произойдет уже в NV35. **__**Все три модели попали к нам в Ultra -модификациях. Дизайн GeForce FX 5200 и 5600 больше всего напоминает GeForce4 Ti4600 , тогда как старшая модель 5800 не похожа ни на что и просто поражает своими размерами. Плата размахнулась в корпусе сразу на два (!) слота. Виной тому — новая система охлаждения под названием Flow FX. Основная задача системы — выносить горячий воздух прямо из корпуса, чтобы не повышать температуру окружающей среды, и забирать свежий воздух снаружи для более эффективного охлаждения. Так и работает — по принципу пылесоса. Ибо 125 миллионов транзисторов — не шутка, а серьезный нагревательный прибор… Для контроля над процессом охлаждения инженеры NVIDIA предусмотрели специальную аппаратную схему мониторинга текущей температуры чипа. Реализация напоминает решения Intel в Pentium 4 — при высокой температуре карта сама начинает понижать частоты ядра и памяти. Система умеет самостоятельно различать характер запущенных приложений ( 2D или 3D ) и соответственно этому контролировать интенсивность охлаждения. Запуская какую-нибудь современную игрушку, готовьтесь “насладиться” недетским ревом “пылесоса” — Flow FX. На практике все минусы конструкции FX 5800 хорошо заметны. Косвенно они намекают на то, что данная модель имеет весьма сомнительное будущее в роли массового розничного продукта. Слишком много условий надо соблюсти и слишком многим приходится жертвовать, инсталлируя 5800 в компьютер. Кстати, все платы требуют дополнительного питания. Подключаются — как обычный винчестер! И если для 5200/5600 дополнительное питание является желательным, то 5800 без него мгновенно впадает в ступор. **

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 4
NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 5

**
GeForce FX 5600 очень напоминает Ti4600. Особенно производительностью.
Все карты рассчитаны на шину AGP 8X , при этом исправно функционируя и на AGP 4X (на 2X пробовать не решились). Модели на NV30 и NV31 снабжены 10 -битными RAMDAC на 400 МГц, максимальное разрешение которых — 2048x1536 @ 85 Гц; на NV34350 МГц. Стоит оговориться, что поддержка 10 бит на канал есть лишь у ограниченного числа мониторов, так что особо радоваться по этому поводу не стоит. Качество 2D , по моей субъективной оценке, просто великолепно и выше всяких похвал. Кристально чистая картинка. Намного чище, чем на моем Ti4200 8X от ASUS. Надеюсь, что подобное свойство сохранится и в серийных платах от сторонних производителей (напомню, что мы тестируем опытные образцы, предоставленные компанией NVIDIA ). DVI -интерфейсы (их три), интегрированы в чип ( 1600х1200 ), как и TV-Out ( 1024х768 ). Самое интересное, что имеется поддержка HDTV -телевизоров с разрешением вплоть до 1920х1080i. Рассвет компьютерной кинематографии Именно такой лозунг придумали маркетинговые асы компании NVIDIA для GeForce FX. Что интересно — не соврали, ибо рассвет — это еще не “ясный день”, и подобное название, в принципе, ни к чему не обязывает. При этом нужно

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 6

Лепота! Пример работы с шейдерами 2.0. Обратите внимание на искажение дна в реке.
понимать, что под “компьютерной кинематографией” понимаются не какие-то специфические возможности чипа, позволяющие осуществлять нелинейный монтаж потокового видео. Суть фразы в том, что изображение, получаемое в режиме текущего времени, выглядит очень реалистично, в данном контексте — “кинематографично”, то есть “как кино”. GeForce FX соответствует спецификациям DirectX 9. В первую очередь — это пиксельные и вертексные шейдеры версии 2.0. Значительный шаг вперед к вожделенному фотореалистичному изображению. Оригинальные шейдеры (версии 1.x) имели серьезные ограничения. Версия же 2.0 дает разработчикам возможность писать чрезвычайно гибкие программы и создавать воистину впечатляющие эффекты. При этом GeForce FX не только соответствует эталонным спецификациям, но и качественно превосходит их (версия 2.0+ ). Конечно, все это шейдерное великолепие найдет применение лишь в будущем — ибо пока далеко не все разработчики торопятся переходить на шейдеры версии 2.0. Их можно понять, ведь у большинства пользователей установлены ускорители предыдущего поколения, не понимающего данный стандарт. С другой стороны, NVIDIA уже выпустила и активно развивает язык Cg (“C for graphics”), который создает очень комфортные условия для написания шейдеров, тем самым стимулируя начинающих разработчиков к творчеству. Немаловажным нововведением DX9 является повышенная точность представления данных (операции с плавающей точкой). Каждая точка может занимать в памяти до **

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 7

Оказывается, альфа Doom III — не самое впечатляющее зрелище с темными коридорами.128бит информации. Такое нововведение будет полезно при реализации различных световых эффектов и моделирования реалистичного освещения. Как известно, стандартно изображение на мониторе предстает перед нами в32**-битном цвете. Точнее, в виде24бит (по восемь бит на канал, каналов три — красный, зеленый, синий), а остальные8отводятся на прозрачность. Соответственно, каждому цвету может быть присвоено значение от0до255. Рассчитывая цвет так “грубо”, мы зачастую получаем не совсем удовлетворительный результат.DX9эту проблему исправит — для повышения точности целочисленной информации, выводимой на экран, введен новый формат10:10:10:2(красный:зеленый:синий:прозрачность), где значения цвета передаются с точностью10бит.__Кстати,128-битная точность цвета — это уже студийное качество графики. Собственно, поэтомуNVIDIAтак и напирает на “рассвет компьютерной кинематографии” — фактически, компьютерная графика приравнивается кCGI-мультфильмам (Сomputer Generated Imagery— синтетические, сделанные полностью на компьютере) а-ля**“Шрек”. Конечно, до подобного уровня анимации игры дойдут еще не скоро (технологии есть, но вот творческих силенок и таланта пока не хватает). Хотя отдельные результаты можно увидеть уже сейчас — см. иллюстрации к статье. Кстати, когда разработкаDoom IIIтолько начиналась,Джон КармакпросилMicrosoftвнести в следующую версиюDirectX**(как раз9надвигалась)64-битную точность представления данных. Видимо, он понимал, что для игры, которая собирается быть страшной, темной и красивой, это необходимо. Как видите,Microsoftпошла навстречу и еще дальше. Мечта тов. Кармака сбылась, и я надеюсь, что скоро мир увидит, насколько данный факт пошел впрок игре.** К вершинам совершенстваСреди прочего,NVIDIAиспользует вGeForce FXтехнологиюIntellisample**. Под этим названием собраны в кучку меры по улучшению качества изображения (новые алгоритмы антиалиасинга) и экономии пропускной способности памяти. Что является главным препятствием у антиалиасинга? Правильно — пропускная способность памяти. ВGeForce FXреализовано сжатие буфера кадров. Причем сжимаются не только значения глубины, но и цвета. Компрессия4:1, без потерь. Результат можете предугадать сами. Смею оптимистично предположить, что халявный антиалиасинг совсем близко. Кстати, появились новые режимы антиалиасинга —6xSи8xS, но особой пользы мы в них не нашли. Так же, как и дармовая анизотропия… ВGeForce FXреализован хитрый режим, позволяющий уменьшить потери производительности при включенной анизотропии. Результаты не столь впечатляющие, как у антиалиасинга, но все же экономияfpsместо имеет. Уточним, что чипNV34технологиейIntellisampleне укомплектован — имейте в виду.Тестирование

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 8

Тестовый стенд: * Процессор: Intel Pentium 4 3066 МГц * Системная плата: Gigabyte (SiS 655) * Оперативная память: 1Гб DDR SDRAM * Жесткий диск: Seagate Barracuda V 80Гб * Операционная система: Windows XP SP1 * Монитор: Samsung SyncMaster 700IFT (17") * Драйвера: NVIDIA Detonator v43.00 3DMark 2003 Поскольку тестирование у нас имеет четкую игровую направленность, мы взяли за основу исключительно игровые тесты. Один из них базируется на DirectX 7 , два других — на DX8 , и последний — соответственно, на DX9. Разрешение — 1024х768. Game 1: Wings of Fury(DX7) Game 2: Battle of Proxycon(DX8) Game 3: Trolls’ Lair (DX8) Game 4: Mother Nature(DX9) 3D Marks
GeForceFX 5800 Ultra 184,6 34,8 27,9 33,2 5224
GeForceFX 5600 Ultra 121,1 18,2 16,5 14,1 2871
GeForceFX 5200 Ultra 98,9 9,1 7,1 9,2 1701
Radeon 9700 PRO 152,4 28,7 25,2 25,9 4500
GeForce4 Ti4600 120,6 10,9 10,3 - 1750
GeForce4 Ti4200 8Х 106,4 11,5 8,5 - 1624
Wings of FuryDirectX 7 тест. Вторая мировая. Группу **

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 9

**
Представьте троллей орками — и вам захочется нового Warcraft’а.
бомбардировщиков союзных войск атакуют вражеские самолеты и заградительный огонь систем ПВО. Здесь мало полигонов, но много частиц. Самолеты рендерятся с четырьмя слоями текстур. Результаты — закономерные. Больше ничего и не скажешь… Battle of ProxyconDirectX 8 тест. Космический корабль берут на абордаж (кстати, такого сценария еще не было в 3D-Action ) — ожесточенные перестрелки в коридорах, а за окном — настоящее космическое сражение… Одним словом, Doom III отдыхает. Некоторые камеры в тесте используют эффекты Depth of Field и Bloom. Вовсю задействованы пиксельные и вертексные шейдеры. Очень интенсивная работа с освещением, присутствуют тени, реализованные посредством стенсил-буфера. Также используются системы частиц и реальная физика. Тест дает большую вычислительную нагрузку и демонстрирует высокую зависимость от пропускной способности памяти. NV34 , который не обладает оптимизациями NV30 и NV31 , выдает удручающие результаты, а Ti4200 на шине AGP8X обходит Ti4600 на 4X. GeForce FX , несмотря на меньшую пропускную способность, превосходит Radeon 9700 PRO. Trolls’ LairDirectX 8 тест. Девушка, вооружившись огненным мечом (чтоб тени отбрасывал), спускается через потайной вход в логово двух троллей. Начинается бойня… Тест содержит еще большее количество полигонов, нежели предыдущий. Некоторые камеры в тесте используют эффекты Depth of Field и Bloom. Вовсю задействованы пиксельные и вертексные шейдеры. Очень интенсивная работа с освещением, присутствуют тени (опять стенсил-буфер). Для столкновений и падений персонажей на пол используется реалистичная физическая модель. Для моделирования волос героини применяется анизотропное освещение и специализированный алгоритм, обсчитывающий динамику. В целом, картина финальных результатов повторяется. С той лишь разницей, что Ti4200 8Х , несмотря на свою шину AGP 8X, уже не в состоянии обойти старшего собрата Ti4600 на AGP 4X. Сказываются возросшая вычислительная нагрузка, где у 4800 конечно же, преимущество. Mother NatureDirectX 9 тест. Фантастической красоты сцена. Камера пролетает над ручьем. Трава и все листья на деревьях индивидуально анимированы с помощью вертексных шейдеров. Поверхность озера и небо созданы посредством пиксельных шейдеров. Большой диапазон цветов используется при расчете бликов и света. Присутствует эффект искажения дна реки (очень реалистично). Самый сложный тест, самое важное испытание для карт. Дополнительных комментариев, мне кажется, не нужно — ибо сюрпризов нет, и все достойные на местах. Unreal Tournament 2003

1024x768

1280x1024

GeForceFX 5800 Ultra

182,1

150,4

GeForceFX 5600 Ultra

120,1

77,8

GeForceFX 5200 Ultra

74,7

45,1

Radeon 9700 PRO

180,8

134,9

GeForce4 Ti4600

141,4

92,3

GeForce4 Ti4200 8Х

119,2

76,1

Не успев выйти, тест UT2003 уже устарел и не может показать реально разницы в производительности. В целом, расклад сил не изменился. Но заметьте — Radeon дышит в спину на более низком разрешении и заметно отстает при его повышении. И это несмотря на более высокую пропускную способность памяти. GeForce FX 5200 , как и в прежних тестах, — отстает. 5600 и Ti4200 показывают примерно одинаковые результаты. AquaMark v2.3

1024x768

1280x1024

GeForceFX 5800 Ultra

84,5

79,1

GeForceFX 5600 Ultra

62,8

42,0

GeForceFX 5200 Ultra

44,5

23,5

Radeon 9700 PRO

85,9

68,2

GeForce4 Ti4600

82,1

56,9

GeForce4 Ti4200 8Х

71,2

48,2

Опять та же ситуация — в более низком разрешении

NVIDIA GeForce FX. Приоткрывая дверь в будущее - фото 10

Технологии устаревают прямо как эта машина из комплекта демок GeForce FX…
Radeon даже умудряется обойти GeForceFX 5800 , но при повышении начинает заметно отставать. Все-таки оптимизации в NV30 делают свое дело. Кстати, 5600 и 5200 хором проигрывают своим предшественникам, что неудивительно, если посмотреть на их спецификации. Верной дорогой идете, товарищи!.. …как говаривал известно кто. Все сказанное в начале статьи подтвердилось — GeForce FX все-таки скорее “проходная” карта, нежели потенциальная народная марка. В действительности, модели 5600 работают на уровне Ti4200 , и местами даже медленнее. 5200 — явно конкурент GeForce4 MX. 5800 вряд ли пойдет на широкий потребительский рынок. Цены — не менее интересные. По неоднократным заявлениям NVIDIA , цена GeForce FX 5600 не превысит $ 200 за Ultra и $ 180 за обычную модификацию; 5200 — обойдется нам в $ 150 и $ 100 соответственно. Другими словами, главный стимул к покупке младших моделей FX — это не производительность и не цена, а исключительно поддержка DirectX 9. Однако есть мнение, что игры, поддерживающие этот API, появятся не раньше выхода NV35. Отсюда вывод, что вся серия GeForce FX без сомнения станет отличным апгрейдом для подавляющего числа геймеров, в массе своей владельцев карт класса GeForce 2/3 или GeForce4 MX. Счастливым же собственникам полноценных GeForce 4 торопиться с покупкой не следует; разумнее будет подождать появления первых DX9 игр и конечного определения розничных цен. *** Благодарим компанию NVIDIA ( www.nvidia.com ) за предоставленные на тестирование карты. Спасибо журналу iXBT ( www.ixbt.com ) за предоставленные высококачественные иллюстрации.

Комментарии
Чтобы оставить комментарий, Войдите или Зарегистрируйтесь