NVIDIA наносит превентивный удар. Игровые тесты: Far Cry with HDR Lighting. Игровые тесты: Pacific Fighters

Мы уже немало писали о долгожданном выходе очередного семейства графических процессоров ATI - Radeon X1000. На деле же с их производительностью не все оказалось гладко, а доступность решений на новых чипах продолжает вызывать вопросы. Однако в NVIDIA весьма серьезно отнеслись к этой потенциальной угрозе, и по всем правилам военной тактики был нанесен упреждающий удар.

Удар стал поистине сокрушительным: в то время как ATI до сих пор развертывает свои боевые порядки (пытаясь наладить выпуск Radeon X1300 Pro/X1600 XT/X1800 XT в достаточных для удовлетворения потребностей рынка масштабах), NVIDIA с легкостью дополняет диспозицию новыми решениями. Речь идет о видеоплатах GeForce 6600 DDR2, GeForce 6800 GS и GeForce 7800 GTX 512MB. К сожалению, первая пока только ожидается в нашей Тестовой лаборатории, а вот о двух последних мы поговорим более предметно.

Итак, GeForce 7800 GTX 512MB является тяжелой артиллерией компании - это флагманский продукт NVIDIA, призванный конкурировать с Radeon X1800 XT. Помимо удвоенного объема видеопамяти, эта плата отличается значительно повышенными по сравнению с 256-мегабайтовой версией GeForce 7800 GTX тактовыми частотами (для чего специально отбирались процессоры, способные работать в таком режиме). Также использована самая быстрая существующая на данный момент память со временем доступа 1,1 нс. В сумме эти факторы позволяют сегодня назвать GeForce 7800 GTX 512MB самой быстрой одночиповой видеокартой. Кроме того, возможность объединить две такие платы в SLI вообще снимает все вопросы относительно лидерства в high-end сегменте. Справедливости ради отметим, что доступность нового флагмана NVIDIA все же далека от желаемой, как и цена, очень сильно завышенная. Впрочем, для покупателей продуктов этого класса стоимость не имеет решающего значения.

GeForce 6800 GS ведет свою родословную отпредыдущего поколения продуктов NVIDIA - он базируется на 0,11-микронном ядре NV42. Эта карта выпущена в качестве «противовеса» Radeon X1600 XT, и, как показывают тесты, с этой ролью успешно справляется. Для ее производства использованы печатная плата от 7800 GT и довольно мощная система охлаждения, что совсем не лишне, учитывая повышенные тактовые частоты, составляющие 425/1000 MHz для ядра и памяти соответственно. Чип имеет 12 пиксельных и 5 вершинных конвейеров. Судя по всему, видеокарты на его базе будут иметь значительную популярность до появления решений следующего поколения. Принимая во внимание все факторы, данная видеокарта обладает отличным соотношением цены и быстродействия в среднем классе. Что же касается доступности, то сам за себя говорит тот факт, что представленная на тестирование плата является серийно выпускаемым образцом компании MSI, хотя анонсирован GeForce 6800 GSбыл много позже Radeon X1600 XT.

Результаты тестов в большинстве случаев демонстрируют превосходство новых продуктов NVIDIA над соперниками, что весьма показательно. Не следует забывать о том, что и GeForce 6600 DDR2 (убедительно противостоящий Radeon X1300 Pro), и GeForce 6800 GS являются представителями прошлого поколения продуктов, а решения среднего и бюджетного классов NVIDIA на базе новой «семитысячной» серии до сих пор не анонсированы, следовательно, у компании еще есть довольно существенные резервы.

Тем не менее в нынешнем году ожидается много интересных новинок от обеих компаний, и не исключено, что расстановка сил изменится. Однако авторитет и имидж лидера не завоевываются за один день, хотя отрицать высокую динамичность этого рыночного сектора также нельзя. Судя по всему, самое интересное нас ждет впереди, а сегмент графических адаптеров в этом году будет во всех отношениях весьма горячим.

Сравнительные характеристики видеоадаптеров
Видеокарта ATI RADEON X1800 XT 512MB PCI-E ATI RADEON X1600 XT 256MB PCI-E NVIDIA GeForce 7800 GTX 512MB MSI NX6800GS-TD256E
Видеопроцессор Radeon X1800 XT Radeon X1600 XT GeForce 7800 GTX 512 GeForce 6800 GS
Техпроцесс, мкм 0,09 0,09 0,11 0,11
Количество транзисторов, млн 320 157 302 220
Число пиксельных/вершинных процессоров 16/8 12(4TMU)/6 24/8 12/5
Разрядность шины памяти, бит 256 128 256 256
Частоты ядра/памяти, MHz 625/750 (1500) 590/690 (1380) 550/850 (1700) 425/500 (1000)
Видеопамять 512 MB GDDR3, 1,26 нс 256 MB GDDR3, 1,26 нс 512 MB GDDR3, 1,1 нс 256 MB GDDR3, 2,0 нс
Интерфейсы DVI (2), S-Video DVI (2), S-Video DVI (2), S-Video DVI, D-sub, S-Video
Цена, $ 620 196 718 200

Гонка графических процессоров вновь накаляется. Во время выпуска SLI nVidia получила корону графической производительности в конфигурациях на двух картах, но первое место среди одиночных решений было не таким убедительным. 22 июня этого года nVidia выпустила 7800 GTX, который буквально порвал все конкурирующие модели.

Долгие дни ATi медлила с ответом. Конечно, компания анонсировала технологию совместной работы двух карт CrossFire, но она так и не попала на рынок. Даже после недавнего второго запуска этой технологии потребитель по-прежнему не может купить ни master-карты CrossFire, ни материнские платы.

Чуть больше месяца назад ATi выпустила линейку X1000 и вернула своё лидирующее положение. В некоторой степени. На рынке карты появились лишь через некоторое время.

Флагман X1800 XT тоже задержался, хотя сегодня и появился на полках магазинов. Впрочем, что касается новых карт nVidia 6800 GS, то в России ситуацию с их доступностью тоже нельзя назвать благоприятной.

Но сегодня разговор пойдёт не о том. nVidia вновь вернула себе корону производительности в конфигурациях как с одной, так и с двумя графическими картами. Мы имеем в виду выход на рынок нового графического процессора 7800 GTX 512. С выходом нового чипа nVidia обещает доступность карт на его основе в тот же день. Что ж, посмотрим, хотя в России ситуация осложняется таможней и другими проблемами.

Чип 7800 GTX 512 базируется на 7800 GTX, но содержит ряд модификаций. На первый взгляд, изменения можно назвать косметическими: nVidia вместе с партнёрами добавила возможность установки на карту ещё 256 Мбайт памяти. Но в действительности дизайн графических карт и ядра nVidia GeForce 7800 512 подвёргся изменению, включая изменения в раскладке, что позволило улучшить обработку данных. Скажем, внутренняя шина была расширена до 512 бит (виртуально, благодаря технологии DDR). В принципе, 512-битная шина данных не является чем-то новым. Та же ATi в линейке X1000 использует внутреннюю 512-битную шину (256 бит в двух направлениях). Однако пионером в данной области является Matrox и карта Parhelia 512 (кстати, эта компания первой реализовала и 256-битную шину).

У 7800 GTX 512 внутренняя шина способна передавать 512 бит за такт благодаря поддержке технологии DDR. Внешняя шина остаётся 256-битной, так что скорость работы с 512-Мбайт буфером остаётся прежней. Если вернуться в прошлое, то мы никогда даже и не предполагали, что объём памяти видеокарты может сравняться или даже превзойти объём системной памяти. Теперь же суммарный объём графической памяти в конфигурации SLI может достичь 1 Гбайт!

С новой широкой внутренней шиной и благодаря оптимизациям раскладки ядра, nVidia смогла сильнее увеличить тактовые частоты по сравнению с оригинальным чипом 7800 GTX. Появившись в июне, GeForce 7800 GTX работал на тактовой частоте ядра 430 МГц и памяти - 600 МГц. Теперь же новые карты работают с частотой ядра 550 МГц и памяти - 850 МГц (1,7 ГГц DDR). Существенное продвижение вперёд.

Работа на повышенных тактовых частотах при сохранении техпроцесса 110 нм привела к тому, что nVidia потребовалось более совершенное решение охлаждения. И кулер был взят от уже существующей карты Quadro FX 4500. nVidia заявляет, что новое ядро, несмотря на более высокие тактовые частоты, будет потреблять не больше энергии, чем существующая 7800 GTX. Но как такое может быть? Техпроцесс не менялся, а частоты существенно возросли. Как будет видно ниже, nVidia не совсем права в своих заявлениях.

Получив карты, мы установили их в нашу тестовую систему, которую использовали для тестирования драйверов линейки 80 . Как мы уже отмечали, в документации к новым драйверам была указана поддержка карт следующего поколения. Но WHQL-сертифицированный драйвер 81.85 с сайта nVidia не смог распознать новые карты. Мы проверяли его со многими картами GeForce 7800 GTX, однако с новой линейкой 512 он работать отказался.

Мы решили скачать бета-драйвер 81.87 с сайта SLIzone.com (ещё один сайта nVidia, нацеленный на энтузиастов). После деинсталляции существующего драйвера 81.85 мы перезагрузили систему и попытались установить бета-драйвер. Но мы сразу же получили сообщение об ошибке, как и раньше. Драйвер не поддерживает карты.

Затем мы получили ещё один драйвер для тестирования (версия 81.89), который распознал наши карты и позволил их протестировать. Мы сразу же захотели проверить, правда ли, что nVidia поменяла ядро. С драйверами линейки 80 карты будут работать в конфигурации SLi, только если у них одинаковые ядра. Поэтому мы достали одну видеокарту 7800 GTX 512 и заменили её июньской эталонной моделью 7800 GTX.

Когда мы включили систему с двумя разными картами, соединёнными мостиком SLi, Windows XP Professional не смогла завершить загрузку. Она периодически "подвисала" на длительное время при прокрутке горизонтальной полоски. Подождав минут 20, мы решили, что подобная конфигурация всё же не заработает. Даже если бы машина и загрузилась, кому в здравом уме пригодится такая конфигурация, когда загрузки машины надо ждать полтора часа? Это в старые добрые дни можно было минутами ждать проверки памяти FP или EDO после включения тумблера питания. Но на дворе 2005 год.

Мы решили провести ещё один прогон, но без мостика SLI. И всё удалось! Система стартовала без каких-либо проблем. Windows запросила установку драйверов видеокарты, найдя традиционную 7800 GTX. Мы вызвали диспетчер устройств, чтобы убедиться в правильной установке. Затем мы открыли окно драйвера, чтобы посмотреть, сможем ли мы включить SLI. К сожалению, мы получили сообщение, что две карты не могут работать в конфигурации SLI, даже если они обе называются GeForce 7800 GTX.


Обе версии 7800 GTX на плате Abit Fatality AN8-SLI. Здесь наглядно видно различие карт по размеру. Модель 512 занимает два слота.

Размер системы охлаждения новых карт может не подойти для многих современных материнских плат. Если вы уже купили материнскую плату SLI от Abit, Gigabyte, MSI или любого другого производителя, то обнаружите, что два слота PCIe x8 расположены слишком близко друг к другу. Для карт линейки 6000 это не вызывало проблем, поскольку кулеры не занимали второй слот. То же самое было верно и для линейки 7000. Однако сейчас кулер первой карты слишком близко прилегает к плате второй карты.

Asus разработала свою материнскую плату с учётом использования системы охлаждения Artic Cooler на графических картах Extreme N7800 GTX TOP, которые занимают примерно 2,25 слота. Это оставляет достаточно места для новых карт GeForce 7800 GTX 512.

Хотя новые карты не так сильно нагреваются, как оригинальная 7800 GTX, кулеры всё же очень большие. Ниже мы привели несколько фотографий, показывающих различие между двумя раскладками материнских плат.


Раскладка Asus обеспечивает больше места между картами.


Системное аппаратное обеспечение
Процессор AMD Athlon 64 FX-57
2,8 ГГц, 1,0 ГГц HyperTransport, 1 Мбайт кэша L2
Платформа Asus AN8-SLI Premium
nVidia nForce4 SLI, BIOS 1003 - 1005
Память Corsair CMX1024-4400Pro
2x 1024 Мбайт @ DDR400 (CL3,0-4-4-8)
Жёсткий диск Western Digital Raptor, WD740GD
74 Гбайт, 10 000 об/мин, кэш 8 Мбайт, SATA 150
Сеть Встроенный nForce4 Gigabit Ethernet
Блок питания Enermax EG851AX 660 Вт, SLI-сертифицированный
Видеокарты
nVidia GeForce 7800 GTX 512 (эталонная) 512 Мбайт GDDR3
550 МГц ядро, 1,7 ГГц память DDR
ATi Radeon X1800 XT 512 Мбайт GDDR3
625 МГц ядро, 1,50 ГГц память DDR
nVidia GeForce 7800 GTX (эталонная) 256 Мбайт GDDR3
430 МГц ядро, 1,2 ГГц память DDR
Системное программное обеспечение и драйверы
ОС Microsoft Windows XP Professional 5.10.2600, Service Pack 2
Версия DirectX 9.0c (4.09.0000.0904)
Драйвер платформы nForce 6.65
Графические драйверы ATi - Catalyst 5.9 - Display Driver 8.173
nVidia - Forceware 81.85 - WHQL - 7800 GTX
nVidia - Forceware 81.89 - Beta - 7800 GTX 512

Как мы отмечали выше, nVidia в своей презентации указывает на то, что новая карта не увеличивает энергопотребление системы на сколько-нибудь заметное значение.

Возможно, nVidia думает, что дополнительные 20 Вт являются незаметным значением, но большинство пользователей вряд ли с этим согласятся. Карта потребляет на 20% больше. Скажем, разве можно назвать "незаметным" 20% увеличение производительности? Продолжаем мысль дальше. Минимальным блоком питания для одной карты станет 350-Вт блок, обеспечивающий не меньше 22 А по линии 12 В. А для работы двух карт блок питания должен обеспечивать не меньше 500 Вт, причём по линии 12 В ток должен составлять не меньше 30 А. Посмотрим на результаты измерений.

nVidia прокомментировала, что указанные требования являются пиковыми, но, как можно видеть по результатам, во время запуска 3D-приложений общее энергопотребление возрастает примерно на 6,3%. Возможно, именно это значение компания назвала "незаметным". И здесь мы, в принципе, согласны.

Есть и хорошие новости: GeForce 7800 GTX действительно потребляет меньше энергии, но только во время бездействия или при загрузке. На диаграмме можно видеть среднюю экономию энергии в 9,3%. Впрочем, вряд ли покупатели подобных карт будут экономить каждую копейку на счёте за электричество. Они желают получить максимальную частоту кадров по любой цене. Что ж, давайте перейдём к результатам тестов производительности.

Результаты тестирования

3DMark часто называют "геймерским тестом", а лаборатория THG использует разные версии этого теста уже несколько лет. Баллы 3DMark выдаются относительно эталонной системы. Чем выше баллы, тем выше производительности системы по сравнению с эталонной. С каждой новой версией 3DMark баллы пересматриваются, чтобы они не возросли астрономически высоко. Этот тест широко используется в индустрии.

Как видим, GeForce 7800 GTX 512 обгоняет ATi X1800 XT, показав больший результат.

Многие игры базируются на движке Unreal. По этой причине мы считаем, что UT2004 должен сохраняться в нашем ассортименте тестов. Мы используем демо UT2004 собственной сборки, действие происходит в режиме "assault" на карте Fallen City. Мы не включали ботов, а графические детали, вполне понятно, были выкручены на максимум.

Как видим, производительность движка Unreal упирается в CPU. Но при повышении разрешения и количества функций карта вновь становится ограничивающим фактором. Но даже в разрешении 1600x1200 с 4xAA и 8xAF новая версия 512 уже не сдаётся, в отличие от оригинала.

Движок Crytek является одним из многих, но игра Far Cry хорошо нагружает видеокарту текстурами, тенями и освещением. Во время тестов мы включали фонарик в игре. Мы использовали собственное демо Cooler01, чтобы гарантировать независимый результат. Far Cry также поддерживает высокий динамический диапазон HDR (High Dynamic Range).

Что-то интересное проглядывает в этом и некоторых других тестах в конфигурации SLI. Раньше SLI обеспечивала в Far Cry прирост, включая оригинальную 7800 GTX. Но здесь, как можно видеть, одиночная 512 обеспечивает более высокую частоту кадров. Возможно, это просто связано с драйверами, которые находятся в состоянии бета-версии, либо с тем, что на просчёт SLI тратится слишком много ресурсов.

При повышении разрешения SLI вновь выходит на первое место.

Следующий игровой движок - Doom 3. Он способен поставить все карты "на колени" из-за использования сложного освещения. Мы использовали штатное timedemo Doom 3 "demo1" для каждого из наших тестов. Сначала драйвер видеокарты выставлялся в настройку "application controlled" ("управление приложением"). Затем для первого прогона мы отключали FSAA и включали настройку высокого качества. При этом включалась анизотропная фильтрация (в режим 8x). Для второго прогона мы включали FSAA в режим 4х, чтобы нагрузить видеокарту по-максимуму.

Опять же мы наблюдаем знакомый сценарий, когда одиночная карта обгоняет конфигурацию SLI. Возможно, проблемы всё же в драйвере, но мы постараемся выяснить этот вопрос с nVidia.

Опять же, при увеличении нагрузки результаты приходят в норму. Во всех пяти тестах 7800 GTX 512 выходит в лидеры.

Затем мы тестировали карты на движке Valve Source, который используется в Half-Life 2. Игра HL2 немало нагружает процессор, поэтому она является хорошим тестом не только последних графических карт, но и общей системной производительности. Кстати, HL2 отличается очень красивыми графическими красотами. Во время последнего обновления Valve Software к Half-Life 2 была добавлена поддержка HDR. Прекрасное добавление, но в результате наше прежнее тестовое демо потеряло свою актуальность. Поэтому пришлось обновить этот тест. Теперь мы используем демо DP_Coast_01.dem.

Первый раз карты 7800 GTX 512 не вышли на первое место. Кроме того, эта игра не очень-то любит SLI.

Даже Half-Life 2 в высоком разрешении уступает первое место новой карте nVidia.

Мы продолжаем проверять возможности разгона новых карт и драйверов. Хотя nVidia по умолчанию не предоставляет движков разгона в драйверах карты, их можно включить с помощью Coolbits. Напоминаем, что разгон лишает гарантии и сокращает срок службы компонентов. Для наших тестов мы использовали кулер, поставляющийся в комплекте с картой.

Мы смогли при одиночной работе карты увеличить частоту ядра до 621 МГц, а память - до 1,81 ГГц DDR (напомним, что оригинальные частоты составляют 550 МГц для ядра и 1,7 ГГц DDR для памяти). При этом в 3DMark 2005 мы смогли увеличить результат от 9 538 до 10 939 баллов. Улучшение составило почти 15%.

В режиме SLI разгон оказался чуть хуже. Мы не смогли поднять частоты так же высоко, как при использовании одиночной конфигурации. Мы попытались вручную поднять частоты, но система "вылетела". Частота ядра поднялась до 610 МГц, а памяти - до 1,78 ГГц. В результате мы получили 13 316 баллов в 3DMark 2005 против начального результата 13 044. В общем, прирост составил всего 2%. Как вы понимаете, разгонять карты в конфигурации SLI вряд ли имеет смысл. В то же время, пользователи одиночных карт получат от разгона существенное преимущество. Суммарный разгон частот ядра и памяти составил 9,7%, но скорость возросла на 15%.

Следует отметить, что результаты разгона зависят от конкретных образцов карты и в вашем случае могут быть иными.

Итог будет прост: карту nVidia GeForce 7800 GTX 512 можно назвать новым королём 3D-производительности. Как показало наше тестирование, только в 2 из 24 тестов (игры и разные режимы) вперёд вышла карта ATi. На момент выхода статьи карты должны уже появиться в магазинах, исключая ситуацию в России, где часто влияют другие факторы вроде таможни. Но к Новому году карты, определённо, будут доступны, так что подарок вы сможете сделать просто отменный.

Как мы надеемся, ATi в ближайшее время тоже представит что-нибудь интересное. Конкуренция со стороны nVidia, а также агрессивная политика заполнения рынков любых ценовых уровней играет на руку потребителям, по крайней мере, сейчас. Но без сильного оппонента ситуация будет резко ухудшаться: инновации будут появляться позднее, а цены расти. Будем ждать ответа ATi.

Это просто GTX… А что покажет «Ультра»?

« Мы рождены, чтоб сказку сделать былью,
Преодолеть три-дэ-фигур простор,
Нам ускоритель дал большие крылья,
А вместо сердца - пламенный мотор.

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков.

Бросая ввысь свою три-дэ-фортуну
Или творя невиданный полет,
Мы сознаем, (не только лишь по ДУМу)
Что это наш трехмерный сильный флот!

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков.

Наш острый взгляд пронзает каждый пиксель,
Наш каждый нерв решимостью одет;
И, верьте нам, на каждый глупый тексель
Найдется от фильтрации ответ.

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков. »
(по мотивам известной советской довоенной песни)

Да, вот такое интригующее название. Ведь если посмотреть на разницу в частотах между 256- и 512-мегабайтными вариантами GeForce 7800 GTX, то не каждой «Ультре» снился такой прирост! Мы помним максимальное отличие по частотам у GeForce FX 5800 Ultra и 5800 - 100 МГц по ядру. У 6800 Ultra и 6800GT и того меньше. А в данном случае разница в 120 МГц по ядру, и карты называются одинаково!

Воистину, дивные дела творятся в мозгах маркетологов! То каждую ревизию одного и того же чипа называют иначе и присваивают другое имя продукту в целом, то теперь совершенно разные карты, которые по названию отличаются лишь объемами памяти, получили одинаковое обозначение. Причем даже в самой NVIDIA смущаются при справедливом вопросе: «А что, будет разве еще и «Ультра»? А если нет, то почему не дали такой индекс этой карте?»

И вразумительного ответа нет. Впрочем одно точно известно: 7800 Ultra не будет! Следующий продукт, который будет даже мощнее нынешнего флагмана, будет носить уже иное имя. Поэтому заголовок - для того, чтобы лишь заинтриговать:)

Я не буду распространяться о будущем, что ожидает рынок 3D-ускорителей в начале 2006 года, всему свое время, но на сегодня ясно, что GeForce 7800 GTX 512MB претендует на трон и корону, как самый быстрый в мире акселератор игрового класса. Да, вот так длинно и сложно теперь надо обозначать ускоритель, чтобы отличить его от того, что мы видели ранее с 256-ю мегабайтами ОЗУ. Да и сам GPU так и именуется: GeForce 7800 GTX 512.

Разумеется, это все тот же G70. Ничего нового не вносилось, ревизия та же (А2). Просто еще летом на стадии производства было принято решение отбирать самые быстродействующие чипы, способные работать на сверхвысоких частотах, и откладывать. В то время еще ничего не было известно насчет ATI RADEON X1800 XT, ни его характеристик, ни его частот. И потому NVIDIA делала разные ходы, чтобы предусмотреть возможные ответные меры в случае, если соперник окажется сильнее, чем GeForce 7800 GTX 256MB. И это было очень дальновидное решение.

Теперь же, когда стало ясно, что превосходство X1800 XT 512MB над 7800 GTX 256MB не столь велико, а подчас и даже имеются небольшие отставания, накопленный арсенал пора пускать в ход. Да, относительно массовости поставок средних и дешевых решений набранное число чипов G70 для 512-мегабайтных карт является конечно небольшим, однако для начала выпуска ускорителей ценой выше 600 долларов США вполне достаточно. К тому же, отбор GPU продолжается и сейчас. По мере отлаживания производства (а этот процесс по сути может быть вплоть до 100% выхода годных) таких ядер может быть больше, чем спрос на супердорогие 512-мегабайтные карты, и потому вполне возможно, что часть обычных 7800GTX 256MB будет оснащена такими вот супер-потенциальными GPU, что станет подарком оверклокерам. Повторяю, что это лишь предположение! Может быть спрос на 512-мегабайтные продукты будут столь велик, что все отобранные чипы пойдут только на выпуск подобных карт.

Вернемся к X1800 XT. Всем понятно, что новое решение NVIDIA выпустила именно как противовес флагману ATI. И именно в те дни, когда канадская компания объявила о доступности в продаже своих новейших ускорителей. Неслучайно и цена на 7800 GTX 512 установлена почти на сотню долларов выше, чем изначальная MSRP у X1800 XT ($549) - 649 долларов США. Ведь не секрет, что продуктов на базе X1800-серии пока очень мало, спрос велик, цены подняты до небес! И разумеется, по 550 долларов X1800 XT в середине ноября 2005 года не купить. И даже по 600 не найти. Цена будет выше. И даже MSRP увеличена до 599 долларов.

Почему бы NVIDIA не извлечь прибыль из этого? Хотя, нельзя забывать, что себестоимость 7800 GTX 512 все же очень высока. Впрочем, давайте изучим саму карту.

Карта имеет 512 МБ памяти GDDR3 SDRAM, размещенной в 8-ми микросхемах на лицевой стороне PCB.

Хочу сразу внести ясность - что за режим такой HQ на диаграммах. Это не High-Quality в драйверах, а использование режимов работы АА или АФ повышенного качества: у NVIDIA включение TAA, у ATI - AAA и AF High Quality.

Игровые тесты, сильно нагружающие блоки вершинных шейдеров, смешанно блоки пиксельных шейдеров 1.1 и 2.0, активное мультитекстурирование.

FarCry, Research

Учитывая, что игра даже в 1600х1200 при АА+АФ на таких мощных картах упирается в процессор, разницы не столь велики, но констатируем факты прироста скорости относительно 256-мегабайтного варианта. И видим примерный паритет с X1800XT.

Несмотря на отменный результат по опережению соперника в HQ-режимах, надо всегда учитывать, что качество анизотропии у X1800XT несравненно выше в таком режиме.

Игровые тесты, сильно нагружающие блоки вершинных шейдеров, блоки пиксельных шейдеров 2.0, активное мультитекстурирование.

F.E.A.R. v.1.01

Очень хорошие результаты мы видим в этом тесте у новинки! Даже предыдущий флагман в лице разогнанного 7800 GTX 256MB от ASUS, остался позади с приличным отрывом. Констатируем победу и над X1800 XT. Лишь GeForce 7800 GTX SLI при его заоблачной цене остался лидером гонки.

А вот режим HQ привел соперников к паритету, несмотря на 8% преимущества у 7800 GTX 512, X1800 XT в таком режиме обладает бОльшим качеством анизотропии.

А вот здесь, хоть и ярко видно превосходство 7800 GTX 512 над соперником в лице X1800 XT, однако в режиме HQ картина резко меняется. И мы видим, что продукт канадцев одерживает верх, учитывая еще то, что в данном случае качество АФ у него выше.

Что касается остального, то ничего нового: ясно дело, что частоты сделали свое дело, и 7800 GTX 512 сильно обошла 256-меговых соперников, не дотянув лишь до 7800 GTX SLI.

А этот тест нам четко продемонстрировал явную победу 7800 GTX 512 по всем фронтам.

Half-Life2: ixbt01 demo

При тестировании X1800 XT мы еще тогда обратили внимание на то, что результаты в 3DMark05 как-то разительно выбиваются из общей колеи, и демонстрируют такую великую победу продукту ATI, каковой нет ни в одном игровом тесте. Ну причина ясна: тесты тут все чисто шейдерные, а вычислительная мощь GPU - давний конек канадской компании.

Но и тут, как говорится, нашелся ответ. Все же 550 МГц у ядра с 24-мя конвейерами сделали свое дело, и мы видим, что 7800 GTX 512MB одерживает верх. А разогнанная карта преодолела и психологическую у оверклокеров отметку в 10 000 очков.

Дополнительным исследованием стало сравнение GeForce 7800GTX 512MB на сниженных до 430/1200 МГц частотах с GeForce 7800GTX 256MB, для которого данные частоты - штатные. Правда, надо обратить внимание на то, что у 256-меговой карты геометрический блок все же работает на 470 МГц.

Как мы видим, наличие 512 мегабайт памяти при равных частотах ничего не дало! А где есть минусы, то там явно прослеживается влияние геометрического блока у 256-мегабайтной карты, работающего на более высокой частоте.

Итак: NVIDIA GeForce 7800 GTX 512MB - самый быстрый на сегодня 3D-Ускоритель игрового класса! Это можно считать доказанным. Где-то может встречаться паритет с X1800 XT, но в целом скорость заметно выше. Плюс карта обладает отменным разгонным потенциалом! Да, цена выше, чем у X1800 XT: 640 долларов против 599. Однако, учитывая, что 7800 GTX 512MB уже начал продаваться (до анонса!), и многие карты уже на пути в магазины, цена на них может легко упасть до 600 и даже ниже.

Чего пока нельзя сказать про X1800 XT, которых еще крайне мало, и цены запредельные (на середину ноября).

Следует отметить также, что использование нового кулера и смена PCB у 7800 GTX 512 против 256-мегабайтного аналога положительно сказались на нагреве карты в целом в плане его снижения. Плата не такая огненная, как раньше. Да и нагрев ядра не превышает 80 градусов даже при таком супер-разгоне как 620 МГц.

Система охлаждения очень тихая, частота вращения вентилятора не выше 1000 оборотов в минуту, есть выдув воздуха за пределы системного блока.

В общем, если не считать очень высокую цену, карта очень и очень понравилась. Недостатком могу назвать лишь плохое качество анизотропии в настройках драйверов в режиме Quality, когда как при включении High Quality этот недочет пропадает, но вместе с тем и отключается ряд полезных оптимизаций. И потому сложно выбрать - что лучше: Quality или High Quality в настройках драйверов. Однако это все касается всех 7800-карт, а не только данной. В этом плане у X1800 XT ситуация лучше, да и выбор есть по качеству АФ.

В целом надо отметить еще раз очень удачное выступление NVIDIA в этом году, которой реально пока светит фортуна, и она предлагает очень интересные продукты. Надеюсь, что ответ ATI не заставит себя долго ждать, и серия X1800 завоюет внимание и любовь поклонников 3D-игр. Пока же из-за дефицита и завышенных цен на X1800 решения NVIDIA в классе Hi-End выглядят более привлекательно.

Есть сведения, что канадская компания рекомендовала партнерам повышать частоты работы X1800 XT. Если это правда, то будет весьма интересно посмотреть - что из этого получится. Хотя учитывая разгонный потенциал 7800 GTX 512 и уже факты появления в продаже официально разоганных по ядру до 580 МГц таких плат, мне кажется, что с этой затеей у ATI ничего не выйдет. Канадцам остается лишь наращивать усилия по тому, чтобы X1800 XT был доступен, а также снижать на него цены.

Ну и готовиться к новому раунду битвы, которая состоится уже весной 2006 года. Хотя есть данные, что ATI готовит весомый ответ, который появится уже очень скоро.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть также в наших 3DGiТогах .

Память для тестовых стендов предоставлена компанией

Хорошо помню свое первое знакомство с ускорителями трехмерной графики. У одного из отцовских знакомых на компьютере глючили и упорно не желали запускаться какие-то программы - и меня попросили с этой проблемой разобраться. Корень зла, как вскоре выяснилось, крылся в недавно приобретенной крутейшей по тем временам плате Voodoo 2, а «программами» оказались Quake 2 и еще какие-то игрушки: худо-бедно разобраться с ними удалось методом научного тыка, особого интереса они для меня все равно не представляли. Но в комплекте к «Вуду» шел еще небольшой набор демонстрационных программок - и вот они казались чем-то фантастическим, невозможным, нереальным. Хотелось бросить все, наскрести необходимые для покупки 300 долларов, которые тогда этот ускоритель стоил, и немедленно поставить в свою машину такое же чудо.

С тех пор прошло немало лет и сменилось немало поколений ускорителей трехмерной графики. Демки, показывающие преимущества той или иной видеокарты, год от года становились все красивее и красивее (и добрались уже до якобы кинематографического качества), однако ощущение чуда, которое сопутствовало той самой, первой демонстрации, - уже не повторялось. Романтическая эпоха, когда каждый новый ускоритель был знаменательным событием, а на тематических форумах бушевали яростные споры фанатов той или иной графической компании, ушла в прошлое, и ушла, наверное, окончательно и бесповоротно. Видеокарта ли от ATI, видеокарта ли от nVidia - единственных по-настоящему выживших в те годы игроков этого рынка, - разница между ними сегодня сводится лишь к малозаметным отличиям в качестве получаемой картинки, уровне шума да производительности в приложениях. Быть может, ускорители будущего и новые поколения графических движков этот тезис опровергнут, а пока - рассмотрим очередной «сугубо эволюционный» продукт «игровой» индустрии.

Конфигурация тестового стенда:

процессор: AMD Athlon 64 FX 57 2,8 ГГц (200x14);

материнская плата: ASUS A8N SLI Deluxe;

оперативная память: 2x512 Кбайт Patriot XBLK (2-2-2-10);

жесткий диск: 2xWD Raptor 74 Гбайт, 10000 об./мин., RAID 0;

операционная система: Microsoft Windows XP SP2;

драйверы: последние официальные на момент написания статьи.

GeForce 6800 + восемь пиксельных конвейеров = ?

Кодовое название нового графического чипа nVidia - G70, «принципиально новое» для компании… и не несущее практически никакой информационной нагрузки. Однако если заглянуть в прошлое, выяснится, что вплоть до последнего момента (когда компания вдруг отказалась от традиционной маркировки своих чипов кодами NVxx) GPU GeForce 7800 именовался иначе - NV47. По принятой в nVidia схеме это означает, что GPU архитектурно относится к тому же поколению NV4x, что и чипы семейства GeForce 6xxx (напомню, что GeForce FX - это семейство NV3x; GeForce 3 и 4 - семейство NV2x; а GeForce 1 и 2 - семейство NV1x). Так что ничего принципиально новаторского в новом кристалле мы не увидим: перед нами все тот же классический GPU поколения DirectX 9.0c, поддерживающий шейдеры третьей версии (Shader Model 3.0), эдакий доработанный GeForce 6800 Ultra. Но что же тогда изменилось по сравнению с предыдущим поколением?

Во-первых, в полтора раза увеличилось количество пиксельных конвейеров - с 16 до 24. Уже одно это должно было при прочих равных увеличить теоретическую производительность G70 относительно NV40 примерно в полтора раза; однако инженеры nVidia пошли еще дальше и повысили производительность каждого отдельно взятого конвейера, добавив к каждому стандартному векторному ALU «вспомогательное» упрощенное ALU, способное одновременно с «главным» выполнять некоторые простые операции. Такая схема позволяет, например, выполнять на конвейерах 7800GTX весьма популярную в шейдерах операцию MAD (Multiply Add, поэлементное умножение двух 4-компонентных векторов с прибавкой к полученному вектору третьего вектора) за один такт, а не за два. И это лишь одна из довольно большого числа ситуаций, когда за счет переноса некоторых операций на «упрощенные» ALU удается достичь двукратного прироста производительности. Инженеры nVidia говорят о полуторакратном (в среднем) приросте производительности на каждый пиксельный конвейер. Вкупе с полуторакратным же приростом числа пиксельных конвейеров получается, что предполагаемая пиковая производительность G70 более чем вдвое выше, нежели у предыдущего флагмана nVidia - NV40, и, похоже, именно это дало основание разработчикам заявить, что 7800GTX будет более быстрым решением, чем пара GeForce 6800 Ultra, работающих в режиме SLI. Кстати, 7800GTX тоже поддерживает технологию SLI.

Во-вторых, увеличилось число вершинных конвейеров (с 6 до 8), и была немного поднята тактовая частота ядра. Причем полной неожиданностью стало то, что в G70 тактовых частот теперь несколько: пиксельные и вершинные конвейеры тактируются раздельно и функционируют асинхронно[Строго говоря, в GPU этих частот даже не две, а три: в отличие от предыдущих поколений, G70 использует еще и «более независимые» блоки пиксельных операций (ROP). Они выполняют такие «вспомогательные» операции, как блендинг, z-тест на отсечение невидимых пикселов, вычисление итогового цвета при антиалиасинге и запись «готового продукта» в видеопамять и фрейм-буфер акселератора. У большинства предыдущих ускорителей Nvidia было по одному блоку ROP на пиксельный конвейер; в G70 компания отошла от этой традиции и поставила 16 ROP, подключающихся через специальный быстродействующий «свитч», при 24 пиксельных конвейерах. Тактовая частота ROP сегодня совпадает с тактовой частотой пиксельных конвейеров, однако в последующих поколениях GPU и даже в последующих вариациях G70 ситуация может измениться]. «Основная» тактовая частота, на которой работают пиксельные конвейеры, составляет 430 МГц; «вторая основная», на которой работают вершинные конвейеры, - 470 МГц. Сводя эти данные воедино, получаем, что теоретически GeForce 7800GTX должен примерно в 2,42 раза (!) по «пиксельной» и 1,57 раза по «вершинной» производительности превосходить 6800 Ultra. Совсем неплохо для «старой» архитектуры, не правда ли? И это еще не предел: судя по названию и поразительно удачным оверклокерским экспериментам[В нашей тестовой лаборатории мы разогнали 7800GTX до частот 500/1320 МГц], nVidia может выпустить заметно более быструю GeForce 7800 Ultra[Еще одна интересная особенность G70: пиксельные конвейеры тактируются не как бог на душу положит, а с шагом 27 МГц. К примеру, 16x27 = 432 МГц, базовая частота 7800 GTX. Тактовые частоты пиксельных конвейеров свеженькой GeForce 7800GT составляют 15x27 = 405 МГц. Резонно предположить, что тактовая частота пиксельных конвейеров «Ультры», буде она появится, будет не меньше 17x27 = 459 (460), а то и 486 (490) МГц].

В-третьих, слегка возросла производительность оперативной памяти. G70 работает с 256-разрядной шиной памяти стандарта GDDR3, причем на ускорители 7800GTX рекомендовано устанавливать модули с частотой передачи данных 1200 МГц (у NV40 aka GeForce 6800 Ultra - 1100 МГц). Поскольку существуют и более быстрые микросхемы памяти, вполне возможно, что некоторые производители со временем выпустят и «оверклокерские» варианты 7800GTX, снабдив их, скажем, чипами с временем выборки 1,4 нс (частоты до 1400 МГц)[Именно такую память планируется использовать в R520 - асимметричном ответе канадской ATI на рассматриваемые сегодня новинки от Nvidia]. Кстати, оперативной памяти на плату теперь можно устанавливать аж до гигабайта. Общение с «системной» оперативной памятью и чипсетом осуществляется исключительно по шине PCI-Express x16 (скорее всего, переходник HSI больше использоваться не будет).

В-четвертых, nVidia добавила в G70 блок аппаратного ускорения воспроизведения HDTV-видео (видео высокого разрешения), включая ускорение обработки сигнала, сжатого кодеками MPEG-2, а также WMV-HD- и H.264-сигнала. Прибавьте сюда аппаратный деинтерлейсинг, аппаратное масштабирование картинки и цветовую коррекцию - и получится nVidia PureVideo, совсем небесполезная в свете скорого выхода HD-DVD- и Blu-Ray-приводов фича. Для вывода «высокого» видео на телевизор в G70, помимо обычного TV-out, встроен специальный HDTV-out. Поддержка двух независимых выходов на монитор (VGA или DVI-I), разумеется, сохранилась.

В-пятых, изменилась технология изготовления GPU. Если NV40 выпускались на основе 130-нм техпроцесса, то G70 производится на мощностях тайваньской TSMC по более компактному (примерно на 40%) 110-нанометровому. Правда, возросла и сложность чипа (302 млн. транзисторов!), так что кристалл G70 получился даже более крупным, а значит, и более дорогим, нежели NV40. Несмотря на резко возросшую сложность и слегка увеличенные тактовые частоты, энергопотребление платы на GeForce 7800GTX не превышает «скромные» 110 Вт. В итоге для системы с одной платой рекомендованы блоки питания мощностью всего 350 Вт (сравните с 480 Вт для 6800 Ultra!). SLI-системам подойдут типовые БП на 500 Вт против нереальных 600 Вт (и выше), кои требует 6800 Ultra.

Наконец, в G70 реализован новый гибридный режим полноэкранного сглаживания - TAA (Transparent AntiAliasing), позволяющий получать качественную картинку с меньшими потерями производительности (подробности - во врезке).

*** Практика: Reference GeForce 7800GTX

В нашу тестовую лабораторию попал типовой экземпляр GeForce 7800GTX - референс-плата от самой Nvidia. В продажу они, разумеется, не пойдут, однако платы других производителей едва ли будут отличаться от референса чем-то, кроме системы охлаждения да повышенных тактовых частот графического процессора и видеопамяти на единичных экземплярах[Собственно, получается так потому, что для топовых ускорителей и ATI, и Nvidia, как правило, продают не столько графические чипы, сколько почти полностью собранные «полуфабрикаты» видеокарт. Поскольку «топов» продается относительно немного, а прибыль они приносят огромную (до 40% от общего дохода компаний!), такая тактика не вызывает серьезных производственных проблем, одновременно гарантируя, что топовые акселераторы заведомо не будут иметь проблем с некачественной разводкой или неудачной технологией производства. Так что можете смело покупать какой-нибудь Palit или даже noname: от брэндового ASUSTeK’а, который на $50-100 дороже, их будет отличать только более скромный набор прилагающегося ПО да, возможно, «менее оверклокерский» радиатор]. Так что все нижесказанное можно смело распространять на большинство видеокарт 7800GTX.

Итак, референс. Первое, что бросается в глаза, - это очень скромные размеры ускорителя. Стандартные 10 см ширины - чуть больше, чем у 6800 Ultra и X800/X850, но все же приемлемо для Hi-End-ускорителей. А вот высота новинки «нестандартна»: видеокарта по высоте занимает всего один слот расширения, а не ставшие уже привычными два или три.

Видеовыходы - два коннектора DVI-I (переходник на привычный D-Sub, очевидно, прилагается); есть TV-out и TV-in, совмещенные в 11-штырьковом коннекторе. TV-in реализован на чипе Philips SAA7115HL; TV-out совмещен с HDTV-out. Видеопамять (256 Мбайт), в отличие от 256-мегабайтных вариантов GeForce 6800, установлена по обеим сторонам видеокарты, причем предусмотрены посадочные места для вдвое большего числа микросхем памяти (G70, напомню, может иметь до 1 Гбайт видеопамяти); память с двух сторон охлаждается алюминиевыми радиаторами.

Очень сильно по сравнению с GeForce 6800 переработана схема питания графического процессора - видимо, более тонкий технологический процесс привел не только к резкому снижению энергопотребления G70, но и существенно повысил требования к схемам питания. Именно из-за увеличившихся размеров VRM видеокарта и получилась более длинной. Критичные к охлаждению компоненты схемы питания закрыты внушительных размеров алюминиевым радиатором.

Для тестирования мы постарались взять новейшие и трудные для современных ускорителей игры. Результаты тестирования производительности приведены в таблице.

Даже беглого взгляда достаточно, чтобы сказать: GeForce 7800GTX - безоговорочный лидер по производительности.

Преимущество над GeForce 6800 Ultra составляет в среднем 41-45% (с включенным/выключенным четырехкратном антиалиасингом); преимущество над более быстрым (на 8-12%) Radeon X850 Platinum Edition - в среднем 27-30%, причем выигрыш имеет место на всех тестах, в том числе и на горячо любимом канадцами Half-Life 2. В общем-то не так уж и много, но и немало, если принять во внимание далеко не идеальную масштабируемость современных игр[У наших коллег из других изданий цифры получились чуть больше - порядка 35-40%]. Тем более что особенно большое преимущество 7800GTX наблюдается в самых тяжелых тестах - буквально только что вышедших Battlefield 2 (на 70%) и SplinterCell 3 (почти двукратный отрыв). Во всех тестах (включая режим 1600x1200 4x FSAA) видеокарта 7800GTX показала скорость рендеринга не менее 50 fps (то есть заведомо играбельную). Без антиалиасинга результаты повыше: не менее 70 fps; средние потери производительности от включения AA - 28%.

На удивление эффективно работает режим SLI: при установке двух видеокарт удается выжать из 7800GTX еще 27-37%. При этом преимущество GeForce 7800GTX SLI над «радеонами» доходит до 120% (!) - и наверстать столь солидное отставание ATI будет ой как непросто. Вероятнее всего запоздавший на полгода R520, работающий на частотах до 600-700 МГц, но снабженный всего шестнадцатью пиксельными конвейерами[Которые вдобавок вроде бы поддерживают непонятно как сказывающиеся на их производительности шейдеры третьей версии (а по истории с GeForce FX хорошо известно, что реализация обязательных для SM3 динамических переходов в шейдерах, может замедлять работу акселератора едва ли не в разы)], сумеет-таки догнать GeForce 7800GTX, а наконец-то появившаяся у ATI поддержка технологии CrossFire (альтернатива SLI) позволит «сравнять счет» и в парных конфигурациях. Однако солидное тепловыделение (уже известно, что кулер для R520 будет «двухэтажный»), шум, высокая цена (той же 1400-МГц памяти), скорее всего, сохранят небольшой перевес за продуктами Nvidia. Очень жаль, что из-за отсутствия R520 и CrossFire проверить эти предположения мы не можем.

Зато можем уверенно сказать, что благодаря низкому тепловыделению, небольшому шуму, а главное, цене (в Москве - порядка $580!!!) GeForce 7800GTX - очевидный хит сезона. Редчайший случай - придраться здесь действительно не к чему.

Прозрачный антиалиасинг

Антиалиасинг - это способ повышения качества выстраиваемого 3D-ускорителем изображения, позволяющий избавиться от эффекта ступенчатости границ полигонов. Дело в том, что если для «внутренних» пикселов цвет каждого из них обычно вычисляется с учетом нескольких субпикселов соответствующей текстуры, натянутой на полигон (анизотропная, трилинейная или билинейная фильтрация) и дающей плавную и более или менее точную и резкую картинку (чем выше степень анизотропной фильтрации, тем выше точность и резкость изображения), то без использования антиалиасинга каждый пиксел в картинке может «принадлежать» одному и только одному полигону, хотя в действительности часть пиксела относится к одному полигону, а часть - к другому, и его цвет должен определяться как некоторая смесь цветов обоих полигонов. В итоге каждое ребро полигона рисуется как характерная, резко очерченная ступенчатая (а зачастую и вовсе прерывистая, если рисуется, скажем, тонкий полигон, изображающий в сцене далеко расположенные провод, кабель или веревку) линия. Если вы еще не сталкивались ни с чем подобным, сравните, как рисуют линии MS Paint и Adobe Photoshop, - и вы поймете, что я имею в виду. Эта ступенчатость и есть алиасинг; а методы борьбы с нею соответственно называются антиалиасингом.

На сегодняшний день существуют два способа полноэкранного сглаживания - суперсэмплинг (SuperSampling AntiAliasing, SSAA) и мультисэмплинг (MultiSampling AntiAliasing, MSAA). В первом случае для того, чтобы на картинке, которую генерирует ускоритель, не было резких цветовых переходов между полигонами, картинка, грубо говоря, вначале рендерится с размерами, в несколько раз превышающими необходимые для вывода на экран, а затем приводится к требующемуся размеру. При этом для определения цвета каждого «итогового» пиксела вычисляется цвет нескольких составляющих его «субпикселов», и картинка получается более реалистичной, а главное - лишенной бросающихся в глаза ступенчатых линий. Однако SSAA - довольно жадный до ресурсов метод, поэтому куда чаще используется MSAA, при котором сглаживаются только те пикселы, которые находятся в непосредственной близости от граней полигонов, присутствующих в сцене. Если мы рисуем на экране, скажем, кубик, то в «подробном» варианте будут рассчитаны только несколько процентов пикселов, составляющих ближайшие окрестности ребер кубика. Поскольку именно здесь, как правило, и встречаются требующие сглаживания ступеньки, то производительность при таком способе рендеринга падает несильно, и качество картинки получается высоким.

Конечно, и у MSAA есть недостатки: зачастую дизайнеры сцен предпочитают не плодить в ней множество полигонов, а использовать разнообразные прозрачные текстуры. Всяческие стекла, зеркала и прозрачная вода не в счет: речь идет о куда более «приземленных» и очень часто встречающихся листьях деревьев (на одном полигоне простой формы рисуется один или несколько листьев сложной формы) и всевозможных решетках (на паре полигонов рисуется изображение решетки). Края таких «граней» MSAA, естественно, обработать не в состоянии - он о них попросту не догадывается.

Решение Nvidia напрашивается само собой: использовать сглаживание не только вблизи граней, но и внутри прозрачных и полупрозрачных полигонов. Кроме того, поддерживается такая модная сегодня фича, как антиалиасинг с повернутой решеткой - когда субпикселы при сглаживании берутся не из более мелкой решетки, полученной разбиением стандартной «пиксельной решетки» вертикальными и горизонтальными линиями на одинаковые субпикселы, а из мелкой сетки, повернутой относительно горизонтали на некоторый угол (обычно 20-30°). Этот способ дает лучшие результаты при отображении близких к горизонтальным и вертикальным линий, для которых эффекты алиасинга особенно заметны. Текущие драйверы, правда, слегка глючат при определении полупрозрачных полигонов (сглаживается не все, что нужно), однако надо полагать, что вскоре эти мелкие недочеты будут исправлены.

Благодарим компанию IT-Labs за предоставленный образец видеокарты nVidia 7800GTX.

Asus EN6800Ultra Dual: анатомия и результаты бенчмарков
Lexagon / 16.06.2005 04:48 / ссылка на материал
Факт появления обзоров и фотографий видеокарты Asus EN6800GT Dual на разных сайтах одновременно мог означать только одно: поголовье этих ещё не одобренных официально к массовому производству решений стремительно растёт, и для экспериментаторов они представляют определённый интерес вне зависимости от того, будет ли налажено массовое производство.

Не будем забывать, что существует в арсенале и ещё одна видеокарта подобного типа по имени Asus EN6800Ultra Dual, которая появилась в лабораториях даже раньше, но до сих пор представала перед глазами читателей в обнажённом виде, то есть без системы охлаждения. Лишь на CeBIT 2005 она обрела более или менее вразумительный кулер, похожий на тот, который присутствует на Asus EN6800GT Dual.

Коллегам с сайта Hexus удалось проникнуть в лаборатории Asus, где они запечатлели обе видеокарты в действии, а также заметили ещё пару десятков аналогичных образцов, приготовленных для отправки представителям средств массовой информации для тестов. Были замечены и некоторые другие любопытные новинки от Asus. Например, блок питания мощностью 500 Вт с поддержкой PFC, разработанный в сотрудничестве со специалистами "профильного" бренда, но выпускаемый на собственных мощностях Asus.
http://www.overclockers.ru/images/ne...16/asus_01.jpg
Как понятно из фотографии, вентилятор для этих видеокарт изготовлен компанией CoolerMaster. Надо полагать, что и к системе охлаждения в целом инженеры этой гонконгской фирмы приложили руку.

Непосредственно видеокарта Asus EN6800Ultra Dual без кожуха системы охлаждения предъявила на обозрение два разных радиатора - один сделан из алюминия, другой из меди.
http://www.overclockers.ru/images/ne...16/asus_02.jpg
Если видеокартам суждено будет дожить то стадии серийного производства, то они наверняка остановят свой выбор на каком-то одном материале. Нельзя исключать, что это будет алюминий - он не только дешевле, но и легче, а вес для такой гигантской видеокарты имеет большое значение.

Особых откровений о результатах бенчмарков мы не услышали. В системе на базе процессора Athlon 64 FX-53 (2.4 ГГц) и 1 Гб двухканальной памяти DDR 400 видеокарта Asus EN6800Ultra Dual набрала результат в 9783 "попугая" 3DMark05. Может быть, коллеги могли бы "натестировать" и больше, но злоупотреблять гостеприимством лаборатории Asus они не смогли. Поскольку образцы подобных видеокарт уже готовы к отправке, в ближайшее время мы наверняка увидим более подробные тесты. Впрочем, особых сюрпризов от этих "тандемов" ждать не приходится - интрига постепенно угасает в свете близости анонса видеокарт на базе G70.

nVidia снижает цены на бюджетные графические чипы
Lexagon / 16.06.2005 12:11 / ссылка на материал
Значительная часть видеокарт, реализуемых на рынке, имеет стоимость не более $100 - в этом смысле данный сегмент является самым массовым. По этой причине любые изменения цен на продукты этого класса живо отражаются на потребителях. Традиционно благоприятный период для снижения цен на графические чипы - это канун анонса новых решений, именно к такому периоду сейчас приближаются ATI и nVidia.

Как сообщают тайваньские коллеги с сайта DigiTimes, недавно компания nVidia снизила цены на некоторые графические чипы, относящиеся к бюджетному сегменту:

GeForce 6200 TurboCache -> на $15;
Семейство GeForce 6600 -> на $5;
Семейства GeForce 6200, GeForce FX 5200, GeForce MX 4000 -> на $1-2.

Хотелось бы отдельно отметить, что больше всего потерял в цене чип NV44, на основе которого изготавливаются видеокарты GeForce 6200 с поддержкой технологии TurboCache и интерфейсом PCI Express x16. Именно это решение должно стать самым доступным предложением для тех, кто уже перешёл на использование системы с интерфейсом PCI Express x16. Проблема заключается в том, что стоимость таких систем пока достаточно высока для бюджетного сегмента, и даже низкая цена видеокарт с поддержкой TurboCache не может стимулировать спрос в должной мере. Так или иначе, теперь видеокарты GeForce 6200TC будут стоить ещё меньше, хотя о конкретном значении снижения цены судить сложно - nVidia снижает цену только на видеочип, а стоимость готовой видеокарты определяется дополнительными факторами.

Судя по всему, видеокарты GeForce 6200A на базе чипа NV44A, обеспечивающего врождённую поддержку интерфейса AGP 8x, подешевеют совсем незначительно, ведь этот чип попал в категорию наименьшей уценки ($1-2). В большей степени могут подешеветь видеокарты GeForce 6600, однако в свете тенденции перехода на использование памяти типа GDDR-2 в упаковке BGA выигрыш в цене графического чипа будет съедаться приростом стоимости микросхем памяти.

Снижение цен на перечисленные видеочипы призвано стимулировать спрос во время традиционного сезонного спада. Стоимость конечных видеокарт снизится не сразу, так как производители обычно располагают внушительными запасами чипов, приобретённых по старым ценам.

Кстати, рекомендованная цена GeForce 7800 GTX в 256 Мб версии определена на отметке $549. Первое время будет поддерживаться спекулятивный уровень цен. Известно, что в семействе GeForce 7800 появятся ещё как минимум две видеокарты: GeForce 7800 GT и GeForce 7800. Об их стоимости и технических характеристиках мы пока ничего не знаем. Долго выжидать снижения цен на видеокарты серии GeForce 6800 не стоит. Как известно, по мере наращивания объёмов производства G70 этот чип вытеснит собой NV40/NV45. Если видеокарты серии GeForce 6800 и будут распродаваться по сниженным ценам, то все запасы наверняка быстро истощатся. Продавцы тоже не будут заинтересованы в хранении этих видеокарт на складах: при сопоставимой с новинками серии GeForce 7800 ценах они обладают более низким уровнем производительности, а потому скоро перестанут пользоваться спросом.

Хотелось бы увидеть ответные меры по снижению цен на видеочипы и от компании ATI, однако говорить о конкретных действиях канадской компании мы пока не можем.

Видеокарты GeForce 7800 GTX поступят в продажу в день анонса
Lexagon / 17.06.2005 08:07 / ссылка на материал
Видеокарты верхнего ценового сегмента с интересом ожидаются пользователями, и любая информация о новинках высоко ценится. Больше всего ждут данных о производительности и ценах. Дело даже не в том, что все заинтересованные любители компьютерных игр кинутся в магазины за видеокартами стоимостью не менее $500. Просто выход каждого флагманского графического решения задаёт определённую планку быстродействия, к которой непроизвольно тянутся не только изделия конкурентов, но и более дешёвые продукты собственного производства. Каким образом "тянутся"? Ну, разумеется, при помощи разгона:).

Посудите сами - эталон быстродействия задаётся в день анонса новинки или накануне. Вечно враждующие сторонники ATI или nVidia вступают в перепалку с новой силой, если лидер этого сезона определён по итогам первых бенчмарков. Сомневающиеся покупатели невольно обращают внимание на продукцию формального лидера. "Хочешь быть таким же крутым, как мы?" - спрашивают у потенциального соплеменника владельцы видеокарт производства компании, удерживающей лидерство по производительности в ключевых играх сезона. Если в ответ они получают пусть робкий, но утвердительный кивок головой, то многоголосая толпа решительно выдыхает: "Тогда покупай видеокарту на чипе производства компании <...>!"

В мире любителей разгона ситуация усугубляется ещё и тем, что некоторое время спустя после анонса флагманского решения оно подвергается экстремальному разгону, занимая определённые позиции в рейтинге Futuremark. Этот рейтинг - величайшее в компьютерном мире средство, притупляющее комплекс неполноценности. Набери больше всех "попугаев", и все блага (а заодно и красавицы) мира падут к твоим ногам!

В последнее время появились технологии SLI и CrossFire, которые способны существенно увеличивать уровень производительности видеокарт, а при умелом разгоне вообще устанавливают недостижимые для "одиночек" рекорды. При этом разгонный потенциал каждого флагманского чипа, выпущенного по новому техпроцессу, изучается особенно тщательно. Из новинки какой фирмы удастся больше выжать в процентном выражении при разгоне? Какой из конкурирующих чипов меньше нагревается при разгоне? Ответы на эти вопросы зачастую определяют выбор оверклокеров при покупке следующей видеокарты. В случае с анонсом G70 и R520 интрига одинаково сильна, так как оба чипа впервые переходят на использование 0.11 мкм и 0.09 мкм техпроцессов соответственно.

Самые экономные оверклокеры смотрят на вершины, покорённые недавно выпущенной видеокартой в номинальном режиме, с одной единственной целью - достичь аналогичного результата путём разгона гораздо более дешёвого решения. В этом плане особое значение имеют характеристики более дешёвых родственников анонсируемого флагмана - какой памятью они оснащаются, как разгоняются по чипу, имеется ли возможность включения дополнительных пиксельных конвейеров и вершинных процессоров. Например, G70 даст жизнь ещё как минимум двум видеокартам: GeForce 7800 GT и GeForce 7800. Об их характеристиках пока ничего не известно, но ценовые диапазоны примерно определены: GeForce 7800 GT придётся вписаться в нишу "до $449", GeForce 7800 будет играть в сегменте "до $349".

Таким образом, даже с учётом высокой цены GeForce 7800 GTX ($549 за 256 Мб версию) и потенциально ограниченной доли рынка (2-5% от всех продаваемых видеокарт), интерес к анонсу этого графического решения достаточно высок. В этой связи многие из потенциальных владельцев этой и других видеокарт на базе чипа G70 хотели бы получить информацию о сроках доступности данных продуктов. Что ж, их есть у нас:). Многие из постоянных читателей могут помнить, как мучительно протискивались на рынок видеокарты, основанные на чипе NV45. Формально они были анонсированы ещё прошлым летом, а в продаже найти версии GeForce 6800 Ultra и GeForce 6800 GT с интерфейсом PCI Express x16 было крайне сложно почти до января. Удивительно, как в таких условиях у некоторых наиболее впечатлительных народностей не возникли поверья, согласно которым встреча с GeForce 6800 Ultra PCI-E в магазине сулит удачу:).

В ходе подготовки к публикации различных новостей о GeForce 7800 GTX мы не раз убеждались, что новинка исправит многие ошибки предшественницы. В частности, уровень выхода годных чипов будет гораздо выше, а поддержка интерфейса PCI Express x16 станет врождённой. В сочетании с экономичным и проверенным на более простых решениях 0.11 мкм техпроцессом это даст возможность заменить весь ряд решений на базе NV40/NV45. Согласно имеющимся у нас данным, к сентябрю G70 полностью вытеснит NV45 из ассортимента производителей графических решений. По крайней мере, в верхнем ценовом сегменте.

Не будет на этот раз nVidia и кормить обещаниями желающих купить GeForce 7800 GTX. Как сообщают некоторые из наших коллег, видеокарты этой серии поступят в продажу уже утром 22 июня , то есть считанные часы после анонса. Не испытывает компания nVidia и проблем с распространением образцов для тестирования - по одному экземпляру GeForce 7800 GTX получили все желающие, особо приближённым достались две видеокарты - это позволит сразу провести тестирование для режима SLI.

Хотя первые партии GeForce 7800 GTX, которые поступят в продажу 22 июня и в последующие дни, будут исчисляться сотнями штук, в дальнейшем проблем с дефицитом возникнуть не должно. В конце концов, ради этого и был избран уже знакомый 0.11 мкм техпроцесс, чтобы избежать сюрпризов при масштабировании производства. Напомним, что GeForce 7800 GTX в версии с 256 Мб памяти должна продаваться по рекомендованной цене $549, однако первое время цена будет чуть выше. Тем не менее, быстрое наполнение розницы не допустит сохранения спекулятивного уровня цен, присущего первым дням доступности видеокарт в рознице. Версия GeForce 7800 GTX с 512 Мб тоже появится, она наверняка уложится в ценовой диапазон $800-900. Тем не менее, особого прироста производительности в режимах со средним разрешением этот вариант видеокарты не продемонстрирует. Преимущество от наличия 512 Мб памяти проявится в тяжёлых графических режимах. Разработчики игр не заставят себя долго ждать, и быстро подтянут возможности своих продуктов до уровня возможностей видеокарт с 512 Мб памяти.

(С)_www.overclockers.ru