Видеосистема, Обзоры, статьи, тестирование,
  Компьютерный портал Hardvision Digital Сделать домашней Добавить в Избранное Обновить Напишите нам!
На главную | Карта портала | Реклама на сайте | Сегодня Четверг, 02 апреля 2020
Видеосистема Процессоры Материнские платы Мобильные ПК Периферия Про софт Все обо всем
Мультимедиа Коммуникации Накопители данных MP3-плееры Система Аналитика
Поиск

Последние статьи

» Philips 190B6 – «Выбор редакции» КомпьютерПресс, 2005
» Выбор 17” LCD монитора: Philips 170B6
» Philips 190X5: Идеальный 19” LCD монитор для домашнего компьютера
» Цифровой фотоаппарат Sony Cybershot T7: мобильность цифрового фото
» Интегрированные устройства доступа Paradyne/Jetstream IAD-402, IAD – 801, IAD – 802, IAD – 1601
» КVM-переключатели - эффективное сетевое решение
» PCMCIA Creative Audigy 2 ZS Notebook: Мощь многоканального звука, упрятанная в маленькой карте расширения
» Обзор и тесты новой линейки КПК Dell Axim X50
» Протокол IPV6: будущее IP-технологий
» Рынок жаждет Wi-Fi. Тенденции , стандарты, спрос.

Хочу на портале

Мы рассмотрим все Ваши предложения и пожелания!

 

Узнать цену на товар:

Пример: GeForce FX 5700, Radeon 9800XT

Материал опубликован - 16/03/2001 (обновлено 12/10/2001)


Обзор GPU GeForce3 от NVIDIA


 
Что же это за зверь?
GeForce3… что же это? 57 миллионов транзисторов, 4 пиксельных конвейера по две текстуры в секунду на каждый, и все это применимо к возможностям DirectX 8. Пиксельные конвейеры полностью программируемы и включают библиотеку команд готового процессора вершин "vertex processor" для удобной разработки игр. Усовершенствованный FSAA и поддержка DirectX 7 - для совместимости со старыми программами. А теперь поговорим об этом поподробней.



Чип
В соответствии с заявлениями NVIDIA, обработка графики требует огромного количества транзисторов. К примеру, процессор NVIDIA RIVA 128 состоит из 7 миллионов транзисторов, в TNT2 на одном кристалле размещены 15 миллионов транзисторов, а их число в GeForce2 достигает 25 миллионов. Для сравнения, ATI RADEON использует 30 миллионов, а новый процессор от Intel - Pentium 4 содержит 42 миллиона транзисторов, помещенных в ядро с помощью технологии производства .18 микрон.
Ранее, NVIDIA объявила, что количество транзисторов в GeForce3 будет не меньше 57 миллионов в кристалле, построенном с помощью новой технологии TMSC .15 микрон. В наследство от предыдущих карт, новая логика получила аппаратную поддержку T&L, что очень важно для совместимости с приложениями под DirectX 7.

Как и в GeForce2 GTS, архитектура GeForce3 использует 4 пиксельных конвейера, каждая с двумя модулями для текстур. Существует проблема: как предотвратить расхождение результатов при использовании такого принципа ? В GeForce2 GTS четырех-текстурированный пиксель проходил проверку дважды (первый раз - для первых двух текстур, и второй раз - для вторых). GeForce3 применяет совсем другой принцип: просто в двух пиксельных конвейерах обрабатывает четырех-текстурированный пиксель. Это означает, что только два таких четырех-текстурированных пикселя могут быть обработаны за один цикл. Больших потерь в производительности это не влечет, а вот разработчики получат возможность создавать более гибкие эффекты с помощью этой карты.

Частота ядра карты - 200 МГц, количество транзисторов - 57 миллионов - это примерно в 2 раза больше, чем у GeForce2 GTS. Простые вычисления покажут теоретические возможности новой карты.

200 Мгц * 4 пиксельных конвейера = 800 мега пикселей в сек.
200 Мгц * 4 пиксельных конвейера * 2 текстуры в конвейере = 1600 мега текселей в сек.

NVIDIA объявила, что с "сырыми продуктами" покончено, ведь частота памяти может просто "заслонить" результаты производительности даже самых быстрых ускорителей. Основная работа, как и у продукта от ATI с GPU RADEON, заключается в правильной балансировке процессора и памяти. Именно поэтому мы не обнаружили в существующих приложениях большого прироста производительности по сравнению с GeForce2 Ultra.
Все розничные видеокарты GeForce3 оснащены 64 Мб памяти DDR SDRAM, работающей на частоте 230 Мгц (эффективная частота 460 Мгц). Теоретическая скорость работы памяти GeForce3 составляет 7.36 Гб/с:

460 Мгц * (шина 128 бит / 8 = 16 байт) = 7360 Мб/с

Эта цифра является теоретической, так что реальная скорость скорее всего будет ниже. Но мы надеемся, что новая архитектура памяти от NVIDIA "Lightspeed Memory Architecture" это компенсирует.

Архитектура Памяти Lightspeed
Не для кого ни секрет, что большинство существующих модулей DRAM не достаточно эффективны, чтобы обеспечить необходимую производительность в продуктах последнего поколения на больших разрешениях. Именно из-за этого, ATI разработала технологию HyperZ, которая освобождает частоту, теряемую при выборке данных, или очистки Z-буфера. Также добавлен алгоритм сжатия без потерь (lossless compression algorithm) для дальнейшей минимизации изображения без потери точности.
NVIDIA разработала похожую технологию максимального использования памяти для применения в 230 МГц DDR модулях, используемых в GeForce3. Первое техническое нововведение называется "Перекрестный Контроллер Памяти" ("crossbar memory controller"). Большинство современных контроллеров памяти работают с порциями по 256 бит (т.е. один канал данных 128 бит помноженный на 2, т.к. DDR передает данные по 2-м каналам одновременно). Проблема возникает в передаче данных для маленьких треугольников. Если величина данных 64 бит, а обычный контроллер памяти способен передать порции только по 256 бит, то эффективность такой передачи составляет всего 25%. Это исправлено в новой памяти GeForce3: здесь контроллер разбит на 4 эффективных контроллеров памяти, каждый из которых независимо от других способен обмениваться данными с GPU. Каждый контроллер работает с порциями по 64 бит, т.е. всего 256 бит. Преимущество этого мы увидим в будущих приложения, когда для обеспечения большего реализма будет обрабатываться большое количество маленьких треугольников. В таких случаях передача местоположения и свойств этих треугольников будет происходить более эффективно.
Второе техническое нововведение в архитектуре Lightspeed - это специальный алгоритм сжатия без потерь Z буфера, аналогичный алгоритму от RADEON. Этот алгоритм сжимает данные Z-буфера (эти данные представляют собой координаты объекта по оси Z в 3D пространстве) примерно в 4 раза, причем сжатие/восстановление происходит без потерь в производительности. Кроме этого, сжатие происходит без ошибок, и Z данные при этом не теряются.
И наконец, последняя новинка от NVIDIA: она называется Z-преграждение и Отбор (Z-Occlusion Culling). Принцип действия таков: определяется, должен ли пиксель отображаться в данный момент, или он принадлежит другому, невидимому в данный момент, объекту (похоже на Иерархию Z-буфера от ATI). Если этот объект невиден, GeForce3 просто не формирует для него изображение, освобождая тем самым Z-буфер для других объектов. Для каждого видимого пикселя, в среднем, 3D приложения имеют глубину сложности около 2, именно такое количество необходимо для достижения необходимого качества изображения. При правильной настройке, Z-преграждение и Отбор (Z-Occlusion Culling) способно очень сильно разгрузить буфер.

Движок nfiniteFX
Когда вышел чип GeForce2 GTS, возможности по затенению пикселей потрясли всех разработчиков. Сейчас NVIDIA ставит на новую технологию, которая называется "Программируемый Шейдер для Вершин" ("vertex shaders"). В основе этого метода лежит программируемый конвейер вершин, который работает с поистине огромным количеством визуальных эффектов в реальном времени. В своей самой простой форме, "Шейдер для Вершин" представляет собой функцию по обработке графики, которая применяет специальные эффекты к объектам в 3D сцене. Программируемый шейдер вершин, который используется в GeForce3, дарует разработчикам новый уровень гибкости. Данные вершин, такие как x,y, и z координаты, данные о цвете, освещении и инструкции для текстур, помещаются в затенитель вершин - "ящик", содержащий математическую функцию. Эта функция манипулирует данными вершин (при этом данные не создаются и не удаляются), дальше измененные данные появляются с другой стороны с другими координатами, измененной прозрачностью, или с другим цветом. Но не все данные, попадающие в "ящик" меняются - функция может отбирать только данные, обладающие определенными свойствами. Если функция уже обрабатывала какой-нибудь эффект, и он опять требуется в новой 3D сцене, он просто подгружается из затенителя, а не обрабатывается заново.

В соответствии со схемой, параллельно затенителю вершин находится аппаратный T&L движок GeForce3. Когда работает затенитель вершин, T&L находится в ожидании. Но это не плохо, т.к. выход затенителя вершин полностью преобразован, и вершины освещены. Приложения на DirectX 7 используют неподвижное аппаратное T&L, в то время, как приложения на DirectX 8+ отказались от такого подхода, и используют подвижный шейдер вершин, а T&L в это время отключен. Такая архитектура обеспечивает прекрасную работу GeForce3 как со старыми приложениями, так и с новейшими разработками.
Т.к. затенитель вершин полностью программируем, количество выполнимых им эффектов зависит только от воображения разработчиков, пишущих программы для GPU. Для "раскрутки", NVIDIA написала специальную программу для организации эффектов в библиотеку, и включила туда около 100 готовых эффектов. Это означает, что мы можем продемонстрировать некоторые из них.

Эффекты Вершин
Анимация персонажей - это первое использование затенителя вершин. ATI начала продвигать возможности "матричного наложения" ("matrix skinning") в RADEON. Эта технология получила высокую оценку разработчиков, т.к. она позволяет очень реалистично "растягивать" кожу персонажей и отображать их суставы. ATI заявила, что у RADEON количество аппаратных ускорителей матрицы в два раза больше, чем у GeForce2 GTS (4 к 2). Ну а их количество в GeForce3 достигло 32 различных контроллеров матриц, которые используются для контроля над "скелетом" персонажа. Картинка внизу демонстрирует технологию NVIDIA, которая использует свойства шейдера вершин для обработки анимации лица (facial animation) и интерполяция главного кадра (keyframe interpolation) (другое нововведение от ATI, используемое в RADEON).

 

Кроме того, используя шейдер вершин, можно добиться потрясающей реалистичности в обработке тумана, в эффектах преломления, и конечно же в эффектах, связанных с образованием волн на воде. Другой эффект, который можно применить к 3D сцене - это эффект фотографических линз. Используя специальную преобразовательную матрицу - эффект выпуклых линз, можно с помощью нового DirectX 8 добиться потрясающих результатов. Такой тип преобразования не возможен с неподвижной обработкой старого конвейера T&L и на предыдущих версиях API (Application Programming Interface - Интерфейс Разработки Приложений).

В дополнение к эффектам окружающей среды, шейдер вершин в GeForce3 способен применять такие технологии деформаций к объектам. Первое возможное применение - движение стационарных объектов - развивание на ветру флага, или грудная клетка какого-нибудь животного при вдохе и выдохе. Другое применение - стационарные эффекты могут применяться к внешнему виду объектов, к примеру - дырка от пули, или реалистичные повреждения при столкновении машин в автосимуляторе.

Одна из отрицательных сторон и в GeForce2 GTS и в ATI RADEON - это ограниченное количество аппаратных осветителей для каждой вершины. Используя шейдер вершин GeForce3 вместе с DirectX 8, теоретическое количество аппаратных осветителей для вершины может быть бесконечным.

Мы рассмотрели очень малое количество возможных эффектов. Другие включают специфические эффекты освещения, морфинг (плавное преобразование одного изображения в другое с помощью геометрических операций и цветовой интерполяции), и множество эффектов, связанных с технологией от 3dfx T-Buffer - размытием (motion blur). Основная идея - это полная программируемость шейдеров. Вы поймете все достоинства этой идеи, когда начнут продавать игры под DirectX 8.

Попиксельное Затенение (Per-Pixel Shadind)
В дополнение к по пиксельному затенению, NVIDIA хотела включить в GeForce2 GTS и программируемые пиксельные шейдеры. Но это стало возможным только сейчас - из-за его высокой сложности, ведь "вес" GPU - 57 миллионов транзисторов!

Но до того, как применять различные эффекты к 3D сцене, используя шейдер вершин, все пиксели должны быть сформированы, необходимым образом освещены, затенены и окрашены. Сначала текстурные карты с низким разрешением должны наложиться на полигоны, для создания игровой 3D сцены. С выпуском GeForce2 GTS, разработчики получили возможность контролировать эффекты освещения на уровне каждого пикселя, используя NVIDIA Shading Rasterizer с непрограммируемыми пиксельными конвейерами (fixed-function pixel pipelines).
С программируемым пиксельным шейдером, GeForce3 позволяет разработчикам создавать их собственные эффекты затенения пикселей - это лучше, чем зависеть от ограниченных возможностей от NSR. В то время, как GeForce2 может обрабатывать две операции по смешиванию текстур за цикл, GeForce3 успешно справляется с 8 таких операций за цикл (четыре конвейера с двумя модуля для текстур на каждый). Кроме того, максимум 2 пикселя могут иметь 4 текстуры, обрабатываемые за цикл, в отличие от GeForce2 GTS, которая требует большое количество циклов для обработки дополнительных текстур. Это свойство помогает облегчить проблемы с нехваткой ресурсов в чипе, т.к. большое количество циклов требует дополнительного геометрического преобразования и вычислений Z-буфера.
Расширяя свойства пиксельного затенения, NVIDIA добавила 36 запускающихся одновременно операций к имеющимся у GeForce 2 GTS 7. Аппаратная обработка теней, обработка отражающего bump mapping, свойства материалов, и освещение каждого пикселя - все это намного улучшено благодаря такой экспансии. Некоторые эти эффекты можно увидеть в демонстрации от NVIDIA - кожа, волосы, мех животного, и реалистичное отражение.

HRAA (High Resolution Anti-Aliasing) Сглаживание на Высоком Разрешении
С наступлением Voodoo5, сглаживание становится важной особенностью, драйвера и от NVIDIA, и от ATI поддерживают его, вместе с FSAA, несмотря на низкое качество реализации. Метод, используемый в этих драйверах, называется super-sampling. Известный, как техника "грубой силы", super-sampling формирует каждый кадр на чрезвычайно высоком разрешении, до того, как происходит масштабирование и фильтрация на выбранном разрешении. Такая техника работает очень медленно когда обрабатывается за один кадр очень большое количество пикселей. Используя похожую технологию HRAA, как сообщила NVIDIA, можно добиться лучшей производительности, чем в super-sampling, при таком же качестве. "Фильтр Реконструкции" ("reconstruction filter ") использует данные из окружающих пикселей для подсчета окончательных свойств какого-нибудь пикселя. Отбираемый образец, используемый в фильтре реконструкции, называется Quincunx, и в соответствии с заявлениями NVIDA, показывает качество четырехступенчатого отбора (four-sample), при производительности, как у двухступенчатого отбора (two-sample).

Преимущество Quincunx состоит в использовании большего количества данных для постройки окончательных характеристик пикселя, в минимизации объема памяти, который используется при обработки 3D сцен на высоких разрешениях. Как вы могли убедиться, Quincunx требует такой же объем буфера для кадров, как при двухступенчатом отборе, обрабатывая при этом такое же количество входных характеристик, так и при четырехступенчатом отборе.

 

2D и Видео
Хотя мы не получали никаких характеристик о скорости RAMDAC в GeForce3, но с полной уверенностью можно сказать, что "качество видео и 2D графики на таком же высоком уровне, что у семейства GeForce2". С другой стороны, мы отмечали недостаток качества при разрешении 1600х1200 в GeForce2, поэтому остается только надеяться, что в GeForce3 таких проблем нет.

Ну а теперь перейдем к самим тестам

Тестируемые системы и средства

Тестируемымые видеокарты
NVIDIA Reference GeForce3, 64MB, driver: 11.01 (DX8)
NVIDIA Reference GeForce2 Ultra 64MB, driver: 11.01 (DX8)
ATI Radeon 64MB, driver: 4.13.7075 (DX8)

1.33ГГц Athlon (133) / PC2100 / Gigabyte 7DX

Процессор: 1.33GHz AMD Athlon
Память: 256 Мб Hyundai PC2100 DIMM
Материнская плата: Gigabyte 7DX
Чипсет платы: AMD 761 северный мост / VIA 686B южный мост
Gigabyte/AMD/VIA specific drivers: 4-in-1 SP 4.26
AGP Miniport: 4.71 (win9x)
NVIDIA reference drivers: 6.31
Жестский диск: IBM 30GB Deskstar 7200RPM DMA/100
IDE Интерфейс: Ultra ATA/100
Звук: Creative Labs Sound Blaster Live
CD/DVD: Hitachi DVD-ROM GD-7000
Питание: Sparkle 300 Watt
Операционные системы: Windows ME / Windows 2000 Professional

Спецификация тестов


Quake III Arena Test
Версия: 1.1 (retail)
V-Sync: Отключена
Версия: Retail

Тестируемые видео характеристики:
Normal: Defaults, 640x460x16
Max: High Quality, Geometric Detail: Maximum, Texture Detail: Maximum
Torture: High Quality, Geometric Detail: Maximum, Texture Detail: Maximum

Evolva Test
Версия: 1.2 Build944 (04-07-2000 15:18)
Разрешение: 1024x768
Глубина цвета: 32-bit
DirectX: 8.0 (4.08.00.0400, released version)
D3D Device: 1024x768x21, Direct3D T&L HAL
Caps: T&L, DOT3, SSE, MMX
Bump-mapping: disabled

Aquamark
Разрешение: 1024x768
Глубина цвета: 32b
Текстуры: 24MB
FSAA: Установки драйвера (Set in the driver)
Затенитель пикселей (Pixel Shader): Включен для совместимого оборудования

3DMark2001
Разрешения: 1024x768, 1280x1024
AA: off in application (controlled by driver)
Глубина цвета: 32b, текстуры сжаты
Глубина Z-буфера: 24/32b
Буфер кадров (Frame-Buffer): двойной (double)
Оптимизация CPU:
GeForce2/Radeon: D3D Hardware T&L
GeForce3: D3D Pure Hardware T&L

Quake III: Arena
Хотя NVIDIA и сообщала о ожидаемых характеристиках GeForce3, но не будете же вы проводить часы, играя в 3D Mark 2001, верно? Производительность в реальных приложениях - вот то, что нужно, итак, наш первый тест - Quake III. Эти первоначальные тесты проводились в Windows ME. Для начала, с параметром "Normal" и глубиной цвета 16 бит. Затем был установлен параметр "MAX" со всеми эффектами на максимум. Конечно же результаты тестов с включенным четырех-примерным сглаживанием (в GeForce3 - Quincunx).

Quake III - WinME Normal (DirectX8) без FSAA

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3
164.5
161.6
153.0
122.2
88.9
NVIDIA Reference GeForce2 Ultra
169.3
167.7
158.6
127.2
90.7
ATI Radeon 64MB
149.9
126.0
87.5
55.3
38.7

На удивление, GeForce3 показал значительно меньшее быстродействие, чем от него ожидалось. На разрешении 1600x1200 GeForce2 Ultra осталась лидером. Ну а RADEON от ATI вообще не имел ни единого шанса, даже с последними драйверами.

Quake III - WinME MAX (DirectX8) без FSAA

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3
160.2
156.6
135.7
93.5
65.3
NVIDIA Reference GeForce2 Ultra
163.4
154.0
115.4
74.2
50.2
ATI Radeon 64MB
140.6
112.4
76.4
49.4
34.9

С качеством "MAX" GeForce3 показал себя с лучшей стороны, оставив позади и GeForce2 Ultra, и RADEON. Т.к. мощность по обработке пикселей у GeForce3 такая же, как и у GeForce2 Ultra, можно предположить, что выигрыш в производительности в этом тесте является следствием использования Архитектуры Памяти Lightspeed (Memory Architecture Lightspeed).

Quake III: Arena FSAA

Quake III - WinME Normal (DirectX8) Quincunx или 4X FSAA эквивалент

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3
161.4
147.6
100.6
63.7
44.1
NVIDIA Reference GeForce2 Ultra
131.0
88.2
55.7
34.6
23.5
ATI Radeon 64MB
51.4
33.8
-
-
-

Судя по результатам этого теста, Quincunx, используемый в GeForce3 использует сглаживание, лучше чем супер-отбор 2х, но немного хуже, чем 4х при таком же качестве. При любом разрешении производительность гораздо лучше, чем у соперников.

Quake III - WinME MAX (DirectX8) Quincunx или 4X FSAA эквивалент

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3
148.3
106.3
67.6
40.7
26.2
NVIDIA Reference GeForce2 Ultra
74.3
48.6
29.8
18.3
16.8
ATI Radeon 64MB
43.5
29.3
-
-
-

Вплоть до разрешения 1280х1024, GeForce3 показывает достаточную для игры частоту смены кадров (fps) - такую частоту GeForce 2 Ultra показывает тольно на разрешении 800х600. В RADEON от ATI сглаживание не поддерживается на разрешениях свыше 800х600, так что стоит подождать выхода RADEON II для большего количества возможностей.

Evolva
Мы очень долго искали хороший игровой тест для DirectX, игра Evolva наиболее для этого подходит, но все еще тестирует возможности D3D DX7. Мы использовали демку с выключенным текстурированием столкновений (bump mapping), а затем этот же тест с 3-х точечным текстурированием (with dot product 3 bump mapping enabled) для тестирования зависимости производительности видеокарты при включенном текстурирование столкновений от частоты смены кадров. ЗАМЕЧАНИЕ: Текстурирование столкновений (bump mapping) было включено во всех тестах.

Evolva была "витриной возможностей DX7 GeForce2 GTS" в прошлом году, и в полной мере показывала все достоинства этой замечательной карты, построенной с использованием новейших технологий, но GeForce3 оказался быстрее. Скорее всего это связано с конвейерами GeForce3, которые работают более эффективно при 3-х точечном текстурировании, а также с усовершенствованным движком T&L.

При включении FSAA, все три карты резко теряют свою "уверенность" в производительности. В GeForce3 она упала с 103 до 30 кадров в секунду (fps). При 4X FSAA (который является эквивалентом QUINCUNX) GeForce2 Ultra и RADEON также смотрелись не лучше.

Aquanox DX8 Benchmark: AquaMark
Игры под Direct X8, такие как Aquanox, не дают умереть T&L играм 2000 года, и в большенстве своем смотрятся очень похоже. Эта игра должна показать возможности GeForce3 и DX8. Германские производители из Massive Entertainment с легкостью избавились от всех проблем в pixel-popping.
Эффекты освещения, текстурирование теней при столкновениях (bump mapping shadows)… полный набор. Она также использует особое мульти-текстурирование (4), поддерживаемое GeForce3. Как следствие, полученное изображение выглядит просто потрясающе. Но такое качество очень сильно загружает GeForce2 Ultra. Ну а RADEON от ATI просто провалил этот тест из-за отсутствия T&L.

Результат очевиден - GeForce2 Ultra не способна конкурировать с GeForce3. Стоит отметить, что при включенном пиксельном шейдере производительность GeForce3 немного лучше. Это связано скорее всего с тем, что обрабатывается большое количество пикселей, а при использовании шейдера идет "разгрузка" GPU.
Качество картинки при включенном на GeForce3 пиксельном шейдере лучше чем когда-либо. GeForce2 просто на такое не способен.

3DMark 2001
3DMark 2001 это новейший 3D тест от ребят на MadOnion.com. Основное достоинство - использование для тестов DirectX8, что позволяет полностью проверить работу новых видеокарт.

В первом тесте FSAA было выключено, использовалась глубина цвета 32 бит и сжатие текстур как для разрешения 1024х768, так и для 1280х1024. Здесь GeForce3 обошел конкурентов на 35-68%.

Во втором тесте мы стремились как можно больше "загрузить" видео карты. Была включена поддержка 4х FSAA (или эквивалент). GeForce3 прошел этот тест ираючи, в отличие от GeForce2 Ultra, провалившее его на разрешении 1280х1024, и ATI RADEON, который вообще отказался работать.

Анализ результата 3DMark 2001
Чтобы назвать полученные результаты изумительными, требуется более детальное изучение в 3DMark 2001. К счастью, 3DMark 2001 способен представить очень подробное описание результатов индивидуальных тестов. Изучив из, мы обнаружили, что многие простые настройки производительности в GeForce2 Ultra установлены на максимальное значение, в то время как GeForce3 имел обычную архитектуру. Кроме того, единственной картой, поддерживающей пиксельный шейдер в 3DMark 2001, была GeForce3. Значения пропускной способности (fill-rate) для мульти-текстур (multi-texture) немного отличались от указанных в физической спецификации GeForce3. Возможно 3DMark 2001 при подсчете пропускной способности использует четыре пиксельных шейдера GeForce3?
Для более подробного изучения результатов, просмотрите снимок экрана ниже:
Еще одно преимущество GeForce3 - это единственная видеокарта, выдержавшая тест Nature 4. Результаты этого теста сходны с результатами 3DMark 2001 - GeForce3 является абсолютным чемпионом. Хотя, Nature 4 как часть 3DMark 2001 дает дополнительные очки для использования пиксельных шейдеров - т.е. результаты всех тестов могут быть искажены.
Этот тест не запускается на других видеокартах и без использования DirectX8.

Разгон

Более 150 кадров в секунду (fps) в Quake III - разве этого достаточно? (На самом деле, этого вполне хватит - мы просто язвим.) Это немного меньше, чем у GeForce2 Ultra, которую только сменил GeForce3 за 500$. Не достаточно хорошо для тех, кто далек от оборудования автомобиля электронным ограничителем скорости 155 миль/ч. Что же делать? Остается только отбросить все сомнения, и разогнать видеокарту!
Итак, если вы фанат разгона, давайте взломаем и GeForce3, но для начала короткая история о исправлении ошибки в некоторых тестах - они неправильно показывают новые значения памяти и GPU. Владельцы GeForce256/GTS, кто имеет DWORD "CoolBits" в реестре Windows, чувствуют себя хорошо с новыми драйверами Detonator 4. Все что для этого необходимо - это добавить в реестр этот ключ:
HKEY_LOCAL_MACHINE\Software\NVIDIA Corporation\Global\NVTweak
Вставьте и отредактируйте DWORD "CoolBits" от 01 до 03. Собственная утилита для разгона от NVIDIA is then there for the taking. Итак, если вы потратили 500$ и чувствуете себя счастливым, вы знаете, что делать. Перед тестированием, разогнанная видеокарта прошла предварительное тестирование на наличие сбоев. Видеокарта была разогнана: частота процессора 235 Мгц, памяти 510 Мгц (обычные значения 200/460).

Quake3 - WinME Normal (DX8) без FSAA

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3 (по-умолчаеию) на 200MHz ядро/462МГц память
164.5
161.6
153.0
122.2
88.9
NVIDIA Reference GeForce3 на 235МГц ядро/510МГц память
165.0
163.6
157.4
135.4
103.1

Quake3 - WinME MAX (DX8) Quincunx или 4X FSAA

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3 (по-умолчаеию) на 200MHz ядро/462МГц память
148.3
106.3
67.6
40.7
26.2
NVIDIA Reference GeForce3 на 235МГц ядро/510МГц память
154.0
120.9
77.1
46.4
30.0

Quake3 - WinME Pixel Shader (Вкл.) Quincunx или 4X FSAA

Карточка
640x480 800x600 1024x768 1280x1024 1600x1200
NVIDIA Reference GeForce3 (по-умолчаеию) на 200MHz ядро/462МГц память 24.0 - - - -
NVIDIA Reference GeForce3 на 235МГц ядро/510МГц память 27.5 - - - -

Вообще-то разгон не рекомендуется. Нарушается гарантия производителя, это противозаконно (не карается) и вы можете просто лишиться новой карты за 500$. Но это все-таки интересно.

В конце дня…
Итак, мы представили вам некоторые результаты тестов. Если вы владелец довольно старой видеокарты, возникает дилемма, ведь существует достаточно большой выбор на рынке видеокарт. Необходима быстрая смена частоты кадров? Возьмите GeForce2 GTS или ATI RADEON за пару сотен долларов. Нужно что-либо более быстрое и дорогостоящее? Хорошо, попробуйте GeForce2 Ultra затем… Но что бы вы не делали, не покупайте GeForce3 только для того, чтобы играть в основанные на DX6 и DX7 игры, т.к. потом вы можете сказать что-либо подобное: "Я потратил 500$ на что-то, что немного медленнее чем карта, которую я заменил".
Это видеокарта для DX8 - и это ее основное достоинство. NVIDIA ограничила скорость (сигнал для основной темы от C.H.I.P) намеренно, они пошли по пути улучшения качества картинки, ведь частота смены кадров и тактовая частота - не главное.
Любой профессионал в технических характеристиках расскажет вам, что дальнейшее увеличение скорости (пример - Quake III) в настоящее время не нужно. На сегодняшний день не существует лучшей DX8 видеокарты. Не верите нам? Спросите Microsoft… DX8 - это новейшая технология, которую NVIDIA вовремя применила и разработала на ее основе GeForce3. По-этому игры на DX8 полностью используют возможности GeForce3. Остается единственный вопрос: когда же мы увидим такие инры? Когда они реализуют все нововведения? Q3? На Рождество? В Следующем году? Или когда коровы придут в дом?
Ожидается, по мнению ELSA, битва Guillemot/Hercules и VisionTek (на этот раз без Creative) за место на рынке GeForce3. Это означает не только реализацию нового продукта, но также то, что все эти компании постараются побыстрее "спихнуть" нам GeForce2 - т.е. снизят на нее цену (возможно цены на Ultra не изменятся). А вот это хорошая новость.

Что такое Матрица?
Итак, снижение цен… это влечет за собой некоторый риск. Вы поклонник старых технологий? Вам нравится что-либо, не полностью удовлетворяющее требованиям будущего? Или вы счастливы с GeForce2 GTS за 200$, которая пожирает дымящийся Quake III, показывая потрясающую производительность? Мы не можем сделать выбор за вас ("Я могу только показать тебе дверь, Нео… войти в нее ты должен сам"), мы только констатируем факты. Мы не можем сказать вам, что делать (у ATI есть что-то для Q3)…

Сейчас вы возможно чувствуете потерю, как Алекс…
Возьмите синюю таблетку и пробудитесь, играя в Quake III Arena с 157 fps и забудьте все, что слышали про программируемые пиксельные/вершинные шейдеры и T&L. Все это вы еще услышите перед Рождеством. Или возьмите красную таблетку и последуйте за белым кроликом, в мир возможностей QUINCUNX FSAA, DX8 и программируемого T&L…

Спецификации GPU GeForce3
- технологический процесс производства: 0.15 мкм
- число транзисторов: 57 миллионов
- частота графического ядра: 200 МГц
- число пиксельных конвейеров рендеринга: четыре
- число текстурных блоков на каждом конвейере рендеринга: два
- возможность наложения до четырех текстур на один пиксель за один проход (требуется два такта, если число комбинируемых текстур больше двух)
- интерфейс памяти: 128 бит
- поддерживаемые типы памяти: DDR SDRAM/SGRAM
- на момент выхода карты на базе GeForce3 будут оснащаться 3.8 нс памятью, работающей на частоте 230 (460) МГц
- пиковая пропускная способность шины памяти (230 МГц DDR): 7 Гб/с
- поддерживаемый объем локальной видеопамяти: до 128 Мб (большинство первых карт будут иметь 64 Мб)
- RAMDAC: 350 МГц
- максимальное разрешение: 2048x1536@75Hz
- интегрированный в чип TMDS трансмиттер позволяет подключать мониторы по цифровому интерфейсу (DVI), разрешение до 1600x1200 включительно
- интерфейс внешней шины: полная поддержка AGP x2/x4 (включая SBA, DME и Fast Writes) и PCI 2.2 (включая Bus mastering).
- Аппаратный T&L с производительностью эквивалентной 76 миллиардам операций с плавающей точкой в секунду.
- полная аппаратная поддержка всех возможностей MS DirectX 8.0 и OpenGL 1.2
- полностью поддерживаются аппаратные вершинные шейдеры (VertexShaders) DX8, версия 1.1
- полностью поддерживаются аппаратные пиксельные шейдеры (PixelShaders) DX8, версия 1.1
- имеется поддержка объемных текстур
- имеется поддержка кубических карт среды (Cube environment mapping)
- поддерживается проективные текстуры (projective textures)
- имеется поддержка аппаратной тесселяции гладких поверхностей - прямоугольных и треугольных патчей (RT Patches)
- аппаратная поддержка рельефного текстурирования следующих типов: Embosing, Dot Product3 и EMBM
- имеется поддержка S3TC и всех пяти DXTC методов компрессии текстур
- имеется поддержка отсечения примитивов по произвольно заданным плоскостям
- имеется поддержка FSAA на основе различных методик мультисэмплинга (MSAA)
- аппаратные средства для экономии полосы пропускания видеопамяти: поддержка сжатого формата буфера глубины (compressed Z) и раннего определения видимости точек (HSR на базе early Z test)
- поддерживаются текстуры с размером вплоть до 4096x4096 @ 32 bit

X-Box: NVIDIA скрытая сторона
На печатной плате GeForce3 вы найдете почти тот же самый микропроцессорный набор, что и на игровой приставке X-Box с некоторыми незначительными отличиями. Это значит, что разработчики, пишущие под X-box смогут адаптировать игры под ПК (и наоборот) легче. Получатся этакий двойственный эффект. Во-первых, это то, что больше разработчиков будут работать в направлении X-Box, так как они смогут продвигать свои продукты на рынок ПК. Во-вторых, оборотное время игры будет намного меньше. Так что NVIDIA в будущем году попытается захватить игровой рынок.

Для размышлений
Интерес разработчиков к GeForce3 очень высок. Когда мы спросили одного из разработчиков, что он думает об этой карточке, он сказал " GeForce3 изменит ВСЕ представления о 3D графике. Что тут еще сказать?" Другие разработчики думают точно так же, это , скорее всего связанно с программируемостью чипа. Благодаря сотрудничеству NVIDIA с Microsoft, игры, написанные под DirectX 8, будут воплощением наших мечтаний.
Есть ли у нас чего-нибудь новенькое для вас о GeForce3? Конечно. Главное то, что NVIDIA уже подтвердила, что игры, написанные под DirectX 8 появятся на полках примерно к рождеству 2001. Наряду с этим, NVIDIA в следующие шесть месяцев выпустит новый продукт, мы имеем в виду NV25, которая выйдет ближе к осени. Так что в скором будущем лидером продаж будет NV25.
Если же вы услышите положительные отклик от Джона Кармака (John Carmack) из iD Software, вы можете быть уверены. Что продукт удался. Мы, конечно, подождем и воздержимся о каких-либо высказываний пока сами не протестируем GeForce3. Но если, то что говорят лидеры в игровом обществе об этой карточке, то можно с уверенностью сказать, что GeForce3 от NVIDIA изменит ваше представление о манере игры, ее юзабильности, реалистичности и будущем игровой инустрии.

   
 

Главный редактор Крис Ангелини (Chris Angelini)
Перевод и дополнение Иван "Reg" Пешалов
Дополнение и редактирование Дмитрий "Digit" Петрусенко
Источники, которые были использованы в статье:
www.sharkyextreme.com

Обсудим в форуме!



Последние новости

 Читать еще новости
»
»
»
»
»
»
»
»
»
»

Рассылка
Файлы
Новости
Статьи


Авторские права HardVision Digital © 2001-2020 | Дизайн и программирование by {digit}
При использовании материалов сайта, ссылка на источник обязательна.
Ведется регулярная проверка ворованного контента в Интернете алгоритмом Copyscape.
Рейтинг@Mail.ru