Проблемы при регистрации на сайте? НАЖМИТЕ СЮДА!                               Не проходите мимо весьма интересного раздела нашего сайта - проекты посетителей. Там вы всегда найдете свежие новости, анекдоты, прогноз погоды (в ADSL-газете), телепрограмму эфирных и ADSL-TV каналов, самые свежие и интересные новости из мира высоких технологий, самые оригинальные и удивительные картинки из интернета, большой архив журналов за последние годы, аппетитные рецепты в картинках, информативные Интересности из Интернета. Раздел обновляется ежедневно.                               Всегда свежие версии самых лучших бесплатных программ для повседневного использования в разделе Необходимые программы. Там практически все, что требуется для повседневной работы. Начните постепенно отказываться от пиратских версий в пользу более удобных и функциональных бесплатных аналогов.                               Если Вы все еще не пользуетесь нашим чатом, весьма советуем с ним познакомиться. Там Вы найдете много новых друзей. Кроме того, это наиболее быстрый и действенный способ связаться с администраторами проекта.                               Продолжает работать раздел Обновления антивирусов - всегда актуальные бесплатные обновления для Dr Web и NOD.                               Не успели что-то прочитать? Полное содержание бегущей строки можно найти по этой ссылке.                              

Руководство покупателя видеокарты

Версия 1.2 от 29.02.2008


Введение

Компьютерная техника развивается очень быстро, большинство деталей обычного домашнего компьютера устаревает намного раньше, чем они выходят из строя физически. Через некоторое время в современных трехмерных играх начинает наблюдаться явная нехватка производительности: низкая частота кадров даже при не самых высоких графических настройках, отсутствие плавности и комфорта во время игры, долгое время загрузки игры и т.п. Каждый год выходят новые, всё более требовательные к мощности игровой системы трехмерные игры. И домашний компьютер, купленный всего год-полтора назад (многие люди просто не могут понять, что за такое время «железо» может устареть), на котором после покупки с играми не было никаких проблем, начинает тормозить, не позволяя комфортно поиграть в последние игры.

Именно игры больше всего нагружают домашние компьютеры, предъявляя все более серьезные требования к большинству деталей компьютера: к процессору, видеокарте, объему памяти, и даже объему накопителей на жестких дисках. Иногда, замена этих деталей тянет за собой и смену системной платы, блока питания и других комплектующих, казалось бы, напрямую не связанных с производительностью. Обычному человеку, далекому от «железок», не так просто определить то самое слабое звено, которое больше всего ограничивает производительность. Мало того, чаще всего пользователь примерно знает, какой у него стоит «Пентиум», и что установлена какая-то «Джифорс» видеокарта. И если он хочет сделать апгрейд, то ему приходится начинать потихоньку разбираться во всем этом.

При принятии решения о самостоятельной смене видеокарты, пользователь должен осознавать, что он меняет одну из важнейших комплектующих, которую необходимо уметь выбирать и настраивать. Пользователь должен понимать, что для получения наибольшей отдачи от новой видеокарты, ему придется учиться азам трехмерной графики. В противном случае, вместо самостоятельного апгрейда проще приобрести готовые системные блоки, предназначенные для игр, или даже игровые приставки.

В случае же самостоятельного выбора, самое главное — найти правильный баланс всех частей системного блока, собранного на основе деталей примерно одного ценового уровня (об уровнях подробнее во второй части статьи). Более-менее сбалансированными для современного игрового компьютера получаются компьютеры с ценой не менее $1000 за системный блок. Причем, не стоит думать, что его хватит на несколько лет, игры только сначала почти не тормозят и работают на высоких настройках, в дальнейшем появляются новые игры, которым не хватает мощности любого компьютера не самой последней свежести. Новые модели видеокарт выходят раз в полгода или год, каждая новая серия обычно и заметно быстрее предыдущей и поддерживает новые технологии, которые подхватываются разработчиками игр.

Видеокарты обычно являются так называемыми платами расширения, которые вставляются в специальные слоты на основной (системной или материнской) плате компьютера. Это сделано для упрощения модернизации, прежде всего. Самые дешевые графические решения могут быть встроены в чипсет системной платы, они обычно хоть и могут выполнять функции игровой 3D видеокарты, но делают это крайне медленно и подходят разве что для обычной офисной работы или двухмерных игр. Современные же игровые видеокарты предлагают массу новых технологий, в их описаниях и обзорах встречается масса непонятных многим терминов. Покупка или обновление видеокарты становится не таким уж простым действием. Чтобы упростить задачу для неопытных пользователей, мы решили помочь им, сделав руководство по покупке видеокарты для начинающих пользователей.

У пользователя есть возможность как покупки нового компьютера целиком, так и модернизации (или upgrade — апгрейда) старой конфигурации, с приобретением части новых и вероятной продажи (выбрасывания в мусор, откладывания на черный день или для сборки очередного ПК — на выбор) старых комплектующих. Заменив наиболее важные комплектующие, зачастую можно сравнительно небольшими средствами поднять производительность ПК для того, чтобы играть в современные игры с приемлемой производительностью.

Продажа старого и покупка нового ПК — выход выгодный только в том случае, если вам есть куда пристроить старое железо целиком за приемлемые деньги. И если время есть на замену компьютера целиком где-то раз в полтора года. Кроме того, появляются дополнительные заботы по продаже, переносу данных и возможному «безлошадному» времени между продажей старого ПК и покупкой нового. Во многих случаях лучшим выходом является частичная модернизация компьютера. Основной задачей в таком случае является нахождение слабого места (или нескольких мест) и их устранение путем замены соответствующей детали. Понятное дело, что апгрейд имеет смысл лишь тогда, когда его сроки не запущены, когда уровень производительности еще удастся подтянуть заменой одной или двух частей ПК. В случае очень старого ПК (два-три года и более), проще будет продать старый и купить новый.

Более подробно все плюсы и минусы разных подходов расписаны в статье Стратегия и тактика апгрейда домашнего компьютера. В данном руководстве, ориентированном, прежде всего на неопытных пользователей, мы опишем лишь основные вопросы, возникающие при выборе и покупке видеокарты, этот материал дает базовые знания по теме современных видеоадаптеров, но он предназначен всё же для читателей с определенным уровнем знаний.




Важность видеокарты для игрового ПК

Несмотря на то, что определение слабого звена для игрового компьютера не всегда является простой задачей, чаще всего в низкой производительности будет виновата именно видеокарта, а не процессор или малый объем памяти (если только её не совсем мало). Да, существуют игры, которые при определенных условиях будут ограничены процессором (они называются «процессорозависимыми»), игры, которые сильно страдают от недостатка оперативной памяти, но в первую очередь, производительность игры зависит от видеокарты. И чем более высокие графические настройки в играх вы хотите использовать, тем большая нагрузка ляжет на неё, и тем большая зависимость будет от её производительности. Особенно к этому относятся такие настройки, как разрешение экрана, уровень антиалиасинга и анизотропной фильтрации, которые нагружают исключительно видеокарту.

А иногда бывает так, что на старых видеокартах в современные игры играть можно, и даже довольно быстро, но с минимальным качеством, из-за отсутствия поддержки установленной видеоплатой последних графических технологий. Одна из таких игр — Tomb Raider: Legend. Оцените визуальную разницу между режимами для старых видеокарт и современных:

  


Это же просто разные игры! То есть, играть во многие современные игры с максимальным качеством картинки получится только при смене видеокарты. То же самое получится с видеокартами современными, но из нижнего ценового диапазона — они хотя и «умеют» всё, что от них требуется, но выполняют требуемое очень медленно для комфортной игры.

 

Мы еще не касаемся тех случаев, когда свежая игра вообще не запускается на компьютере, требуя поддержки некоторых возможностей, например — шейдеров последней версии. С такой проблемой в 2006 году столкнулись пользователи видеокарт ATI поколения R3x0/R4x0 (то есть, начиная с RADEON 9500 и заканчивая RADEON X850 XT), в нескольких современных играх, к которым относятся Splinter Cell: Double Agent и Rainbow Six: Vegas. Им было отказано даже в запуске этих игр, так как они в обязательном порядке требуют поддержки Shader Model 3.0. Единственным выходом тут также является апгрейд видеокарты.

В общем, основной мыслью этой части статьи является такое выражение: «Никогда не экономьте на видеокарте для домашнего и/или игрового компьютера, она является самой важной деталью вашего ПК, если речь идет о современных 3D играх!» При выборе видеокарты для домашнего ПК, нужно стараться отвести максимальный бюджет именно для видеокарты, если только в самом ближайшем будущем не планируется очередное денежное вливание и покупка более мощной видеокарты. В таком случае, если не хватает денег на хорошую видеокарту сразу, оправданной может быть покупка системы с интегрированной графикой, но обязательно с возможностью установки внешней видеокарты! Во всех остальных случаях нужно выбирать самую мощную и дорогую в рамках запланированного бюджета (а если больше его — то еще лучше). Мало того, видеокарта игрового компьютера должна стоить дороже центрального процессора системы (CPU).

Несмотря на то, что идеального сочетания процессора и видеокарты не существует (если только не считать таковыми наиболее мощные CPU и видеокарту из тех, что есть в продаже на данный момент времени), есть диапазон сбалансированных сочетаний. Причем, от игры к игре разница есть, и она может быть заметной — существуют более процессорозависимые игры (автосимуляторы, стратегии) и менее процессорозависимые (шутеры от первого лица, аркадные автогонки), в которых нагрузка на CPU и GPU очень сильно разнится.

Итак, продолжим мысль о том, что видеокарта для современных игр важнее, чем всё остальное. Лучше иметь процессор средней производительности и мощную видеокарту, чем мощный процессор и среднюю видеокарту. На начало 2008 года, рекомендуемым минимумом для большинства игр являются CPU уровня младших Intel Core 2 Duo E4x00 и AMD Athlon 64 X2 4x00+ и выше, хотя для игр подходят и наиболее мощные одноядерные, вроде Athlon 64 3800+, но для большинства современных игр рекомендуются всё-таки двухъядерники. Для таких процессоров в составе игровых компьютеров рекомендуются mid-end видеокарты, так как покупать новую low-end видеокарту для 3D игр вообще неразумно, а приобретение дорогой high-end платы в такую систему будет неоправданным.

Среди карт среднего уровня можно отметить ATI RADEON HD 3850 и GeForce 8600 GTS, уходящий с рынка ATI RADEON HD 2900 PRO или готовящийся к выходу GeForce 9600 GT. Более мощные видеокарты будут оправданы только в высоких разрешениях, а их мощность не будет раскрыта из-за низкой производительности CPU. Ну а видеокарты низшего ценового диапазона вообще малопригодны для современных игр, с учетом некоторого времени полноценной жизни игровой системы. В самом крайнем случае стоит приобрести GeForce 8600 GT или RADEON HD 2600 XT, но никак не медленнее!

Для более мощных двухъядерных процессоров уровня средних Intel Core 2 Duo E63x0-E65x0 и Athlon 64 X2 5x00+, лучше всего подойдут видеокарты из верхнего mid-end или нижнего high-end (про ценовые диапазоны написано во второй части статьи) секторов, минимум — RADEON HD 3850 и GeForce 9600 GT, максимально — GeForce 8800 GT, GeForce 8800 GTS и RADEON HD 3870. Ну и логично, что для самых мощных CPU и видеокарты нужно брать самые быстрые. Верхнего предела тут нет, а нижний — GeForce 8800 GTS и RADEON HD 3870. Оптимальным решением будут, на наш взгляд, следующие модели: GeForce 8800 GTS 512MB и RADEON HD 3870 X2 (даже с учётом недостатков двухчиповых конфигураций).

Подводя краткий итог баланса между CPU и GPU, заметим, что видеокарта должна быть в 1.7-2.5 раза дороже, чем центральный процессор системы, для того, чтобы игровая система была сбалансирована. Оценка средняя и очень приблизительная, но прислушаться к совету стоит. Как и ознакомиться с последними статьями по исследованию процессорозависимости на нашем сайте:
http://www.ixbt.com/video2/0105i-video.shtml
http://www.ixbt.com/video2/0205i-video.shtml




Слоты расширения: AGP и PCI Express

При смене одной только видеокарты обязательно нужно учитывать, что новые модели могут просто не подходить к вашей материнской плате, так как существует не просто несколько разных типов слотов расширения, но несколько их версий (применительно к AGP, и в скором времени — к PCI Express). Если вы не уверены в своих знаниях по этой теме, внимательно ознакомьтесь с разделом.

Как мы уже отметили выше, видеокарта вставляется в специальный разъем расширения на системной плате компьютера, через этот слот видеочип обменивается информацией с центральным процессором системы. На системных платах чаще всего есть слоты расширения одного-двух (реже трёх) разных типов, отличающихся пропускной способностью, параметрами электропитания и другими характеристиками, и не все из них подходят для установки видеокарт. Очень важно знать имеющиеся в системе разъемы и покупать только ту видеокарту, которая им соответствует. Разные разъемы расширения несовместимы физически и логически, и видеокарта, предназначенная для одного типа, в другой не вставится и работать не будет.

Мы не будем касаться ISA и VESA Local Bus слотов расширения и соответствующих им видеокарт, так как они безнадежно устарели, и не каждый специалист ныне знает о них что-то большее, чем их названия и то, что они когда-то существовали. Обойдем вниманием и слоты PCI, так как игровых видеокарт для них давно уж нет.

Современные графические процессоры используют один из двух типов интерфейса: AGP или PCI Express. Эти интерфейсы отличаются друг от друга в основном пропускной способностью, предоставляемыми возможностями для питания видеокарты, а также другими менее важными характеристиками. Теоретически, чем выше пропускная способность интерфейса, тем лучше. Но практически, разница в пропускной способности даже в несколько раз не слишком сильно влияет на производительность, и пропускная способность интерфейса крайне редко является узким местом, ограничивающим производительность.

Лишь очень малая часть современных системных плат не имеет слотов AGP или PCI Express, единственной возможностью расширения для них является интерфейс PCI, видеокарты для которого весьма редки и попросту не подходят для домашнего компьютера. Рассмотрим два современных интерфейса подробнее, именно эти слоты вам нужно искать на своих системных платах. Смотрите фотографии и сравнивайте.

AGP

AGP

AGP


AGP (Accelerated Graphics Port или Advanced Graphics Port) — это высокоскоростной интерфейс, основанный на спецификации PCI, но созданный специально для соединения видеокарт и системных плат. Шина AGP лучше подходит для видеоадаптеров по сравнению с PCI (не Express!) потому, что она предоставляет прямую связь между центральным процессором и видеочипом, а также некоторые другие возможности, увеличивающие производительность в некоторых случаях, например, GART — возможность чтения текстур напрямую из оперативной памяти, без их копирования в видеопамять; более высокую тактовую частоту, упрощенные протоколы передачи данных и др.

 

В отличие от универсальной шины PCI, AGP используется только для видеокарт. Интерфейс имеет несколько версий, последняя из них — AGP 8x с пропускной способностью 2.1 Гб/с, что в 8 раз больше начального стандарта AGP с параметрами 32-бит и 66 МГц. Новых системных плат с AGP уже не выпускают, они окончательно уступили рынок решениям с интерфейсом PCI Express, но AGP до сих пор имеет широкое распространение и дает достаточную пропускную способность даже для новых видеочипов.

Спецификации AGP появились в 1997 году, тогда Intel выпустил первую версию описания, включающую две скорости: 1x и 2x. Во второй версии (2.0) появился AGP 4x, а в 3.0 — 8x. Рассмотрим все варианты подробнее:
AGP 1x — это 32-битный канал, работающий на частоте 66 МГц, с пропускной способностью 266 Мбайт/с, что в два раза выше полосы PCI (133 Мбайт/с, 33 МГц и 32-бит).
AGP 2x — 32-битный канал, работающий с удвоенной пропускной способностью 533 Мбайт/с на той же частоте 66 МГц за счет передачи данных по двум фронтам, аналогично DDR памяти (только для направления "к видеокарте").
AGP 4x — такой же 32-битный канал, работающий на 66 МГц, но в результате дальнейших ухищрений была достигнута учетверенная "эффективная" частота 266 МГц, с максимальной пропускной способностью более 1 ГБ/с.
AGP 8x — дополнительные изменения в этой модификации позволили получить пропускную способность уже до 2.1 ГБ/с.

Видеокарты с интерфейсом AGP и соответствующие слоты на системных платах совместимы в определенных пределах. Видеокарты, рассчитанные на 1.5 В, не работают в 3.3 В слотах, и наоборот. Но существуют универсальные разъемы, которые поддерживают оба типа плат. Некоторые новые видеокарты из последних AGP серий, такие как NVIDIA GeForce 6 серии и ATI X800, имеют специальные ключи, не позволяющие установить их в старые системные платы без поддержки 1.5 В, а последние AGP карты с поддержкой 3.3 В — это NVIDIA GeForce FX 5x00 и часть из ATI RADEON 9x00, кроме основанных на R360.

При апгрейде старой AGP системы обязательно нужно учитывать возможную несовместимость разных версий слотов AGP. Бывает, что никаких проблем не возникает, но перед модернизацией видеосистемы стоит ознакомиться со статьей:

Совместимость стандартов AGP — установка современных видеокарт на старые системные платы

Краткая выжимка из этой статьи: новые видеокарты в старые системные платы можно пробовать вставлять без особого риска, в крайнем случае, система просто не заработает, в отличие от попытки установки старых видеокарт на новую материнскую плату, что может иметь печальные последствия. Для установки новых видеоплат на устаревшую системную, имеющую разъема AGP 1.0, нужно, чтобы новая видеокарта имела универсальный разъем AGP 1.0/2.0:



Но если новая видеокарта имеет разъем AGP 2.0, то заставить ее работать на старой системе не получится.



AGP 3.0 видеокарты имеют такой же разъем, как показан выше, и их можно устанавливать на материнские платы со слотом AGP 2.0. Существуют и видеокарты AGP 3.0 с универсальным разъемом, которые можно устанавливать в том числе и на системную плату с портом AGP 1.0.

 

Несмотря на то, что версии AGP действительно сильно отличаются друг от друга по теоретическим показателям, таким, как пропускная способность, более старый и медленный интерфейс тормозить работу видеокарты будет не сильно, разница в производительности в играх при режимах AGP 4x и AGP 8x составляет лишь несколько процентов, а то и еще меньше:

NVIDIA GeForce4 Ti 4200 with AGP8x (NV28) и GeForce4 MX 440 with AGP8x (NV18)

Посмотрите — теоретическая разница в пропускной способности отличается в два раза, но практические результаты тестов показывают отсутствие значительного преимущества AGP 8x решений по сравнению с AGP 4x вариантами.

Нужно отметить, что в переходный период смены слотов AGP на PCI Express выходили системные платы с гибридными решениями, предоставляющими так называемые слоты AGP Express. Эти слоты зачастую размещались совместно с PCI Express x16 слотом, но они не являются полноценными AGP слотами и работают на скорости обычных PCI слотов, что дает очень низкую скорость, позволяющую разве что переждать время перехода на полноценное PCI Express решение.

AGP Express


Про подобный продукт можно прочитать в статье:
Тестирование AGP-Express в исполнении ECS

 

Вообще же, видеокарты, рассчитанные на морально и физически устаревший слот AGP, в наших статьях не рассматриваются, поэтому мы ограничимся лишь написанным выше текстом и ссылкой на последние тесты AGP видеокарт на iXBT.com.

Последние из Могикан на базе AGP: GeForce 7800 GS, RADEON X1600 PRO, X1300

PCI Express

PCI Express



PCI Express (PCIe или PCI-E, не путать с PCI-X), ранее известная как Arapaho или 3GIO, отличается от PCI и AGP тем, что это последовательный, а не параллельный интерфейс, что позволило уменьшить число контактов и увеличить пропускную способность. PCIe — это лишь один из примеров перехода от параллельных шин к последовательным, вот другие примеры этого движения: HyperTransport, Serial ATA, USB и FireWire. Важное преимущество PCI Express в том, что он позволяет складывать несколько одиночных линий в один канал для увеличения пропускной способности. Многоканальность последовательного дизайна увеличивает гибкость, медленным устройствам можно выделять меньшее количество линий с малым числом контактов, а быстрым — большее.

 

Интерфейс PCIe пропускает данные на скорости 250 Мбайт/с на одну линию, что почти вдвое превышает возможности обычных слотов PCI. Максимально поддерживаемое слотами PCI Express количество линий — 32, что дает пропускную способность 8 ГБ/с. А PCIe слот с восемью рабочими линиями примерно сопоставим по этому параметру с быстрейшей из версий AGP —. Что еще больше впечатляет при учете возможности одновременной передачи в обоих направлениях на высокой скорости. Наиболее распространенные слоты PCI Express x1 дают пропускную способность одной линии (250 Мбайт/с) в каждом направлении, а PCI Express x16, который применяется для видеокарт, и в котором сочетается 16 линий, обеспечивает пропускную способность до 4 ГБ/с в каждом направлении.

Несмотря на то, что соединение между двумя PCIe устройствами иногда собирается из нескольких линий, все устройства поддерживают одиночную линию, как минимум, но опционально могут работать с большим их количеством. Физически, карты расширения PCIe входят и работают нормально в любых слотах с равным или большим количеством линий, так, PCI Express x1 карта будет спокойно работать в x4 и x16 разъемах. Также, слот физически большего размера может работать с логически меньшим количеством линий (например, на вид обычный x16 разъем, но разведены лишь 8 линий). В любом из приведенных вариантов, PCIe сам выберет максимально возможный режим, и будет нормально работать.

Чаще всего для видеоадаптеров используются разъемы x16, но есть платы и с x1 разъемами. А большая часть системных плат с двумя слотами PCI Express x16, работает в режиме x8 для создания SLI и CrossFire систем. Физически другие варианты слотов, такие как x4, для видеокарт не используются. Напоминаю, что всё это относится только к физическому уровню, попадаются и системные платы с физическими PCI-E x16 разъемами, но в реальности с разведенными 8, 4 или даже 1 каналами. И любые видеокарты, рассчитанные на 16 каналов, работать в таких слотах будут, но с меньшей производительностью. Кстати, на фотографии выше показаны слоты x16, x4 и x1, а для сравнения оставлен и PCI (снизу).

Хотя разница в играх получается не такой уж и большой. Вот, например, обзор двух системных плат на нашем сайте, в котором исследуется разница в скорости трехмерных игр на двух системных платах, пара тестовых видеокарт в которых работает в режимах 8 каналов и 1 канала соответственно:
http://www.ixbt.com/mainboard/foxconn/foxconn-mcp61vm2ma-rs2h-mcp61sm2ma-ers2h.shtml

Интересующее нас сравнение — в конце статьи, обратите внимание на две последние таблицы. Как видите, разница при средних настройках весьма небольшая, но в тяжелых режимах начинает увеличиваться, причем, большая разница отмечена в случае менее мощной видеоплаты. Примите это к сведению.

PCI Express отличается не только пропускной способностью, но и новыми возможностями по энергопотреблению. Эта необходимость возникла потому, что по слоту AGP 8x (версия 3.0) можно передать не более 40 с небольшим ватт суммарно, чего уже не хватало видеокартам последних поколений, рассчитанных для AGP, на которых устанавливали по одному или двух стандартным четырехконтактным разъемам питания (NVIDIA GeForce 6800 Ultra). По разъему PCI Express можно передавать до 75 Вт, а дополнительные 75 Вт получают по стандартному шестиконтактному разъему питания (см. последний раздел этой части). В последнее время появились видеокарты с двумя такими разъемами, что в сумме дает до 225 Вт.

PCI Express 2.0

В дальнейшем, группа PCI-SIG, которая занимается разработкой соответствующих стандартов, представила основные спецификации PCI Express 2.0. Вторая версия PCIe вдвое увеличивает стандартную пропускную способность, с 2.5 Гб/с до 5 Гб/с, так что разъем x16 позволяет передавать данные на скорости до 8 ГБ/с в каждом направлении. При этом PCIe 2.0 совместим с PCIe 1.1, старые карты расширения будут нормально работать в новых системных платах, появление которых ожидается уже в 2007 году.

Спецификация PCIe 2.0 поддерживает как 2.5 Гб/с, так и 5 Гб/с скорости передачи, это сделано для обеспечения обратной совместимости с существующими PCIe 1.0 и 1.1 решениями. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гб/с в 5.0 Гб/с слотах, которые просто будут работать на меньшей скорости. А устройство, разработанное по спецификациям версии 2.0, может поддерживать 2.5 Гб/с и/или 5 Гб/с скорости.

Основное нововведение в PCI Express 2.0 — это удвоенная до 5 Гб/с скорость, но это не единственное изменение, есть и другие нововведения для увеличения гибкости, новые механизмы для программного управления скоростью соединений и т.п. Нас больше всего интересуют изменения, связанные с электропитанием устройств, так как требования видеокарт к питанию неуклонно растут. В PCI-SIG разработали новую спецификацию для обеспечения увеличивающегося энергопотребления графических карт, она расширяет текущие возможности энергоснабжения до 225/300 Вт на видеокарту. Для поддержки этой спецификации используется новый 2x4-штырьковый разъем питания, предназначенный для обеспечения питанием будущие модели видеокарт.

Видеокарты и системные платы с поддержкой PCI Express 2.0 были анонсированы и появились в широкой продаже уже в 2007 году. Оба основных производителя видеочипов, AMD и NVIDIA, выпустили осенью-зимой новые линейки GPU и видеокарт на их основе, поддерживающие увеличенную пропускную способность второй версии PCI Express и пользующиеся новыми возможностями по электрическому питанию карт расширения. Естественно, все они обратно совместимы с системными платами, имеющими на борту слоты PCI Express 1.x.

PCI Express External

В 2007 году группа PCI-SIG, занимающаяся официальной стандартизацией решений PCI Express, объявила о принятии спецификации PCI Express External Cabling 1.0, описывающих стандарт передачи данных по внешнему интерфейсу PCI Express 1.1. Эта версия позволяет передавать данные со скоростью 2.5 Гб/с, а следующая должна увеличить пропускную способность до 5 Гб/с. В рамках стандарта представлены четыре внешних разъема: PCI Express x1, x4, x8 и x16. Старшие разъемы оснащены специальным язычком, облегчающим подключение.

PCI Express External


Внешний вариант интерфейса PCI Express может использоваться не только для подключения внешних видеокарт, но и для внешних накопителей и других плат расширения. Максимальная рекомендованная длина кабеля при этом равна 10 метров, но её можно увеличить при помощи соединения кабелей через повторитель.

 

Чем это может быть полезно для видеокарт? Например, это точно может облегчить жизнь любителей ноутбуков, при работе от батарей будет использоваться маломощное встроенное видеоядро, а при подключении к настольному монитору — мощная внешняя видеокарта. Значительно облегчится апгрейд подобных видеокарт, не нужно будет вскрывать корпус ПК. Производители смогут делать совершенно новые системы охлаждения, не ограниченные особенностями карт расширения, да и с питанием должно быть меньше проблем — скорее всего, будут использоваться внешние блоки питания, рассчитанные специально на определенную видеокарту, их можно в один внешний корпус с видеокартой встроить, используя одну систему охлаждения. Должна облегчиться сборка систем на нескольких видеокартах (SLI/CrossFire). В общем, с учетом постоянного роста популярности мобильных решений, такие внешние PCI Express должны завоевать определенную популярность.

В статье мы не трогаем устаревшие интерфейсы, их характеристики действительно сильно влияли на производительность даже в старые времена. Затем производители перешли на производство видеокарт, рассчитанных на интерфейс AGP (Accelerated Graphics Port), но его первой спецификации оказалось недостаточно, AGP 1.0 в некоторых случаях мог ограничивать производительность. Поэтому в дальнейшем стандарт модифицировали, версии 2.0 (AGP 4x) и 3.0 (AGP 8x) уже достигли высоких значений пропускной способности, выше которых скорость просто не росла.

Абсолютное большинство современных видеоплат рассчитано на интерфейс PCI Express, поэтому при выборе видеокарты мы предлагаем серьезно рассматривать только его, все данные о AGP приведены для справки. Хотя производители видеокарт по своей инициативе делают карты среднего уровня для интерфейса AGP (ATI RADEON X1950 PRO, NVIDIA GeForce 7800 GS и 7600 GT) до сих пор, но все они используют специальный мост для трансляции вызовов PCI Express в AGP, а новых видеочипов с поддержкой AGP давно не существует.

Итак, новые платы используют интерфейс PCI Express x16, объединяющий скорость 16 линий PCI Express, что дает пропускную способность до 4 (в случае PCI-E 2.0 - до 8) ГБ/с в каждом направлении, это примерно в два-четыре раза больше, по сравнению с той же характеристикой AGP 8x. Важное отличие состоит в том, что PCI Express работает с такой скоростью в каждом из направлений, поэтому в некоторых случаях PCI Express может дать преимущества по сравнению с AGP. Но чаще всего пропускной способности стандарта AGP 8x достаточно, и разницы с соответствующими картами для PCI Express просто нет, разные версии видеокарт работают примерно с одной скоростью, что на AGP, что на PCI Express. Например, RADEON 9600 XT и RADEON X600 XT, для AGP и PCI Express, соответственно.

Другое дело, что будущего у AGP давно нет, и этот интерфейс следует рассматривать только с точки зрения апгрейда, все новые системные платы поддерживают только PCI Express, наиболее производительные видеокарты с интерфейсом AGP не выпускаются, а те, что есть, труднее найти в продаже. Если речь о покупке новой платы или одновременной смене системной и видеоплаты, то просто необходимо покупать карты с интерфейсом PCI Express, он будет наиболее распространен еще несколько лет, а его следующая версия будет совместима с нынешней.




Основные характеристики видеокарт

Современные графические процессоры содержат множество функциональных блоков, от количества и характеристик которых зависит и итоговая скорость рендеринга, влияющая на комфортность игры. По сравнительному количеству этих блоков в разных видеочипах можно примерно оценить, насколько быстр тот или иной GPU. Характеристик у видеочипов довольно много, в этом разделе мы рассмотрим самые важные из них.

Тактовая частота видеочипа

Рабочая частота GPU измеряется в мегагерцах, в миллионах тактов в секунду. Эта характеристика прямо влияет на производительность видеочипа, чем она выше, тем больший объем работы чип может выполнить в единицу времени, обработать большее количество вершин и пикселей. Пример из реальной жизни: частота видеочипа, установленного на плате RADEON X1900 XTX равна 650 МГц, а точно такой же чип на RADEON X1900 XT работает на частоте в 625 МГц. Соответственно будут отличаться и все основные характеристики производительности. Но далеко не только рабочая частота чипа однозначно определяет производительность, на его скорость сильно влияет и архитектура: количество различных исполнительных блоков, их характеристики и т.п.

В последнее время участились случаи, когда тактовая частота для отдельных блоков GPU отличается от частоты работы всего остального чипа. То есть, разные части GPU работают на разных частотах, и сделано это для увеличения эффективности, ведь некоторые блоки способны работать на повышенных частотах, а другие — нет. Из последних примеров можно назвать семейство GeForce 8800 от NVIDIA, видеочип модели GTS работает на частоте 512 МГц, но универсальные шейдерные блоки тактуются на значительно более высокой частоте — 1200 МГц.

Скорость заполнения (филлрейт)

Скорость заполнения показывает, с какой скоростью видеочип способен отрисовывать пиксели. Различают два типа филлрейта: пиксельный (pixel fill rate) и текстурный (texel rate). Пиксельная скорость заполнения показывает скорость отрисовки пикселей на экране и зависит от рабочей частоты и количества блоков ROP (блоков операций растеризации и блендинга), а текстурная — это скорость выборки текстурных данных, которая зависит от частоты работы и количества текстурных блоков.

Например, пиксельный филлрейт у GeForce 7900 GTX равен 650 (частота чипа) * 16 (количество блоков ROP) = 10400 мегапикселей в секунду, а текстурный — 650 * 24 (кол-во блоков текстурирования) = 15600 мегатекселей/с. Чем больше первое число — тем быстрее видеокарта может отрисовывать готовые пиксели, а чем больше второе — тем быстрее производится выборка текстурных данных. Оба параметра важны для современных игр, но они должны быть сбалансированы. Именно поэтому количество блоков ROP в чипах семейства G7x, на которых построено семейство GeForce 7, меньше количества текстурных и пиксельных блоков.

Количество блоков пиксельных шейдеров (или пиксельных процессоров)

Пиксельные процессоры — это одни из главных блоков видеочипа, которые выполняют специальные программы, известные также как пиксельные шейдеры. По числу блоков пиксельных шейдеров и их частоте можно сравнивать шейдерную производительность разных видеокарт. Так как большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров (см. технологические обзоры игр), то количество этих блоков очень важно! Если одна модель видеокарты основана на GPU с 8 блоками пиксельных шейдеров, а другая из той же линейки — 16 блоками, то при прочих равных вторая будет вдвое быстрее обрабатывать пиксельные программы, и в целом будет производительнее. Но на основании одного лишь количества блоков делать однозначные выводы нельзя, обязательно нужно учесть и тактовую частоту и разную архитектуру блоков разных поколений и производителей чипов. Чисто по этим цифрам прямо можно сравнивать чипы только в пределах одной линейки одного производителя: AMD(ATI) или NVIDIA. В других же случаях нужно обращать внимание на тесты производительности в интересующих играх.

Количество блоков вершинных шейдеров (или вершинных процессоров)

Аналогично предыдущему пункту, эти блоки выполняют программы шейдеров, но уже вершинных. Данная характеристика важна для некоторых игр, но не так явно, как предыдущая, так как даже современными играми блоки вершинных шейдеров почти никогда не бывают загружены даже наполовину. И, так как производители балансируют количество разных блоков, не позволяя возникнуть большому перекосу в распределении сил, количеством вершинных процессоров при выборе видеокарты вполне можно пренебречь, учитывая их только при прочих равных характеристиках.

Количество унифицированных шейдерных блоков (или универсальных процессоров)

Унифицированные шейдерные блоки объединяют два типа перечисленных выше блоков, они могут исполнять как вершинные, так и пиксельные программы (а также геометрические, которые появились в DirectX 10). Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360, этот графический процессор был разработан компанией ATI. А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились не так давно, с появлением плат NVIDIA GeForce 8800. И, похоже, что все DirectX 10 совместимые видеочипы будут основаны на подобной унифицированной архитектуре. Унификация блоков шейдеров значит, что код разных шейдерных программ (вершинных, пиксельных и геометрических) универсален, и соответствующие унифицированные процессоры могут выполнить любые программы из вышеперечисленных. Соответственно, в новых архитектурах число пиксельных, вершинных и геометрических шейдерных блоков как бы сливается в одно число — количество универсальных процессоров.

Блоки текстурирования (TMU)

Эти блоки работают совместно с шейдерными процессорами всех указанных типов, ими осуществляется выборка и фильтрация текстурных данных, необходимых для построения сцены. Число текстурных блоков в видеочипе определяет текстурную производительность, скорость выборки из текстур. И хотя в последнее время большая часть расчетов осуществляется блоками шейдеров, нагрузка на блоки TMU до сих пор довольно велика, и с учетом упора некоторых игр в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность являются одними из важнейших параметров видеочипов. Особое влияние этот параметр оказывает на скорость при использовании трилинейной и анизотропной фильтраций, требующих дополнительных текстурных выборок.

Блоки операций растеризации (ROP)

Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времен. И хотя в последнее время её значение несколько снизилось, еще попадаются случаи, когда производительность приложений сильно зависит от скорости и количества блоков ROP (см. технологические обзоры игр). Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.

Нужно еще раз отметить, что современные видеочипы нельзя оценивать только числом разнообразных блоков и их частотой. Каждая серия GPU использует новую архитектуру, в которой исполнительные блоки сильно отличаются от старых, да и соотношение количества разных блоков может отличаться. Компания ATI первой применила архитектуру, в которой количество блоков пиксельных шейдеров было в разы больше числа блоков текстурирования. Это было сделано немного преждевременно, на наш взгляд, но в некоторых приложениях пиксельные блоки используются более активно, чем остальные и для таких приложений подобное решение будет неплохим вариантом, не говоря уже о будущем. Также, в предпоследней архитектуре AMD(ATI) нет отдельных пиксельных конвейеров, пиксельные процессоры не «привязаны» к блокам TMU. Впрочем, у NVIDIA в GeForce 8800 получилось еще сложнее...

Рассмотрим ситуацию на примере видеокарт GeForce 7900 GT и GeForce 7900 GS. Обе они имеют одинаковые рабочие частоты, интерфейс памяти и даже одинаковый видеочип. Но модификация 7900 GS использует GPU с 20 активными блоками пиксельных шейдеров и текстурных блоков, а видеокарта 7900 GT — по 24 блока каждого типа. Рассмотрим разницу в производительности этих двух решений в игре Prey:


GeForce 7900 - Prey

Разница в количестве основных исполнительных блоков в 20% дала разный прирост скорости в тестовых разрешениях. Значение 20% оказалось недостижимо потому, что производительность в Prey не ограничена на этих видеокартах только скоростью блоков TMU и ROP. Разница в разрешении 1024x768 составила меньше 8%, а в более высоких достигла 12%, что ближе к теоретической разности в количестве исполнительных блоков.

Объем видеопамяти

Собственная память используется видеочипами для хранения необходимых данных: текстур, вершин, буферов и т.п. Казалось бы, что чем её больше — тем лучше. Но не всё так просто, оценка мощности видеокарты по объему видеопамяти — это наиболее распространенная ошибка! Значение объема памяти неопытные пользователи переоценивают чаще всего, используя его для сравнения разных моделей видеокарт. Оно и понятно — раз параметр, указываемый во всех источниках одним из первых, в два раза больше, то и скорость у решения должна быть в два раза выше, считают они. Реальность же от этого мифа отличается тем, что рост производительности растет до определенного объема и после его достижения попросту останавливается.

В каждой игре есть определенный объем видеопамяти, которого хватает для всех данных, и хоть 4 ГБ туда поставь — у нее не появится причин для ускорения рендеринга, скорость будут ограничивать исполнительные блоки, о которых речь шла выше. Именно поэтому во многих случаях видеокарта с 320 Мбайт видеопамяти будет работать с той же скоростью, что и карта с 640 Мбайт (при прочих равных условиях). Ситуации, когда больший объем памяти приводит к видимому увеличению производительности, существуют, это очень требовательные игры в высоких разрешениях и при максимальных настройках. Но такие случаи до сих пор редки, поэтому, объем памяти учитывать нужно, но не забывая о том, что выше определенного объема производительность просто не растет, есть более важные параметры, такие как ширина шины памяти и ее рабочая частота. Подробнее о выборе объема видеопамяти читайте во второй части статьи.

Ширина шины памяти

Ширина шины памяти является важнейшей характеристикой, влияющей на пропускную способность памяти (ПСП). Большая ширина позволяет передавать большее количество информации из видеопамяти в GPU и обратно в единицу времени, что положительно влияет на производительность в большинстве случаев. Теоретически, по 128-битной шине можно передать в два раза больше данных за такт, чем по 64-битной. На практике разница в скорости рендеринга хоть и не достигает двух раз, но весьма близка к этому во многих случаях с упором в пропускную способность видеопамяти.

Современные видеокарты используют разную ширину шины: от 64 до 512 бит, в зависимости от ценового диапазона и времени выпуска конкретной модели GPU. Для low-end видеокарт чаще всего используется 64- и (значительно реже) 128-бит, для среднего уровня 128-бит и иногда 256-бит, ну а high-end видеокарты используют шины от 256 до 512 бит шириной.

Частота видеопамяти

Еще одним параметром, влияющим на пропускную способность памяти, является её тактовая частота. А как мы поняли выше, повышение ПСП прямо влияет на производительность видеокарты в 3D приложениях. Частота шины памяти на современных видеокартах бывает от 500 МГц до 2000 МГц, то есть может отличаться в четыре раза. И так как ПСП зависит и от частоты памяти и от ширины ее шины, то память с 256-битной шиной, работающая на частоте 1000 МГц, будет иметь большую пропускную способность, по сравнению с 1400 МГц памятью с 128-битной шиной.

Рассмотрим относительную производительность видеокарт с разной пропускной способностью на примере видеокарт RADEON X1900 XTX и RADEON X1950 XTX, которые используют почти одинаковые GPU с одними характеристиками и частотой. Основные их отличия состоят в типе и частоте используемой памяти — GDDR3 на частоте 775(1550) МГц и GDDR4 на 1000(2000) МГц, соответственно.


RADEON X1900 - Memory

Хорошо видно, как отстает карта с меньшей пропускной способностью памяти, хотя разница никогда не достигает теоретических 29%. Разница между достигнутой частотой кадров растет с увеличением разрешения, начинаясь с 8% в 1024x768 и достигая 12-13% в максимальных режимах. Но это сравнение видеокарт с небольшой разницей в ПСП, а особенное внимание на параметры ширины шины памяти и частоты ее работы следует уделять при покупке недорогих видеокарт, на многие из которых ставят лишь 64-битные интерфейсы, что сильно сказывается на их производительности. Вообще, покупка решений на базе 64-бит шины для игр вовсе не рекомендуется.

Типы памяти

На видеокарты устанавливают несколько различных типов памяти. Старую SDR память с одинарной скоростью передачи мы рассматривать не будем, её уже почти нигде не встретишь. Все современные типы памяти DDR и GDDR позволяют передавать в два раза большее количество данных на той же тактовой частоте за единицу времени, поэтому цифру её рабочей частоты зачастую указывают удвоенной (умножают на два). Так, если для DDR памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR память, чтобы обеспечить такую же пропускную способность.

Основное преимущество DDR2 памяти заключается в возможности работы на больших тактовых частотах, а соответственно — увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт. Первой платой, использующей DDR2 память, стала NVIDIA GeForce FX 5800 Ultra. По сути, на ней стояла GDDR2 память, которая не настоящая DDR2, а нечто среднее между технологиями DDR и DDR2. После применения GDDR2 в серии GeForce FX 5800, последующие видеокарты NVIDIA использовали DDR память, но эта память получила дальнейшее распространение в GeForce FX 5700 Ultra и в некоторых более поздних mid-end видеокартах. С тех пор технологии графической памяти продвинулись дальше, был разработан стандарт GDDR3, который близок к спецификациям DDR2, с некоторыми изменениями, сделанными специально для видеокарт.

GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшениями характеристик потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. И опять же, несмотря на то, что стандарт был разработан в ATI, первой видеокартой, ее использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.

Ну а GDDR4 — это последнее поколение "графической" памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей. Первыми видеокартами с чипами GDDR4 на борту стали RADEON X1950 XTX, а у компании NVIDIA продукты на базе этого типа памяти еще не вышли. Преимущества новых микросхем памяти перед GDDR3 в том, что энергопотребление модулей может быть примерно на треть ниже. Это достигается за счет более низкого номинального напряжения для GDDR4.

Итак, видеопамять самых современных типов: GDDR3 и GDDR4, отличается от DDR некоторыми деталями, но также работает с удвоенной передачей данных. В ней применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, GDDR2 память обычно работает на более высоких частотах, по сравнению с DDR, GDDR3 — на еще более высоких, ну а GDDR4 обеспечивает максимальную частоту и пропускную способность.




Разъемы для подключения устройств вывода

На выбор видеокарты может повлиять и имеющийся или предполагаемый к приобретению монитор. Так, для современных LCD мониторов с DVI входом очень желательно, чтобы на видеокарте был разъем DVI. К счастью, практически на всех современных решениях сейчас есть как минимум один порт DVI. Еще одна тонкость в том, что если требуется разрешение выше 1920х1200 по цифровому выходу DVI (такие мониторы редки и дороги, но они существуют), тогда нужно обязательно выбирать видеокарту с поддержкой Dual-Link DVI, такие модели есть в семействах ATI RADEON X1000 и NVIDIA GeForce 7 и выше. Рассмотрим основные разъемы, использующиеся для подключения устройств отображения информации.

Аналоговый D-Sub разъем (также известен как VGA выход или DB-15F)

D-Sub

D-Sub


Это давно известный нам и привычный 15-контактный разъем для подключения аналоговых мониторов. Сокращение VGA расшифровывается как video graphics array (массив пикселей) или video graphics adapter (видеоадаптер). Разъем предназначен для вывода аналогового сигнала, на качество которого может влиять множество разных факторов, таких, как качество RAMDAC и аналоговых цепей, поэтому качество получаемой картинки может отличаться на разных видеокартах. Современные видеокарты обычно используют качественные компоненты и дают четкую картинку на всех поддерживаемых разрешениях, а вот старые видеоплаты в высоких разрешениях могли давать некачественную картинку.

 

Разъемы D-Sub были фактически единственным стандартом до времени широкого распространения LCD мониторов. Такие выходы до сих пор чаще всего используются для подключения мониторов на электронно-лучевых трубках, да и на современных телевизорах и проекторах они встречаются и по сей день, даже игровая консоль последнего поколения от Microsoft предлагает именно такой метод подключения. Но для подключения LCD мониторов рекомендуется использовать цифровые интерфейсы, самый распространенный из которых DVI.

Разъем DVI (вариации: DVI-I и DVI-D)

DVI

DVI


DVI — это стандартный интерфейс, чаще всего использующийся для вывода цифрового видеосигнала на ЖК мониторы, начиная с 19" моделей, за исключением самых дешевых. На фотографии показана видеокарта с тремя разными разъемами: D-Sub, S-Video и DVI. Существует три типа DVI разъемов: DVI-D (цифровой), DVI-A (аналоговый) и DVI-I (integrated — комбинированный или универсальный):

 

DVI-D — исключительно цифровое подключение, позволяющее избежать потерь в качестве из-за двойной конвертации цифрового сигнала в аналоговый и из аналогового в цифровой. Этот тип подключения предоставляет максимально качественную картинку, он выводит сигнал только в цифровом виде, к нему могут быть подключены цифровые LCD мониторы с DVI входами или профессиональные ЭЛТ-мониторы с встроенным RAMDAC и входом DVI. От DVI-I этот разъем отличается физическим отсутствием части контактов, и переходник DVI-2-D-Sub, о котором речь пойдет далее, в него не воткнуть. Чаще всего этот тип DVI применяется в системных платах с интегрированным видеоядром, на видеокартах он встречается значительно реже.

DVI-A — это довольно редкий тип аналогового подключения по DVI, предназначенного для вывода аналогового изображения на ЭЛТ приемники. В этом случае сигнал ухудшается из-за двойного цифрово-аналогового и аналогово-цифрового преобразования, его качество соответствует качеству стандартного VGA подключения.

DVI-I — это комбинация двух вышеописанных вариантов, способная на передачу как аналогового сигнала, так и цифрового. Этот тип применяется в видеоплатах наиболее часто, он универсален и при помощи специальных переходников, идущих в комплекте поставки большинства видеокарт, к нему можно подключить и обычный аналоговый ЭЛТ-монитор с DB-15F входом. Вот как выглядят эти переходники:

DVI-to-D-Sub


Во всех современных видеокартах есть хотя бы один DVI выход, а чаще всего универсальных DVI-I разъема ставят по два, а D-Sub вообще отсутствуют (но их можно подключать при помощи переходников, см. выше). Для передачи цифровых данных используется или одноканальное решение DVI Single-Link, или двухканальное — Dual-Link. Формат передачи — Single-Link использует один 165 МГц TMDS передатчик, а Dual-Link — два, он удваивает пропускную способность и позволяет получать разрешения экрана выше, чем 1920x1080 и 1920x1200 на 60 Гц, поддерживая режимы очень высокого разрешения, вроде 2560x1600 и 2048x1536. Поэтому для самых крупных LCD мониторов с большим разрешением, таких, как 30" модели, обязательно нужна видеокарта с двухканальным DVI Dual-Link выходом.

 

Разъем HDMI

В последнее время широкое распространение получает еще более новый интерфейс — High Definition Multimedia Interface. Этот стандарт обеспечивает одновременную передачу визуальной и звуковой информации по одному кабелю, он разработан для телевидения и кино, но и пользователи ПК могут использовать его для вывода видеоданных при помощи HDMI разъема.

HDMI

HDMI


На фото слева — HDMI, справа — DVI-I. Хотя HDMI выходы на видеокартах встречаются пока довольно редко, в дальнейшем они могут стать более распространенными, особенно на видеокартах среднего уровня, предназначенных для создания медиацентров. Просмотр видеоданных высокого разрешения на компьютере в будущем может потребовать видеокарты и монитора, поддерживающих систему защиты содержимого HDCP, и соединенных кабелем HDMI или DVI. Видеокарты не обязательно должны нести разъем HDMI на борту, в некоторых случаях подключение HDMI кабеля осуществляется через переходник на DVI.

HDMI


HDMI — это очередная попытка стандартизации универсального подключения для цифровых аудио- и видеоприложений. Оно сразу же получило мощную поддержку со стороны гигантов электронной индустрии (в группу компаний, занимающихся разработкой стандарта, входят такие компании, как Sony, Toshiba, Hitachi, Panasonic, Thomson, Philips и Silicon Image), и большинство современных устройств вывода высокого разрешения имеет хотя бы один такой разъем. HDMI позволяет передавать защищенные от копирования звук и изображение в цифровом формате по одному кабелю, стандарт первой версии основывается на пропускной способности 5 Гб/с, а HDMI 1.3 расширил этот предел до 10.2 Гб/с.

 

HDMI 1.3 — это последняя спецификация стандарта с увеличенной пропускной способностью интерфейса, увеличенной частотой синхронизации до 340 МГц, что позволяет подключать дисплеи высокого разрешения, поддерживающие большее количество цветов (форматы с глубиной цвета вплоть до 48-бит). Новой версией спецификации определяется и поддержка новых стандартов Dolby для передачи сжатого звука без потерь в качестве. Кроме этого, появились и другие нововведения, в спецификации 1.3 был описан новый разъем mini-HDMI, меньший по размеру по сравнению с оригинальным.

mini-HDMI


В принципе, наличие разъема HDMI на видеокарте совершенно необязательно, его с успехом заменяет переходник с DVI на HDMI. Он несложен и поэтому прилагается в комплекте большинства современных видеокарт. Мало того — на видеокартах серии RADEON HD 2000 по DVI через специальный переходник на HDMI выводятся и видео- и аудиоданные, так как формат цифровой, а его полосы пропускания хватает и на видео и на звук одновременно.

 

Встроенный на карту аудиочип, необходимый для поддержки передачи звука по HDMI, стал одним из ожидаемых решений в серии RADEON HD 2000. На видеокартах с видеочипами R600, RV610 и RV630 необходимости во внешнем аудиорешении и соответствующих соединительных кабелях нет, и передавать аудиосигнал с внешней звуковой карты не нужно. Передача видео- и аудиосигнала по одному HDMI разъему востребована прежде всего на картах среднего и низшего уровней, которые устанавливают в маленькие и тихие баребоны, используемые в качестве медиацентров. Из-за встроенного аудио, видеокарты RADEON HD 2400 и HD 2600 имеют определенное преимущество для сборщиков подобных мультимедийных центров.

Разъем DisplayPort

Итак, Single-Link DVI передаёт видеосигнал с разрешением до 1920 х 1080 пикселей, частотой 60 Гц и 8-бит на компоненту цвета, Dual-Link позволяет передавать 2560 х 1600 на частоте 60 Гц, а уже 3840 х 2400 пикселей при тех же условиях для Dual-Link DVI недоступны. У HDMI почти те же ограничения, версия 1.3 поддерживает передачу сигнала 2560 х 1600 точек с частотой 60 Гц и 8-бит на компоненту цвета, ну а на низких разрешениях — и 16-бит. И очень похоже, что на смену распространенным видеоинтерфейсам VGA и DVI придёт интерфейс DisplayPort. Хотя максимальные возможности у DisplayPort немногим больше, чем у Dual-Link DVI, всего 2560 х 2048 пикселей при 60 Гц и 8-бит на цветовой канал, но есть поддержка 10-бит на канал при разрешении 2560 х 1600, а также 12-бит для 1080p.

DisplayPort — это новый цифровой видеоинтерфейс, первая версия которого была принята VESA (Video Electronics Standards Association) весной 2006 года. Она определяет новый универсальный цифровой интерфейс, не подлежащий лицензированию и не облагаемый выплатами, предназначенный для соединения компьютеров и мониторов, а также другой мультимедийной техники. В группу VESA DisplayPort, продвигающую стандарт, входят крупные производители электроники: AMD, NVIDIA, Dell, Genesis Microchip, HP, Intel, Lenovo, Molex, Philips, Samsung.

Основным соперником DisplayPort является разъём HDMI с поддержкой защиты от записи HDCP, хотя он предназначен скорее для соединения бытовых цифровых устройств, вроде плееров и HDTV панелей. Ещё одним конкурентом раньше можно было назвать Unified Display Interface — менее дорогую альтернативу разъёмам HDMI и DVI, но основной её разработчик, компания Intel, отказалась от продвижения стандарта в пользу DisplayPort.

Отсутствие лицензионных выплат важно для производителей, ведь за использование в своей продукции интерфейса HDMI они обязаны выплачивать лицензионные сборы организации HDMI Licensing, которая затем делит средства между держателями прав на стандарт: Panasonic, Philips, Hitachi, Silicon Image, Sony, Thomson и Toshiba. Отказ от HDMI в пользу аналогичного «бесплатного» универсального интерфейса сэкономит производителям видеокарт и мониторов приличные средства, понятно, почему им DisplayPort очень понравился.

Технически, разъём DisplayPort поддерживает до четырёх линий для передачи данных, по каждой из которых можно передавать 1.62 или 2.7 гигабит/с. Поддерживаются режимы с глубиной цвета от 6 до 16 бит на цветовой канал. Дополнительный двунаправленный канал, предназначенный для передачи команд и управляющей информации, работает на скорости 1 мегабит/с, и используется для обслуживания работы основного канала, а также передачи сигналов VESA EDID и VESA MCCS. Также, в отличие от DVI, тактовый сигнал передаётся по сигнальным линиям, а не отдельным, и декодируется приёмником. DisplayPort имеет опциональную возможность защиты контента от копирования DPCP (DisplayPort Content Protection), разработанную компанией AMD и использующую 128-битное AES кодирование. Передаваемый видеосигнал не совместим с DVI и HDMI, но по спецификации допускается их передача. На данный момент DisplayPort поддерживает максимальную скорость передачи данных 10.8 гигабит/с и WQXGA разрешение (2560 x 1600) при помощи интерфейсного кабеля длиной до трёх метров.

Обновленная версия стандарта — 1.1, появилась через год после 1.0, в 2007 году. Её нововведениями стала поддержка защиты от копирования HDCP, важная при просмотре защищенного контента с дисков Blu-ray и HD-DVD, и поддержка волоконно-оптических кабелей в дополнение к обычным медным. Последнее позволяет передавать сигнал ещё на большие расстояния без потерь в качестве. Также планируется выпуск версии 2.0, но про него пока что мало известно, кроме того, что там появится поддержка ещё больших разрешений, таких как 3840 x 2400.

Основные отличительные особенности DisplayPort: открытый и расширяемый стандарт; поддержка форматов RGB и YCbCr; поддержка глубины цвета: 6, 8, 10, 12 и 16 бит на цветовую компоненту; передача полного сигнала (2560 х 2048) на 3 метра, а 1080p — на 15 метров; поддержка 128-битного AES кодирования DisplayPort Content Protection, а также 40-битного High-bandwidth Digital Content Protection (HDCP 1.3); большая пропускная способность по сравнению с Dual-Link DVI и HDMI; передача нескольких потоков по одному соединению (планируется в будущих версиях); совместимость с DVI, HDMI и VGA при помощи переходников; простое расширение стандарта под изменяющиеся потребности рынка; внешнее (видеокарта к монитору) и внутреннее присоединение (подсоединение LCD панели в ноутбуке, замена внутренним LVDS соединениям).

Внешний разъем DisplayPort имеет 20 контактов, его физический размер можно сравнить со всем известными разъёмами USB. Новый тип разъёма уже можно увидеть на некоторых современных видеокартах и мониторах. Внешне он похож и на HDMI, и на USB, но также может быть оснащён защёлками на разъёмах, аналогичным тем, что предусмотрены в Serial ATA.

DisplayPort


Перед покупкой AMD, компания ATI сообщила о поставках видеокарт с разъёмами DisplayPort уже в начале 2007 года, но слияние компаний отодвинуло это появление на какое-то время. В дальнейшем AMD объявила DisplayPort стандартным разъёмом в рамках платформы Fusion, подразумевающей унифицированную архитектуру центрального и графического процессоров в одном чипе, а также будущих мобильных платформ, выходящих в наступившем году.

 

В июле 2007 года AMD объявила о поддержке DisplayPort выходящими продуктами на основе чипсета RS780 и видеочипов RV670, но для этого должны были использоваться внешние трансмиттеры. Включение которых в состав чипа было выполнено в дальнейшем в GPU, известных как RV635 и RV620. NVIDIA не отстаёт, и первые видеокарты от обоих производителей постепенно начинают появляться в продаже. Это видеокарты GeForce 8800 GT и RADEON HD 3650, HD 3470 и HD 3450.

DisplayPort


Из производителей мониторов, объявивших о поддержке и анонсировавших DisplayPort продукты, можно отметить Samsung и Dell. Так, новые мониторы Dell: 3008WFP с размером диагонали экрана в 30 дюймов, и 24-дюймовый 2408WFP, обладают поддержкой и HDMI и DisplayPort, и уже доступны в продаже. Существование в них сразу двух интерфейсов объясняется переходным периодом и тем, что в цене больших LCD мониторов влияние стоимости лицензионных отчислений за HDMI просто незаметно.

 

Уже существуют и переходники DisplayPort-to-HDMI и DisplayPort-to-DVI, а также DisplayPort-to-VGA, преобразующий цифровой сигнал в аналоговый. То есть, даже в случае присутствия на видеокарте исключительно разъёмов DisplayPort, их можно будет подключить к любому типу монитора.

Кроме вышеперечисленных разъёмов, на современных видеокартах часто встречаются композитный и S-Video (S-VHS) разъемы с четырьмя или семью штырьками. Чаще всего они используются для вывода сигнала на телевизионные приемники, и даже на S-Video композитный сигнал зачастую получают смешиванием, что негативно влияет на качество картинки. S-Video лучше по качеству, чем композитный «тюльпан», но оба они уступают компонентному выходу YPbPr. Этот стандартный выход предусматривает три раздельных разъема типа «тюльпан» (Y, Pb и Pr), по которым передается разделенная цветовая информация. Такой разъем есть на многих мониторах и телевизорах высокого разрешения, и хотя сигнал по нему передается в аналоговой форме, по качеству он сравним с D-Sub интерфейсом. Для вывода некоторых разъемов из перечисленных в этом абзаце, производители видеокарт используют специальные переходники-разветвители.




Выбор ценового диапазона

В продолжение темы о необходимости приобретения мощной видеокарты для игрового компьютера, рассмотрим ценовые диапазоны, сложившиеся на рынке видеоплат. В новых линейках производители обычно выпускают по несколько моделей для разных ценовых уровней. Решения начального уровня стоят дешевле всего, они поддерживают почти все функции старших чипов, но являются самыми медленными. Медленными настолько, что всех их возможностей иногда хватает только на то, чтобы запустить современную игру, но не играть в неё комфортно, не говоря уже про высокие настройки качества и разрешение экрана. Приобретение таких плат разумно только в условиях очень сильно ограниченного бюджета и/или отсутствия желания играть в современные игры.

С другой стороны, верхние модели линеек всегда стоят слишком много с точки зрения среднего пользователя (цены в $600-700 уже давно никого не удивляют), и их выбор нужно делать, хорошо подумав. Ведь нет ничего хорошего в одновременном приобретении топовой видеокарты и недоедании из-за этого :). Самые производительные из видеокарт дадут возможность выставления максимальных настроек при сохранении высокой производительности во всех играх, и позволят отодвинуть сроки следующего апгрейда далеко вперёд, но стоимость их для большинства покупателей слишком высока.

Наиболее массовыми и чаще всего имеющими наилучшее соотношение цены и производительности, являются видеокарты среднего ценового диапазона. Они находятся посередине между решениями начального уровня и топовыми, обеспечивают приемлемую производительность и стоят не слишком дорого. Но для апгрейда или покупки новой видеокарты я бы все же советовал брать как минимум решения из так называемого верхнего mid-end диапазона (а то и нижнего high-end, если хватает денег), чтобы иметь хоть какой-то запас на будущее. Иначе захочется сменить видеокарту уже через год-полтора.

Кстати, при выходе новых линеек видеокарт не стоит навсегда забывать о старых. Так, решение из верхнего диапазона прошлой линейки может оказаться производительнее и выгоднее новой видеокарты среднего ценового диапазона. Даже с учетом того, что последняя имеет новые возможности, одинаковые для всей линейки, зачастую может оказаться так, что они вам просто не понадобятся. Но если отличия новой линейки значительны, в них появилась аппаратная поддержка более новых версий DirectX и версий шейдерных моделей, то в новый компьютер не стоит устанавливать устаревшую видеокарту, лучше будет поднапрячься и купить модель среднего диапазона из самой свежей линейки. В обратном случае, менять видеокарту, скорее всего, придется гораздо раньше, чем планировалось изначально.

Приведем свежий пример — в 2006 году владельцы видеокарт ATI RADEON X800 и X850 столкнулись с тем, что некоторые современные игры (Splinter Cell: Double Agent и Rainbow Six: Vegas) просто не работают на их, казалось бы, довольно производительных системах. А на менее производительных из низшего ценового диапазона конкурента — работают, хотя и медленно. Всё дело в том, что год-два назад у этих пользователей был выбор между решениями NVIDIA с поддержкой SM 3.0 и решениями ATI без таковой. Тогда казалось, что игры, требующие SM 3.0 в обязательном порядке, не появятся в обозримом времени, и они приобрели изделия на базе видеочипов ATI. В реальности получилось иначе. Отсюда урок — всегда обращайте внимание на поддерживаемые видеокартой возможности и версии DirectX, но не считайте эту поддержку главным свойством видеокарт, обращайте внимание и на производительность, оценивайте продукт комплексно!

Разделение видеокарт на ценовые диапазоны:

  • low-end с ценой менее $99 (GeForce 8600 GT, RADEON HD 3400, RADEON HD 3650)
  • нижний mid-end — $100-199 (GeForce 8600 GTS, GeForce 9600 GT, RADEON HD 3850)
  • верхний mid-end — $200-299 (GeForce 8800 GT, RADEON HD 3870, розничные цены до сих пор выше)
  • нижний high-end — $300-499 (GeForce 8800 GTS, GeForce 8800 GTX, RADEON HD 3870 X2)
  • верхний high-end — от $500 и выше (GeForce 8800 Ultra)

 

Примеры видеокарт по ценовым диапазонам приведены на момент обновления статьи, в дальнейшем они будут корректироваться. За основные цены в данном случае взяты те, которые рекомендуются производителем для розницы, так называемые MSRP. Розничные цены на нашем рынке (в Москве) также будут приводиться в тексте, на них основана последняя часть путеводителя — практические рекомендации по покупке видеокарты для всех ценовых диапазонов.

Несмотря на то, что low-end не имеет нижней границы, по сути, по цене ниже $50 уже нет достойных видеокарт, и если уж очень хочется приобрести видеокарту именно из этого диапазона (то есть, подразумевая, что покупатель не планирует запуска современных 3D игр на компьютере вообще), то имеет смысл обратить внимание на интегрированную в чипсеты графику. Она поддерживает многие из возможностей отдельных видеокарт, но не обладает достаточным 3D быстродействием, в точности как и самые медленные из отдельных.

Обзоры с тестами интегрированных видеоядер можно посмотреть в соответствующем разделе сайта iXBT.com: Системные платы, чипсеты, память, barebone-системы

Ну а те видеоплаты, что продаются по ценам выше $500 — это решения для энтузиастов, которые могут себе позволить выложить за видеокарту не одну сотню в условных единицах. Отдельным примером тут являются системы SLI и CrossFire, которые позволяют объединять в одной системе две (в некоторых случаях даже и более) видеокарты одной модели.

Ещё раз подчеркнем, что от выбора ценового диапазона видеокарты игрового компьютера зависит очень многое. Этот выбор определяет то, насколько комфортно вам будет играть, и какое качество изображения при этом будет. Для того чтобы вы лучше осознали разницу между игрой на видеокартах с разными возможностями и из разных ценовых диапазонов, я приведу несколько скриншотов, показывающих разницу в качестве при разных настройках.

Call of Duty 2

  


Call of Juarez

  


Некоторые могут возразить и сказать, что нет большой разницы между показанными скриншотами. Подумаешь, нет теней, постобработки, освещение примитивное, отсутствует попиксельная обработка, текстуры похуже, играть ведь это не мешает... На что я могу лишь заметить, что из таких мелочей и собирается реалистичная картинка, когда отсутствие даже одной из приведенных составляющих может испортить всю картину.

 

Мы же стремимся к реалистичности и максимальному качеству, а кто этого не хочет, тот вполне может довольствоваться и дешевыми видеокартами. В общем, каждый волен думать и выбирать сам. Но учтите, что эти скриншоты еще не показывают разницу в разных разрешениях экрана, уровнях антиалиасинга и сняты не на крайних минимальных и максимальных настройках. В реальности разница может оказаться еще большей. Например, такой:

Gothic 3

  


Вот это уже экстремальный случай, со сравнением минимальных настроек и максимальных. Кстати, конкретно в Gothic 3 на интегрированном видео и на low-end видеокартах вы вряд ли поиграете даже с минимальными настройками, так как банально не хватит производительности. Кстати, относительную производительность решений разного ценового уровня можно легко оценить по следующему графику из 3DGiТогов:


ATI и NVIDIA

Были взяты по две видеокарты ATI и NVIDIA разных ценовых диапазонов, чтобы никому обидно не было. Как видите, производительность видеокарт хорошо масштабируется в зависимости от их ценового уровня. На видеокарте за $100 можно поиграть только в самом низком разрешении, да еще и без особого комфорта (при том, что видеокарты самого низкого уровня мы в расчет вообще не брали!), верхний mid-end дает возможность комфортной игры в более высоком разрешении, ну а high-end модели предоставляют комфортную частоту кадров даже в самых высоких разрешениях, вплоть до 2560x1600. Всё это, конечно, при условии максимальных настроек качества.

SLI и CrossFire

Многие современные системные платы и платформы допускают одновременную установку двух видеокарт, что позволяет получить увеличенную производительность видеосистемы. Причем, сначала можно приобрести одну видеокарту, дополнив систему второй при дальнейшем апгрейде. Такой метод модернизации видеоподсистемы имеет как свои плюсы, так и минусы. Вопросы работы таких конфигураций непросты, существует несколько ограничений и нюансов, которые подробно рассмотрены в материалах соответствующего раздела нашего сайта:
Тестирование NVIDIA SLI
Самый мощный в мире тандем 2x7800 GTX 2x512MB SLI
Технология ATI CrossFire: асимметричный ответ на NVIDIA SLI
ATI CrossFire на базе RADEON X1900 XT
CrossFire на базе ATI Xpress 3200 (RD580)

Использование нескольких игровых видеокарт в одной системе было впервые осуществлено компанией 3dfx в далеких 90-х. Еще тогда 3dfx вышла на рынок с видеокартами Voodoo 2, имеющими возможность парной работы над одной и той же сценой при помощи технологии SLI. После этого, технологии многочиповой работы игровых видеокарт широкого распространения не получили, хотя те же 3dfx и ATI выпускали подобные системы для профессиональных применений. На бытовой рынок технология вернулась с появлением NVIDIA SLI и ATI CrossFire. Первая вышла раньше и получила значительно большее распространение, в силу своего удобства (отсутствия необходимости в специальных моделях видеокарт, подобно CrossFire Edition) и более раннего выхода.

По данным компании Valve, собранным при помощи сервиса Steam, из всех систем на базе двух и более видеокарт и видеочипов (двухчиповых видеокарт, вроде GeForce 7950 GX2), решения ATI занимают всего лишь 4%, а остальные 96% основаны на видеочипах NVIDIA. В этом «виноваты» еще и двухчиповые платы NVIDIA, на которые установлено по два комплекта GPU и микросхем памяти, вроде NVIDIA GeForce 7950 GX2.

Решения с применением пары видеокарт или двухчиповые платы имеют плюсы и минусы. Из плюсов — повышение производительности и/или качества изображения, SLI/CF действительно помогают увеличить скорость, когда из одиночной карты выжато уже всё, а в некоторых случаях можно и улучшить качество картинки при помощи новых режимов антиалиасинга. Явные же минусы таких решений в их высокой стоимости (платить придется за две видеокарты, подбирать специальную системную плату, которая дороже стоит), во встречающихся проблемах совместимости (не во всех играх можно получить увеличение производительности или качественные улучшения), в два раза более высокий уровень энергопотребления и тепловыделения, который может привести к необходимости смены блока питания системы и улучшению схемы охлаждения ПК.

Самый важный недостаток SLI и CF — отсутствие двукратного прироста производительности во всех приложениях. Две платы в совместной работе хотя и дают прирост производительности, но он чаще всего составляет 1.5-1.7 раза, а иногда и того меньше. В некоторых случаях прироста скорости нет вообще или он отрицательный, если в драйверах не сделана специальная оптимизация для конкретной игры. Именно поэтому конфигурации SLI и CrossFire на базе недорогих видеоплат оправдываются только в случае последующего «быстрого» апгрейда — покупки дополнительной видеокарты, соответствующей уже имеющейся. В случае же покупки новой системы, более дорогое одиночное решение будет всегда быстрее и удобнее пары дешевых плат. SLI и CrossFire имеют смысл только в тех случаях, когда производительность нужна любой ценой!

Кроме того, для SLI нужны только специальные системные платы, основанные на чипсетах NVIDIA с поддержкой SLI, а для CrossFire подойдут только платы на соответствующих чипсетах ATI(AMD) и некоторых наборах логики производства компании Intel, имеющие на борту два физических PCI Express x16 слота. Эти платы чаще всего из верхнего ценового сегмента, и стоят соответствующе.

В случае с большинством систем CrossFire дело дополнительно осложняется необходимостью применения специальной версии графической карты, имеющей специальный разъем — CrossFire Edition. У NVIDIA SLI таких проблем нет, для соединения двух обычных карт используется специальная плата, а также слоты PCI Express. Компания ATI сделала подобное решение лишь после выхода некоторых из современных моделей карт — RADEON X1950 PRO и RADEON X1650 XT, которые работают, обмениваясь данными по PCI Express (хотя режим с использованием карты CrossFire Edition обеспечивает более высокую производительность) и специальным мостикам. Планируется также, что все видеокарты новой серии RADEON X2900 будут поддерживать режим CrossFire без мастер-карты, подобно указанным выше решениям.

Чтобы было понятно, что пользователь получает от CrossFire и SLI, рассмотрим диаграмму сравнительной производительности одной видеокарты NVIDIA GeForce 8800 GTX и связки двух таких карт в игре F.E.A.R., результаты взяты из наших 3DGiТогов.


GeForce 8800 GTX

Хорошо видно, что прирост производительности составил от 62% в разрешении 1024x768 до 98-100% в наиболее высоких разрешениях. Но игра F.E.A.R. удобна для SLI/CrossFire, производительность в ней ограничена, прежде всего, филлрейтом и производительностью блоков пиксельных шейдеров, поэтому она и показывает двукратный прирост в тяжелых режимах. В большинстве же игр такого добиться намного сложнее, попадаются проекты, где и 50-60% считается хорошей цифрой, а 100% прирост не получится ни в каких условиях.

Отдельно нужно отметить появляющиеся решения на основе двух чипов, работающие как SLI/CrossFire система с точки зрения приложений, SLI/CF в которых реализован прямо на картах аппаратно: GeForce 7950 GX2, RADEON HD 3870 X2 и GeForce 9800 GX2. Компания AMD так и вообще намекнула, что в будущем будет выпускать топовые решения на основе мультичиповых карт по технологии CrossFire. Совсем недавно они анонсировали первую подобную видеокарту на основе двух чипов RV670 (RADEON HD 3870 X2), начав эру двухчиповых решений AMD. NVIDIA тоже скоро выпустит похожую видеокарту на базе двух G92, но у них ранее была GeForce 7950 GX2...

RADEON HD 3870 X2


Подобное увлечение мультичиповыми продуктами, работающими при помощи технологий SLI и CrossFire, несколько расстраивает. Несмотря на удобство создания продуктов для разных ценовых диапазонов на основе разного количества одних и тех же чипов, одночиповое решение всегда будет обладать определенными преимуществами: оно будет быстрее во всех приложениях, а не только оптимизированных для мультичиповых конфигураций, кроме того, оно не содержит избыточных блоков в каждом из чипов, обладает лучшими характеристиками по энергопотреблению и тепловыделению, а самое главное — в случае одночипового решения отсутствуют проблемы при отрисовке изображения, свойственные основным режимам SLI/CrossFire.

 

Двухчиповые платы на данный момент мало отличаются от соответствующих SLI и CrossFire систем, просто они основаны на двух чипах, установленных на одну (или две соединённые) печатную плату вместе с памятью и остальной обвязкой. Двухчиповая система работает по технологиям SLI или CrossFire, реализованным аппаратно, линии PCI Express и соответствующий мост выполнены прямо на плате, и карта не использует соответствующих ресурсов системной платы, не требуя от той поддержки указанных технологий. А реальная разница, с точки зрения пользователя, по сравнению с системой из двух плат, заключается в размерах и иной рабочей частоте чипа и памяти.




Выбор объема видеопамяти

Производительность видеокарты определяется не только мощностью GPU. Любому чипу нужны большой объем выделенной памяти и высокая пропускная способность при записи и чтении различных данных: текстур, вершин, содержимого буферов. Даже мощный видеочип можно «задушить» малым объемом видеопамяти с медленным доступом, поэтому её характеристики (а также характеристики видеочипов по работе с внешней памятью) являются одними из важнейших.

Микросхемы памяти, количество которых на некоторых экземплярах достигает уже 12 штук, обычно располагаются на плате вокруг видеочипа. В некоторых случаях для них не используется даже пассивное охлаждение, но чаще всего применяется общий кулер, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce 8800 GTS со снятым устройством охлаждения:

Memory


Современные видеокарты оснащаются разным объемом локальной видеопамяти, обычно от 128 Мбайт до 1024 Мбайт (1 гигабайт). Чаще всего на low-end и mid-end видеокарты ставят 256 Мбайт памяти, а на high-end уже 512 Мбайт и выше, но есть и некоторые исключения. Чем больше памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) в ней можно хранить, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры, рассмотрим скриншоты из игры Call of Duty 2 с разными установками качества текстур:



В Call of Duty 2 игра сама настраивает качество текстур под имеющийся объем текстурной памяти (объем видеопамяти минус место, занятое фреймбуфером). Так, режим Extra автоматически выставится на 320-512 Мбайт видеокартах, High или Normal — на 256 Мбайт, в зависимости от настроек разрешения и уровня антиалиасинга, а Low — на 128 Мбайт. Даже если вы выставите максимальные настройки вручную, то на видеокарте с недостаточным объемом видеопамяти для хранения ресурсов будет использоваться часть системной памяти, что приведет к сильным тормозам и отсутствию комфорта и плавности в игре.

 

Для того чтобы было проще ориентироваться, приведем таблицу среднего использования видеопамяти некоторыми из современных 3D игр в режиме максимальных настроек, при разрешении 1024x768 и использовании антиалиасинга уровня 4x (там, где это возможно), информация взята из технологических обзоров игр и других исследований.

Название игры Средний
объем занятой
видеопамяти, Мбайт
Максимальный
объем занятой
видеопамяти, Мбайт
Call of Duty 2 280-300 350
F.E.A.R. 250-270 400
Call of Juarez 240-250 400
Lost Planet: Extreme Condition 460-480 600
Colin McRae Rally: DiRT 360-380 450
Call of Juarez DX10 500-510 650
S.T.A.L.K.E.R.: Shadow of Chernobyl 560-580 700
SEGA Rally Revo Demo 280-300 420
Clive Barker's Jericho Demo 380-400 500
Среднее 370-380 500


Как вы видите, все современные игры очень требовательны к объему видеопамяти, и среди рассмотренных игр уже нет таких, которые бы довольствовались объемом видеопамяти, равном 128 Мбайт, они используют до 500-600 Мбайт. Это не значит, что все ресурсы игр должны загружаться в локальную память видеокарты, зачастую игры просто отдают таким образом менеджмент ресурсов в управление API, тем более, что в Direct3D 10 используется виртуализация видеопамяти. Тем не менее, прослеживается явная тенденция к увеличению требуемых объемов локальной памяти на видеокартах.

Минимально необходимый объем локальной памяти для видеокарт, судя по этой таблице, составляет 256-320 Мбайт, 128 Мбайт будет явно недостаточно, но оптимальным в этом году стал объем 512 Мбайт. Тем более, что в более высоких разрешениях и других выходящих играх требования изменятся, а видеокарту лучше подбирать с небольшим запасом. С другой стороны, можно сказать, что объем более 1 Гбайта в ближайшее время вряд ли понадобится.

В некоторых случаях бывает так, что указанное на коробке количество видеопамяти не равно объему установленных на плату микросхем. Такое было ранее в случае low-end видеоплат, работающих с частью системной памяти при помощи технологий TurboCache от NVIDIA и HyperMemory от ATI:

Обзор NVIDIA GeForce 6200 TurboCache 16/32MB (128MB)
Обзор ATI RADEON X300SE HyperMemory 32 (128)MB

В характеристиках видеокарт с поддержкой этих технологий, в маркетинговых целях указывался объем памяти (в т.ч. и часть ОЗУ), который может использоваться видеочипом, равный 128 Мбайт, в то время как в реальности на них установлен меньший объем — 16-32 Мбайт. Нужно внимательно читать материалы нашего сайта, чтобы не попадаться на подобные ухищрения в будущем, если они будут. А пока что можно жить спокойно, сейчас в таких видеокартах уже никто не видит смысла, их нишу заняли интегрированные чипсеты.

Ну хорошо, с имеющимися разновидностями видеокарт по объему локальной памяти мы разобрались. Но ведь объём памяти для видеокарт — это еще не всё, и даже зачастую не главное! Очень часто бывает так, что на дешевые видеокарты ставят большое количество памяти, чтобы нарисовать красивые цифры в ценниках и на коробках, с расчетом на то, чтобы они хорошо продавались. Но для слабых видеокарт в этом смысла нет, они все равно не смогут выдавать приемлемую частоту кадров на высоких настройках, в которых и используется большие объемы текстур и геометрии.

Продавцы иногда используют объем видеопамяти в качестве основной характеристики видеокарт, и это часто вводит в заблуждение простых покупателей, плохо знакомых с реальным положением дел. Сравним производительность решений с разным количеством видеопамяти на примере двух одинаковых видеокарт NVIDIA GeForce 8800 GTS, с единственным отличием — на первой установлено 320 Мбайт памяти, а на второй — 640 Мбайт. Любой продавец вам скажет, что вторая видеокарта значительно быстрее первой, кроме случаев, когда в магазине есть модели с 320 Мбайт, а другие отсутствуют (редчайшие случаи честных и одновременно компетентных продавцов мы в расчет не берем). А что же на самом деле? Смотрим цифры, полученные в двух играх:


GeForce 8800 - Memory - JUAREZ

GeForce 8800 - Memory - F.E.A.R

Как видите, в большинстве режимов объем видеопамяти влияет на производительность незначительно, лишь в сверхвысоких разрешениях и с максимальными настройками качества появляются провалы, когда 320 Мбайт вариант заметно отстаёт от более дорогой карты. Но в целом можно считать, что объем памяти не слишком сильно сказывается на скорости, и сравнивать две видеокарты только по количеству памяти не стоит.

Важное замечание! Речь идет об объемах памяти не менее 256 Мбайт! В этом случае, примеры, когда объем памяти сказываться на производительности, весьма редки, но если сравнивать 128 Мбайт и 256 Мбайт решения, то такие выводы не являются верными. Дело в том, что разработчики игровых приложений рассчитывают используемые в играх ресурсы так, чтобы они входили в локальную видеопамять наиболее распространенных на рынке видеокарт, он на данный момент как раз равен 256 Мбайт, хотя уже начинают ориентироваться на средний объем видеопамяти в 320-512 Мбайт. И если видеопамяти меньше, то современные игры или будут тормозить, подгружая данные из оперативной памяти, или не дадут выставить максимальные настройки, а может быть, и то и другое вместе.

Расчетный объем видеопамяти у игровых разработчиков постоянно растет, несколько лет назад было вполне достаточно 128 Мбайт, теперь появились проекты, в которых и 256 Мбайт недостаточно. Таких пока мало, но они уже появляются (см. таблицу). Поэтому, в случае небольшой разницы в цене между видеокартами с разными объемами памяти при прочих равных условиях (частота и ширина шины), следует покупать плату с большим объемом. Но без погони за цифрами — никакой low-end карте не помогут 512 Мбайт памяти. Равно как и объем в 1 Гбайт на данный момент просто не нужен. В общем, можно сказать, что для low-end и нижнего mid-end оптимальным объемом является 256-320 Мбайт, для верхнего mid-end и high-end — 512-768 Мбайт. Больший объем пока что нечасто используется реально.

Подробнее о пропускной способности памяти

Еще одна важная характеристика, о которой мы уже говорили — пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные и геометрические данные, и чем быстрее записываются рассчитанные пиксели, тем выше будет производительность.

Пиковая пропускная способность памяти рассчитывается просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce 8800 GTS с шиной 320-бит и частотой видеопамяти 800(1600) МГц, ПСП равна:

800 МГц * 2 (передача по двум фронтам) * 40 байт (перевод ширины шины в байты) = 64000 Мбайт/с = 64 Гбайт/с

Если с частотой памяти все понятно, ее обычно и на коробках пишут, и в характеристиках прописывают прямо, то с шиной сложнее, она не всегда явно указана производителем, поэтому на нее нужно обращать особое внимание. Большинство современных видеокарт используют 128-битную или 256-битную шину памяти, но некоторые недорогие платы оснащаются лишь 64-битной шиной, и это нигде широко не афишируется. Для производителя это и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. Две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, сможет обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины.

Поэтому, при выборе между видеокартой с большим объемом видеопамяти и меньшим, нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя low-end решениями с 256 и 512 Мбайт памяти, нет смысла гнаться за вторым вариантом, видеокарта низкого уровня просто не получит большой прибавки в производительности от этого. Другой пример — видеокарты с разным объемом, но разными же частотами видеопамяти. Тут нужно выбирать, исходя из того, какого уровня видеокарта и насколько разные частоты, не забывая и про цену, естественно.

Например, из high-end решения с 320 Мбайт и более высокими тактовыми частотами против такой же 640 Мбайт карты со стандартными частотами и более высокой ценой, на данный момент выгоднее будет первая видеокарта, так как она обеспечит большую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. Вот подтверждение:

BFG GeForce 8800 GTS Overclocked 320MB, MSI GeForce 8800 GTS OC Edition 320MB, Foxconn GeForce 8800 GTS 320MB PCI-E

Посмотрите на диаграммы тестов в указанной статье — в большинстве режимов разогнанные видеокарты обгоняют видеокарту с обычными частотами, но большим объемом памяти. И только в сверхвысоких разрешениях в два раза больший объем сказывается на их скорости. Конечно, необходимо учитывать растущие потребности игр в видеопамяти, вполне может сложиться так, что через год ситуация изменится на противоположную.




Выбор видеочипа, модели и производителя видеокарты

Основные производители видеочипов

Выбор производителя графического процессора для игровой видеокарты в последнее время достаточно прост. По сути, на рынке дискретных видеочипов существует лишь два мощных производителя: компания NVIDIA и компания AMD, производящая соответствующие изделия под торговой маркой ATI. Именно эти две компании выпускают подавляющее большинство GPU для выделенных (не встроенных в чипсет) видеокарт и только на их продукцию и стоит ориентироваться при покупке игровой видеокарты.

ATI logo   NVIDIA logo


Да, не так давно продавались и весьма редкие видеокарты на основе чипов других производителей, например от S3 Graphics, подразделения VIA Technologies. Никаких успехов на мировом рынке они не добились, продаваясь в основном на внутреннем китайском. Поэтому они могут рассматриваться лишь с музейной точки зрения, хотя производитель продолжает работу над созданием современных GPU и даже что-то анонсируют изредка (кстати, анонс чипов с поддержкой DirectX 10 планируется сделать этим летом). Может быть, в будущем на рынке и появится третий мощный игрок, но это вряд ли случится раньше того времени, когда (и если) CPU и GPU сольются в единое устройство.

 

На момент написания статьи, наиболее интересными являются видеокарты, основанные на чипах серий ATI RADEON X2000 и NVIDIA GeForce 8. Карты верхнего уровня этих серий выгодны как по производительности, так и по возможностям, это первые видеокарты на рынке с поддержкой DirectX 10. Если в начале года решения были дорогими и были выпущены только для high-end ценового диапазона, теперь они присутствуют во всех секторах рынка. Ещё один важный момент — иногда выгоднее взять решение, которое недавно принадлежало к верхнему ценовому диапазону и в дальнейшем подешевело, а не новое решение среднего уровня. Несмотря на поддержку более новой видеокартой больших возможностей, старая может быть быстрее в актуальных играх. Хороший пример: RADEON HD 2600 XT и RADEON X1950 PRO. Вроде бы первая должна быть лучше, она новее, но в большинстве игр X1950 PRO будет быстрее и выгоднее.

Выбор между ATI и NVIDIA непрост, в каждый момент времени в каждом из ценовых диапазонов есть свои лидеры, и однозначно указать лучшего производителя нельзя. Кроме того, у каждой серии видеокарт есть свои достоинства и недостатки, так, GeForce 7 не поддерживает мультисэмплинг для FP16 буферов (проще говоря — нет возможности включения антиалиасинга совместно с HDR рендерингом), а у ATI традиционно немного похуже дела с производительностью некоторых OpenGL приложений и нет поддержки выборки текстур из вершинных шейдеров, что хоть и очень редко, но всё же используется в играх, например, в авиасимуляторах. Зато у последних решений ATI из линейки X1000 явно больше мощи в блоках пиксельных шейдеров, что может положительно сказываться на производительности современных игр. А у GeForce 8 очень хорошее качество текстурной фильтрации и антиалиасинга. В общем, разница есть, хотя и не всегда явная, нужно выбирать в каждом конкретном случае, на основе обзоров видеокарт.

Выбор модели видеокарты

Если вы не хотите платить за производительность любую цену, а выступаете за разумные траты, то нет смысла в гонке за решениями верхнего уровня. В таком случае, лучшим выбором будут видеокарты среднего (или высокого среднего — верхнего mid-end) класса, которые дадут комфортную частоту кадров и качественную картинку во всех современных играх с приличными, пусть и не максимальными, настройками качества.

Конкретную модель видеокарты из выбранного ценового диапазона можно подобрать, используя данные из 3DGiТогов/i3D-Speed и справочных материалов по моделям видеокарт. Так как справочные материалы по видеокартам даже только двух основных производителей имеют слишком большой объем, они вынесены в отдельные материалы и обновляются независимо от настоящего руководства покупателя:

Семейства видеокарт NVIDIA GeForce — Справочная информация
Семейства видеокарт AMD(ATI) RADEON — Справочная информация

Но в этих материалах приведены лишь теоретические характеристики всех существующих современных видеокарт, сделать окончательные выводы на их основе трудно. Очень удобно делать свой выбор, основываясь на периодическом исследовании производительности видеокарт в материале на нашем сайте под названием 3DGiТоги (в дальнейшем переименованный в i3D-Speed). Там ежемесячно исследуется как производительность видеокарт в самых современных играх, так и их качественные характеристики, с приведением списка отмеченных проблем в играх и соответствующими скриншотами.

Что еще важнее для нас с вами — там есть рейтинги видеокарт в виде наглядных таблиц, показывающих относительную производительность решений, в том числе и с учетом их цены (см. рейтинг полезности). Из которых можно выбрать наиболее выгодное на данный момент решение, имеющее лучшее соотношение цены, возможностей и производительности. Конкретные рекомендации по выбору GPU и модели видеокарты на основе материалов из 3DGiТогов/i3D-Speed, даны в последней части путеводителя, они периодически обновляются, чтобы следовать тенденциям быстро изменяющегося рынка.

Выбор конкретного производителя

Сами фирмы AMD и NVIDIA не продают готовые видеокарты, это делают их партнеры, такие известные производители, как ASUS, Gigabyte, MSI, Sapphire, Foxconn, BFG, Gainward, Leadtek, Chaintech, Palit, XFX и многие другие. Все они, вместе со своими более мелкими конкурентами, производят и продают видеокарты на базе GPU от двух вышеуказанных компаний. И у отдельных решений иногда есть свои плюсы и минусы, важные и не очень. Давайте разберёмся, на что стоит обращать внимание, а о чем можно и не задумываться, уже имея в виду всю ту информацию о характеристиках видеокарт, которая была описана нами ранее.

В прошлом, у видеоплат встречались недочёты, связанные с большим количеством производителей самого разного уровня, которые сами занимались разработкой дизайна плат и их выпуском. Иногда они допускали ошибки, и пользователи получали проблемы со стабильностью, качеством изображения, перегревом и т.п. Сейчас же, когда основная масса видеокарт производится на базе референсного дизайна, большинство этих проблем просто исчезло. В реальности теперь могут встретиться разве что плохо продуманные конструкции кулеров или установленная память с худшими характеристиками, но это обычно относится к low-end и нижнему mid-end секторам рынка, и очень редко бывает в верхних классах.

Абсолютное большинство high-end видеокарт (RADEON X1900XT — X1950XTX, GeForce 7800 GTX — 8800 GTX) с определенного времени и по сей день, производятся на определенных заводах по заказу AMD и NVIDIA, их партнеры по выпуску готовых продуктов покупают у них эти уже изготовленные видеокарты и продают под своей торговой маркой, иногда меняя системы охлаждения, наклеивая свои наклейки, комплектуя играми и прочими завлекательными штуками. Даже кулеры на дорогих платах производители меняют редко, чаще всего у всех производителей карты абсолютно одинаковы, и отличаются наклейками, как максимум. Ну и тактовыми частотами иногда, если NVIDIA или AMD разрешили выпуск разогнанных решений.

  


Хорошо видно, что отличия только в наклейках на кулере. Причем, это со всеми топовыми продуктами так! Были RADEON Х800 и GeForce 6800 верхними моделями линеек — их делали только по заказу ATI и NVIDIA, остальные покупали у них готовое. Стали топовыми RADEON X1800 и GeForce 7800 — с ними повторилось то же самое. И лишь когда решения переходят в нижние ценовые диапазоны, производители чипов начинают продавать отдельные GPU партнерам, для того, чтобы они уже сами производили платы полностью. Так происходит не со всеми решениями, конечно, некоторые просто исчезают из линеек (например, RADEON Х1800 XT и GeForce 6800 Ultra), заменяясь более новыми моделями, и уже никто из производителей их не делает сам.

 

В общем, у high-end карт отличий практически нет, есть лишь малое количество моделей с отличающимися в лучшую сторону характеристиками, а вот для менее дорогих плат уже возможны варианты. Особенно внимательно нужно смотреть за low-end сектором и тем более, так называемыми OEM комплектациями (платы в антистатических пакетиках, без коробки), в этом случае желательно читать обзоры на сайте и обсуждения конкретных решений в нашей конференции. Особенно внимательно смотрите на установленную память, если она не закрыта радиаторами, именно на ней чаще всего стремятся сэкономить некоторые производители бюджетных решений. Впрочем, значительно реже встречаются и карты с более быстрой, чем необходимо, памятью.

Несмотря на то, что все топовые видеокарты одинаковы и выпускаются на одних и тех же заводах под надзором производителей чипов из одних комплектующих, некоторые из них имеют повышенные частоты относительно номинальных. Такие продукты просто проходят тестирование в лабораториях производителей карт уже после приобретения их у чипмейкеров. Там проходит отбор плат, способных к работе на повышенных частотах, не прошедшие его карты идут на обычные продукты со стандартными частотами, а отобранные выпускаются под другим названием.

Вообще же, совет по выбору определенного производителя дать невозможно, слишком многое тут зависит от конкретных моделей видеокарт. Можно лишь дать некоторые базовые рекомендации. Желательно покупать так называемые retail видеокарты — продающиеся в коробках и с определенным комплектом поставки, так как в виде ОЕМ решений можно купить продукт с отличающимися от ожидаемых характеристиками, пониженными частотами и т.п., что чаще встречается на видеокартах нижних ценовых диапазонов. Хотя слепо не доверять OEM решениям тоже неправильно, есть среди них и достойные видеокарты, с обычными характеристиками и более низкой ценой.

Для того чтобы не брать первое, что попадется, весьма желательно перед покупкой найти и внимательно прочитать обзоры интересующих вас моделей видеокарт у нас на сайте. Там есть фотографии коробок, самих плат и их комплектов поставок. При покупке видеокарты это даст определенную уверенность в характеристиках, если и карта и коробка будут точно такими же. И особенное внимание нужно уделить характеристикам, указанным на коробках, там часто пишут наименование модели, модификации, тактовые частоты и другие технические характеристики из рассмотренного нами ранее списка.

Ну а среди видеокарт верхних ценовых диапазонов, верхнего mid-end и high-end, производимых на одном и том же заводе и почти не отличающихся друг от друга, предпочтительнее искать решения с нестандартными системами охлаждения, которые чаще всего обладают лучшими техническими характеристиками по эффективности охлаждения и шуму. В остальном, следует руководствоваться, прежде всего, ценой, комплектом поставки и гарантийным сроком.

Ссылки на обзоры конкретных моделей всех производителей можно найти здесь:
Видеокарты на чипах AMD(ATI)
Видеокарты на чипах NVIDIA




Неявные особенности выбора

При выборе видеокарт следует учитывать и некоторые другие их особенности, на которые стоит обращать внимание, и которые мы сейчас вкратце рассмотрим. К таким особенностям относятся различные характеристики по электропитанию, тепловыделению и охлаждению, а также физические размеры видеокарт.

Электропитание

Большинству современных видеокарт верхнего уровня обычно не хватает электропитания, получаемого ими через PCI Express слот, и они требуют дополнительного питания. Для этого на краю платы устанавливаются специальные шестиштырьковые разъемы (см. фото). Такие же разъемы есть и на новых блоках питания, что позволяет подключать провода без переходников. Но если на существующем блоке питания нет таких разъемов, можно воспользоваться переходником (или переходниками), позволяющим подключить любой четырехштырьковый разъем типа Molex, входящим в комплект всех таких видеокарт.

Power


Как видите, самые «прожорливые» модели видеоплат нуждаются сразу в двух разъемах питания, в дополнение к 75 Вт по PCI Express. И главное тут — чтобы блок питания мог обеспечить требуемое для видеокарты питание. Современные high-end видеокарты и видеокарты ближайшего будущего в одиночку потребляют до 150-200 Вт, и они одни нуждаются в 12-18 А по линии 12 В от БП только на видеокарту! Поэтому, подбирая блок питания для мощной системы, нужно обязательно учитывать, что кроме видеокарты, в ПК много других потребителей, и стоит обращать внимание на БП, дающие не менее 25-30 А по 12 В каналам. Видеокарты среднего уровня могут довольствоваться питанием по PCI Express, но им тоже нужны качественные блоки питания, не экономьте на этом.

 

Системы охлаждения и физические размеры

Второй важный момент — системы охлаждения. Так как видеокарты потребляют много энергии, они выделяют и большое количество тепла, его нужно отводить от них при помощи устройств охлаждения, так называемых кулеров. Без систем охлаждения или с их низкой эффективностью видеочип перегреется и выйдет из строя. Охлаждение на сравнительно медленных видеокартах может осуществляться при помощи пассивных систем (радиаторов), но чаще всего применяются активные, с радиатором (или радиаторами) и вентилятором (или вентиляторами).

Чем больше поверхность радиатора, тем выше его эффективность (при прочих равных, например, материале). Часто сложно или невозможно установить радиатор необходимого размера для эффективного охлаждения, да и площадь чипов не позволяет сделать это, поэтому приходится применять системы на базе тепловых трубок, которые улучшают теплопередачу. Эти трубки позволяют использовать для охлаждения маленьких чипов большие системы охлаждения, обеспечивающие эффективный теплоотвод.

Чаще всего кулер видеокарты является активным, он состоит из радиатора с вентилятором, продувающим воздух через радиатор. Такие кулеры бывают как однослотовыми (занимающими пространство одного слота расширения), так и двухслотовыми (соответственно, занимающими два слота). Однослотовый кулер не мешает установке карт расширения в соседний слот, а вот кулеры на high-end видеокартах часто имеют слишком большие размеры и не позволяют установить карту в соседний слот, расположенный ниже видеоплаты, поэтому они и называются двухслотовыми. Такие устройства обычно сделаны в виде турбины и выбрасывают горячий воздух наружу через заднюю панель, что улучшает общее охлаждение системы и снижает температуру воздуха в системном блоке.

Big cooler


Но не только толщина кулера видеокарты может являться препятствием к её установке. Некоторые из топовых моделей видеокарт обладают и слишком большой длиной печатной платы. Та же самая GeForce 8800 GTX настолько длинная (длина ее PCB — 270 мм, до этой модели производители делали карты длиной максимум 220 мм), что не входит в некоторые распространенные корпусы с несъемными корзинами для жестких дисков. А в тех, в которые она входит, между картой и деталями корпуса остается несколько миллиметров свободного пространства. Этот факт также необходимо учитывать при покупке видеокарты.

 

Бесшумные системы охлаждения

Еще одним важным вопросом для многих пользователей является вопрос шумности системы охлаждения. Некоторые из кулеров на видеокартах имеют высокооборотистые вентиляторы небольшого размера, которые слишком сильно шумят, особенно при повышении температуры видеочипа. Тут можно лишь посоветовать внимательно читать наши материалы по конкретным моделям видеокарт и выбирать для себя подходящую, так как они могут сильно отличаться друг от друга, если это только не копии референсной платы. Если вы хотите собрать совсем бесшумную систему, то стоит поискать модель видеокарты с пассивным охлаждением, без вентилятора вовсе. Но такие системы редко бывают из наиболее производительных моделей, чаще всего дело ограничивается моделями из среднего ценового диапазона.

Passive cooler


Как видите, пассивное охлаждение тоже может быть настолько большого размера, что создаст неудобства при размещении комплектующих в корпусе. Такое решение может мешать другим компонентам системы и уж точно не будет способствовать понижению температуры в плохо вентилируемом корпусе. Если уж ставить такие модели, то охлаждение всего корпуса нужно продумывать очень тщательно.




Практические рекомендации по выбору видеокарты

В этом разделе мы постараемся помочь определиться с выбором, если вы уже решили, какой ценовой диапазон для вас подходит. Еще лучше, если вы определились с производителем видеочипа: AMD(ATI) или NVIDIA, в зависимости от некоторых тонкостей (быстрый OpenGL или одновременное использование антиалиасинга и HDR рендеринга, например). Но даже если этот выбор вы еще не сделали, данная часть статьи тоже может быть полезной, в ней сравниваются наиболее интересные видеокарты, отдельно по ранее определенным нами ценовым диапазонам. И даже в том случае, если ценовой диапазон окончательно не выбран, цифры этого раздела могут помочь. Но сначала настоятельно рекомендуется ознакомиться со всеми предшествующими разделами, справочными материалами и таблицами чипов, если это еще не сделано.

Из всех видеокарт, участвующих в наших ежемесячных материалах i3D-Speed, для каждого из рассматриваемых ценовых диапазонов были выбраны по четыре достойных представителя. Причем, они по возможности выбирались так, чтобы в сравнении участвовало по две видеокарты от каждого из основных производителей: AMD и NVIDIA. На момент написания текущей версии путеводителя, это сделать удалось во всех ценовых диапазонах, кроме одного — верхнего mid-end, в нём на данный момент всё совсем плохо у NVIDIA (подробности см. ниже). В остальных диапазонах всё так и получилось, были выбраны по две видеокарты одной компании и по две — другой.

Мы старались рассматривать, прежде всего, модели с номинальными тактовыми частотами, объемом памяти и т.п. Другие модели, фабрично разогнанные и/или с нестандартным объемом памяти, в путеводителе будут упоминаться, но только если их выпуск приобрел массовый характер, и такие модели есть в широкой продаже, причем, желательно от нескольких производителей сразу. Данные об основных параметрах видеокарт в каждом ценовом секторе для удобства вынесены в таблицы.

Из всех результатов, определяемых в i3D-Speed, было выбрано по несколько игр, преимущества одних карт над другими в которых хорошо видны. Набор игр для каждого ценового диапазона свой, также, для каждого из диапазонов использовались и разные настройки качества и разрешения, близкие к тем, которые используются игроками в реальности. Если интересуют остальные цифры, то все полноценные сравнения можно найти в 3DGiТогах/i3D-Speed, а по результатам нашего упрощенного сравнения мы лишь будем советовать примеры наиболее выгодных карт в каждой ценовой нише на момент написания конкретной версии путеводителя.

Чтобы быть полезной для читателя, эта часть путеводителя периодически обновляется, так как ситуация на рынке видеокарт меняется порой очень быстро, и выводы, казавшиеся ранее справедливыми, через пару месяцев могут вызывать недоумение. Сейчас обновление делается примерно каждые два-три месяца, более частаяредакция будет производиться только при крайней надобности, ведь материал только дополняет 3DGiТоги/i3D-Speed, по которым можно сделать более точный анализ и выводы.

Low-End (<$100)

За время, прошедшее с предыдущего обновления путеводителя, в этот диапазон спустились несколько видеокарт из среднего диапазона, например, GeForce 8600 GT подешевела до уровня $100, а остальные представители low-end теперь стали стоить ещё дешевле. Такие модели, как RADEON X1650 PRO, а также GeForce 7600 GT и GeForce 7600 GS, спустившиеся по цене ещё ниже, пока можно найти в продаже, но смысла в них почти никакого не осталось, особенно, если игровой системой предусматривается регулярный запуск современных 3D игр.

Как и раньше, приобретение отдельных low-end видеокарт имеет смысл лишь с цены около $70-80, всё остальное переходит в сферу интересов интегрированных чипсетов. Решения с меньшей ценой просто не могут конкурировать с видеоядрами, встроенными в чипсеты. От таких дешевых видеокарт обычно ведь не требуется сколько-нибудь высокая производительность в играх, чаще всего нужно 2D и ускорение видеодекодирования в некоторых случаях, а мощь 3D тут не является слишком важным фактором, так как для современных игр ни те, ни другие не годятся всё равно.

Мы продолжаем ожидать такого времени, когда видеокарты ценой до $100 будут вытеснены более новыми интегрированными чипсетами. Ну а пока что отдельные решения с ценой под $100 имеют определенный смысл для совсем уж бюджетных домашних вариантов, хотя для игр их посоветовать просто рука не поднимается, категорически рекомендуется подкопить денег хотя бы на mid-end. Но всё равно рассмотрим, что у нас сейчас наиболее выгодно в low-end секторе:

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 2400 XT 256 700 1600 - 65
ATI RADEON HD 2600 PRO 256 600 1000 99 80
NVIDIA GeForce 8500 GT 256 450 800 89 70
NVIDIA GeForce 8600 GT 256 560 1560 149 100


Все представленные видеокарты обладают идентичными характеристиками по объему памяти, на всех их установлено по 256 Мбайт, это можно рассматривать как положительный фактор, меньший объём остался лишь в самых дешевых вариантах, которые уходят с рынка. По рабочей частоте памяти отличия есть и двукратные, это обусловлено разной шириной шины, чтобы компенсировать 64-битную, приходится ставить быструю память. Из рассматриваемых моделей самой слабой на первый взгляд должна быть RADEON HD 2400 XT. Несмотря на её относительную новизну, она обладает низкой ценой, частотами и пропускной способностью памяти. Вероятно, она и будет в отстающих. Ну а еле влезшая в диапазон GeForce 8600 GT дороже всех и должна первенствовать по производительности.

Для этой ценовой категории было выбрано тестовое разрешение 1024x768, без использования антиалиасинга и анизотропной фильтрации, так как в более тяжелых режимах этими видеокартами весьма редко обеспечивается комфортная частота кадров в секунду, чаще всего значение FPS составляет менее 30-40 кадров в секунду, чего явно недостаточно. Даже и в 1024x768 уровень производительности слабых карт зачастую слишком низок:



Выбранные тесты наглядно показывают отличия в производительности сравниваемых видеокарт, в большинстве случаев результаты выстроились в соответствии с ценами. Как и предполагалось нами выше, RADEON HD 2400 XT является самой слабой, а GeForce 8600 GT — самой быстрой в выбранных для сравнения играх. Причём карты расположились по строгой лестнице, за исключением игры Company of Heroes, в которой решения AMD традиционно смотрятся лучше. В примерно равном ценовом соперничестве GeForce 8500 GT и RADEON HD 2400 XT, видеокарта от NVIDIA всегда оказывается чуть быстрее, даже в Company of Heroes.

Зато GeForce 8500 GT проигрывает по скорости несколько более дорогой RADEON HD 2600 PRO, которая в играх смотрится несколько лучше, обладая лишь чуть более высокой ценой, по сравнению с двумя самыми дешевыми картами. Но всё же, наибольшего внимания покупателей должна удостоиться GeForce 8600 GT, которая оправдывает свою наибольшую цену, равную верхнему пределу, выбранному нами для этого диапазона. В ряде игр она более чем вдвое (!) опережает остальные видеокарты, что выгодно выделяет её среди всех выбранных конкурирующих решений и является наиболее предпочтительным выбором для экономных покупателей, планирующих потратить не более $100.

Итак, если видеокарта выбирается для недорогого игрового ПК, лучшим выбором будет GeForce 8600 GT, обеспечивающая наибольшую скорость, хотя и являющаяся самой дорогой. Немного дешевле не такая производительная RADEON HD 2600 PRO, выбирать нужно из указанных двух вариантов, или же добавить денег на приобретение решения более высокого уровня, так как даже в этих старых играх и обычном рабочем разрешении 1024x768, средний FPS оказывается ниже минимально комфортных 30 FPS. И в более новых играх ситуация ещё хуже, в этом можно убедиться, посмотрев остальные результаты в i3D-Speed.

Lower Mid-End ($100-200)

Так называемый «нижний» mid-end диапазон является одним из наиболее массовых секторов рынка, в него стараются поместить наиболее выгодные видеокарты с точки зрения сочетания производительности и цены. За последнее время диапазон окончательно покинули такие устаревшие решения, как ATI RADEON X1950 PRO, так как они уже давно перестали производиться. А некоторые видеокарты находятся на границе с low-end, мы уже рассматривали такой вариант GeForce 8600 GT. Также мы рассмотрим GDDR4 вариант RADEON HD 2600 XT, который включен в наш материал вместе с привычным младшим GDDR3 вариантом.

Итого, ценовой диапазон также представлен двумя решениями от AMD и двумя — от NVIDIA, причём не только видеокарты AMD основаны на одном и том же GPU, но и два решения NVIDIA, которые отличаются друг от друга частотами и ценой. Для решений этого уровня объём видеопамяти 512 Мбайт и более не нужен, так как себестоимость более ёмких микросхем делает сочетание цены и производительности хуже, не обеспечивая заметного прироста производительности, поэтому мы такие варианты даже не рассматриваем.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 2600 XT GDDR3 256 800 1400 129 100
ATI RADEON HD 2600 XT GDDR4 256 800 2200 149 140
NVIDIA GeForce 8600 GT 256 560 1560 149 100
NVIDIA GeForce 8600 GTS 256 720 2200 199 150


Итак, все включенные в этот диапазон видеокарты обладают одинаковыми характеристиками по объему памяти, на них установлено по 256 Мбайт. По тактовым частотам памяти примерное попарное равенство, у более дорогих моделей: GeForce 8600 GTS и RADEON HD 2600 XT с GDDR4 памятью установлены более быстрые микросхемы, в отличие от их младших вариантов: GeForce 8600 GT и RADEON HD 2600 XT с GDDR3. Соответственно ценам и должны располагаться видеокарты, GeForce 8600 GT и HD 2600 XT GDDR3 должны быть медленнее старших собратьев.

Для сравнения видеокарт в этом ценовом диапазоне использовалось тестовое разрешение 1280x1024, как наиболее распространенное среди владельцев массовых LCD мониторов. Приведены цифры в режиме без использования антиалиасинга и анизотропной фильтрации, хотя некоторые из карт и могут обеспечить плавную частоту кадров и в таких режимах (но не во всех играх, конечно же!), оценить сравнительную производительность можно и по этому режиму. Тем более что в этом сравнении участвуют уже куда более требовательные новые игры, такие, как Crysis.



Получилось примерно так, как мы и предполагали, хотя и не на 100%. GeForce 8600 GTS во всех представленных случаях быстрее RADEON HD 2600 GDDR4, и даже чуть более низкая цена последнего решения не позволяет ему успешно конкурировать, ведь разница в скорости значительно больше. Итак, если стоит чёткая цель — потратить менее $200, лучше будет выбрать решение NVIDIA, оно хоть и чуть дороже, но всё же заметно быстрее, даже в Company of Heroes.

В случае с парой HD 2600 XT GDDR3 и GeForce 8600 GT ситуация сложнее, они обладают равной ценой и показывают неоднозначные результаты в выбранных тестах, то одна видеокарта оказывается впереди, то другая. Но всё же, по представленным здесь результатам, слегка выигрывает HD 2600 XT GDDR3, хотя GeForce 8600 GT немного отстает в двух случаях из трёх рассмотренных, и заметно опережает карту AMD в игре S.T.A.L.K.E.R. Подводим итог, если планируется потратить около $100, то на данный момент нужно выбирать из этих двух решений, и небольшое предпочтение в данном случае мы отдаём карте AMD. Хотя, для игр всё же будет лучше добавить до $150 и приобрести более мощное решение из этого же ценового диапазона.

Upper Mid-End ($200-300)

Как мы уже отмечали в предыдущих разделах путеводителя, приобретение видеокарты из «верхнего» mid-end ценового диапазона является наиболее выгодным решением с точки зрения сбалансированного игрового компьютера, не направленного на получение максимальной производительности. Эти решения позволяют качественно играть во все современные игры, обеспечивая, впрочем, достаточно небольшой запас прочности на будущее.

Большим запасом производительности и вполне оправданной ценой обладают решения следующего ценового уровня, а в «верхнем» mid-end обычно разгораются жаркие битвы между представителями AMD и NVIDIA, диапазон является одним из наиболее лакомых кусочков для производителей, это достаточно массовые видеокарты, да и более дорогие, по сравнению с «нижним» mid-end.

В прошлый раз мы посетовали, что в этом диапазоне ситуация такова, что в нём нет ни одного решения, и что эта дыра в линейках обоих производителей ясно говорит о подготовке к анонсу новых моделей. И действительно, совсем недавно и AMD и NVIDIA выпустили решения как раз для этого ценового диапазона. Вроде бы для этого. Потому что новые видеокарты оказались на уровне нынешних решений верхнего уровня или даже выше. Плюс к этому, производители не смогли выпустить на рынок столько готовой продукции, сколько он был способен поглотить. Поэтому выпущенные модели на основе чипов AMD RV670 и NVIDIA G92 в реальности стали стоить значительно больше, по сравнению с рекомендованными производителем ценами. И покупателям, желающим приобрести видеоускорители по цене до $300, остаётся или брать то, что есть, или ждать насыщения рынка и снижения цен.

А пока что, к верхнему mid-end нашего локального рынка, цены на котором ощутимо выше мировых, мы отнесем устаревший уже RADEON HD 2900 PRO и новый RADEON HD 3850, единственный из современных решений все-таки продающийся в Москве дешевле $300.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 2900 PRO 512 600 1600 - 230
ATI RADEON HD 3850 256 670 1660 179 230


В этом сравнении также будет использоваться наиболее массовое разрешение экрана 1280x1024, но уже с включенными антиалиасингом и анизотропной фильтрацией. Обычно видеокарт из этого диапазона способны обеспечить комфортную игру в таких режимах в современных играх, чем мы и воспользовались.



Ну что же, в данном ценовом диапазоне всё намного проще, чем в предыдущих. В соперничестве двух видеокарт номинально разных поколений от одной компании, ожидаемо побеждает более новая. Преимущество последней невелико, но оно есть. К тому же она становится всё дешевле и дешевле, а HD 2900 PRO постепенно исчезает из продажи. То есть, никакого смысла в приобретении уходящей RADEON HD 2900 PRO не остаётся, так как RADEON HD 3850 быстрее этой видеокарты и обладает меньшим энергопотреблением и тепловыделением.

Но вообще-то, лучше подождать снижения цен на видеокарты на основе чипов G92 и RV670, они все должны входить в этот ценовой диапазон, а не только одна RADEON HD 3850. Надеемся, цены на эти модели снизятся в ближайшем будущем. Также важно отметить тот факт, что именно в этот диапазон (поначалу, в дальнейшем даже ниже) должны войти новые видеокарты NVIDIA, известные под маркой GeForce 9600 GT. Они показали себя весьма конкурентоспособными в тестах производительности, и всё будет зависеть от их цены.

Lower High-End ($300-500)

Приступаем к первой из двух высших ценовых категорий, к её «нижней» части, с ценами от $300 до $500. Этот сектор уже нельзя назвать массовым, хотя энтузиасты компьютерных игр чаще всего останавливаются именно на решениях из этого диапазона. Более дорогие видеокарты редко дают большие возможности и производительность, а продукты из нижних диапазонов просто не могут обеспечить приемлемый уровень играбельности в современных играх на максимальных настройках и в высоких разрешениях.

По сравнению с предыдущей версией путеводителя, из нашего набора плат нижнего high-end ушла видеокарта GeForce 8800 GTS 640MB, которая устарела и не производится. А вместо неё появилась новая модель GeForce 8800 GTS, уже с 512 мегабайтами локальной памяти на борту и основанная на базе видеочипа G92.

Как и в прошлый раз, самым интересным в данном диапазоне является сравнение двух видеокарт: RADEON HD 3870 и NVIDIA GeForce 8800 GT, хотя и сравнение с топовой видеокартой AMD предыдущего поколения и новой моделью GeForce 8800 GTS 512MB будет любопытно.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 2900 XT 512 750 1660 - 440
ATI RADEON HD 3870 512 775 2250 219 310
NVIDIA GeForce 8800 GTS 512MB 512 650 2000 349-399 450
NVIDIA GeForce 8800 GT 512 600 1800 249 340


Самыми дорогими видеокартами диапазона в этот раз стали предыдущая топовая RADEON HD 2900 XT и новый вариант GeForce 8800 GTS, а HD 3870 и GeForce 8800 GT дешевле их более чем на $100. Как видите, в «нижнем» high-end секторе на видеокарты принято ставить уже по 512 Мбайт быстрой видеопамяти, или больше, в зависимости от ширины шины, количества и ёмкости микросхем. Так, на старые модели GeForce 8800 GTS можно физически поставить или 320 Мбайт или 640 Мбайт.

Видеокарты из этого диапазона позволяют использовать для их сравнения разрешение 1600x1200, естественно, с включенными антиалиасингом и анизотропной фильтрацией. Выбранные видеокарты могут обеспечить комфортную игру и в более тяжелых режимах (кроме некоторых наиболее современных проектов), но мы оставили таковые лишь для самых дорогих видеокарт. В данном случае, будем использовать очень «тяжелые» тесты в Crysis, хоть и в DirectX 9 режиме.



Итак, рассмотрим положение в нижнем high-end подробнее. Так, на примере видеокарт AMD среднего уровня и современных и топовых предыдущих видно, что разница между ними в играх практически отсутствует и не превосходит нескольких процентов. Учитывая потенциальную поддержку DirectX 10.1 у RADEON HD 3870 и значительно меньшую цену, по сравнению с RADEON HD 2900 XT, в покупке последней остаётся мало смысла. RADEON HD 3870 слегка превосходит её в выбранных тестах, а стоит дешевле.

Ну а явным лидером ценового диапазона по соотношению цены и производительности можно заслуженно считать GeForce 8800 GT. Она быстрее карт AMD в этом диапазоне, опережает их на 25-45%, в зависимости от игры и теста. Пусть GeForce 8800 GT несколько дороже основного конкурента — RADEON HD 3870, но она и заметно быстрее его. А GeForce 8800 GTS 512MB, являющаяся наиболее быстрой картой диапазона, опережает модель GT лишь на 10-15%, она менее выгодна с точки зрения экономного игрока.

Итак, определимся с лидером и отстающим нашего сравнения. Наиболее выгодной видеокартой нижнего high-end, безусловно, является GeForce 8800 GT, а наименее привлекательной видеокартой — устаревшая RADEON HD 2900 XT. Также весьма выгодна и HD 3870, а единственными недостатками этих новых моделей от обеих компаний является их завышенная цена. Со временем цены на обе видеокарты должны спуститься в нижний ценовой диапазон. Что касается новой GeForce 8800 GTS 512MB, появившейся в этой версии путеводителя в первый раз, она также любопытна для потенциального покупателя, являясь одной из наиболее быстрых одночиповых видеокарт в целом.

В общем, в этом секторе можно констатировать явную победу NVIDIA. При выборе между дорогими решениями: RADEON HD 2900 XT и GeForce 8800 GTS 512MB, стоит обратить внимание на второй вариант, так как он значительно опережает решение AMD во всех случаях (что можно увидеть в развернутых результатах игровых тестов, которые можно найти в i3D-Speed на нашем сайте). Ну и среди менее дорогих GeForce 8800 GT показывает себя в целом лучше, чем RADEON HD 3870, даже несмотря на небольшую разницу в цене в пользу видеокарты AMD.

Upper High-End (>$500)

Пришло время элитного диапазона — «верхнего» high-end, предназначенного для наиболее обеспеченных и требовательных игроков и энтузиастов. Как мы уже говорили не раз, устаревшая одночиповая видеокарта производства AMD представлена тут чисто номинально, ведь вариант RADEON HD 2900 XT с гигабайтом GDDR4 памяти по производительности почти не отличается от обычной модели, да и фактически уже не производится.

Но если раньше у AMD в верхнем high-end диапазоне ничего не было, то за прошедшее время с момента прошлого обновления путеводителя была анонсирована и появилась в продаже двухчиповая видеокарта RADEON HD 3870 X2. Это просто плата на основе двух GPU RV670, которые соединены между собой аппаратным CrossFire и видятся системой как одно устройство. Также в этом ценовом секторе остались самые мощные видеокарты из серии GeForce 8800, а SLI система на базе двух NVIDIA GeForce 8800 Ultra убрана из рассмотрения, так как она была приведена ранее лишь для того, чтобы показать, какие отличия в производительности между двухчиповой и обычной системами получаются в играх. Теперь эта задача возложена на HD 3870 X2.

Модель видеокарты Объём памяти, МБ Частота чипа, МГц Частота памяти, МГц Цена MSRP, $ Цена в Москве, $
ATI RADEON HD 2900 XT 1024 750 2000 - 510
ATI RADEON HD 3870 X2 2x512 825 1800 399 600
NVIDIA GeForce 8800 GTX 768 575 1800 549 570
NVIDIA GeForce 8800 Ultra 768 612 2160 - 720


Уже по ценам сразу видно, что эти модели — для покупателей, которым нужен максимум здесь и сейчас, и не так важно, сколько придется за них заплатить. И если GeForce 8800 GTX ещё можно считать видеокартой, покупка которой оправдана в случае наличия необходимых средств, то приобретение SLI или CrossFire решений на основе двух мощных видеокарт может понадобиться лишь тогда, когда требуемая сумма совсем не напрягает и с ней хочется расстаться, приобретя одну из самых мощных видеосистем. В этом смысле интересна плата RADEON HD 3870 X2, которая практически за цену GeForce 8800 GTX предлагает удвоенную (в лучшем случае) мощь неплохого чипа RV670.

В данном сравнении собраны уже только наиболее мощные решения, которые просто обязаны сравниваться в самом высоком разрешении, используемом в наших тестах i3D-Speed. Естественно, тесты проводятся вместе с включенными сглаживанием и анизотропной фильтрацией, тем более что в список тестируемых видеосистем включена свежая двухчиповая CrossFire от AMD.



Итак, по данным результатам хорошо видно, что быстрейшее одночиповое решение на базе GPU производства компании AMD серьёзно уступает обеим топовым видеокартам NVIDIA. Конечно, оно и стоит дешевле даже чем GeForce 8800 GTX, но разница в производительности слишком велика, чтобы советовать покупку гигабайтного варианта RADEON HD 2900 XT вообще. Тем более что его уже трудно найти в продаже. Лучше обратить внимание на двухчиповую модель, которая, в общем-то, показывает вполне достойные результаты в тех тестах, которые оптимизированы для CrossFire/SLI систем. Наконец-то у AMD появилось достойное решение для верхнего high-end ценового сектора!

К сожалению, HD 3870 X2 никуда не уходит от основных проблем всех CrossFire и SLI систем. Мало того, что при возрастании FPS важные для человека задержки не изменяются, так и эффективность двухчиповой системы сильно зависит от оптимизации игрового проекта и драйверов. Посмотрите на тесты в Crysis, двухчиповая HD 3870 X2 показывает там плачевные результаты, проигрывая схожей по цене GeForce 8800 GTX до двух раз в одном тесте. Это как раз тот случай, когда CrossFire не работает нормально. Судя по другим тестам, не вошедшим в диаграмму, прибавка в скорости, по сравнению с одиночной картой, может достигать 70-80%, но некоторые игры отлично показывают слабости двухчиповых систем, так как не все они оптимизированы для SLI, и во многих из них никакого прироста производительности от второго чипа просто нет.

Что касается сравнения GTX и Ultra вариантов GeForce 8800, из них нужно выбирать исключительно исходя из наличия денежных средств и оправданности подобных трат отдельно для каждого покупателя. Вариант Ultra быстрее не слишком сильно, разница с GTX составляет около 10-25%, хотя стоит эта Ультра значительно дороже. То же относится и к SLI системам — если у вас есть деньги, их не жалко и имеется осознанное желание потратить их на максимально мощную видеосистему — смело покупайте, так как на данный момент нет ничего лучше SLI системы из двух GeForce 8800 Ultra.

Отдельно хочу отметить то, что Crysis в Direct3D 10 режиме стал очень тяжелым тестом даже для таких мощных видеокарт... Посмотрите, сколько кадров в секунду получается у самых дорогих видеокарт при максимальных настройках графики в этой игре. Средняя частота кадров не достигает 30 FPS даже в разрешении 1280x1024! А если вы вспомните сроки анонса видеокарт GeForce 8800 GTX и видеочипа G80, на котором она основана, добавите к этому то, что Ultra вариант на том же GPU является по совместительству и самым быстрым до сих пор, то поймёте, что прогресса в high-end видеокартах за полтора года почти совсем не было! Как выпустили G80 осенью 2006 года, так он и остался лучшим до сих пор. И в том же Crysis даже GeForce 8800 Ultra не может дать приемлемой производительности для фанатов максимальных графических настроек. Придётся ждать новых поколений видеочипов, ко времени выпуска которых G80 может «стукнуть» уже и два года...




Если вы хотите лучше разобраться во всех аспектах современной игровой 3D графики, вам стоит ознакомиться и с другими материалами сайта:

Теоретические статьи на iXBT.com
Теоретические статьи из архива
Современная терминология 3D графики
Практические исследования




Алексей Берилло aka SomeBody Else (sbe@ixbt.com)

Опубликовано — 29 февраля 2008 г.
http://www.ixbt.com/video3/guide.shtml
.:: Статистика ::.
Пользователи
HTTP: 6
IRC: 6
Jabber: 0
( состояние на 05:50 )
ADSL-газета: Ежедневно свежие анекдоты, гороскоп, погода, новости, ТВ-программа, курс валют

Интересности из Интернета: Интересные статьи на разнообразные темы, найденные на просторах интернета

Компьютерная консультация

Единый личный кабинет