Показать сообщение отдельно
Старый 08.02.2008, 07:53     # 1305
grogi
Moderator
 
Аватар для grogi
 
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485

grogi - Гад и сволочь
Первые в DirectX 10.1: ATI Radeon HD 3850 и 3870
"Вряд ли для кого-нибудь сегодня является секретом тот факт, что первое поколение массовых графических процессоров, обладающих поддержкой DirectX 10, а также видеоадаптеров на их основе получилось крайне неудачным – в первую очередь, с точки зрения производительности. Несмотря на инновационную архитектуру, ATI Radeon HD 2600 и Nvidia GeForce 8600 показали себя в играх далеко не лучшим образом, нередко уступая решениям предыдущего поколения, пусть не столь совершенным, но не имеющим очевидных узких мест в виде малого количества исполнительных устройств, а также недостаточной оптимизации драйверов. Не менее важным сдерживающим фактором было использование обеими грандами графического рынка 128-битной шины памяти, явно неспособной насытить данными GPU в условиях современных игр, особенно при использовании FSAA и высоких разрешений.

Частично чрезмерное упрощение графических ядер среднего класса можно списать на попытки уложиться в приемлемые пределы себестоимости при доступном на тот момент техпроцессе. В этом есть резон: особенности унифицированной архитектуры предъявляют свои требования, и даже будучи урезанными, Nvidia G84 и ATI RV630 продолжали оставаться достаточно сложными – 289 и 390 миллионов транзисторов соответственно; то есть, фактически, современные решения среднего уровня по этому параметру оказались на уровне флагманских графических процессоров поколения DirectX 9 с обычной, неунифицированной архитектурой (вспомним: Nvidia G71, сердце семейства GeForce 7900, состоял из 278 миллионов транзисторов, а ATI R580, легший в основу линейки Radeon X1900/1950 – из 384 миллионов транзисторов).

Как бы то ни было, но стремление удержать размеры чипа в приемлемых пределах отразилось в числе прочего и на шине памяти: если у старшего GPU Nvidia, GeForce 8800, она равна 384 бит, у старшего GPU ATI, Radeon X2900 – 256 бит, то в массовых продуктах обеих компаний для среднего ценового сегмента сократилась до 128 бит.

Конечно, можно вспомнить, что в свое время и такие продукты, как GeForce FX и Radeon 9600, также едва ли предлагали достойную производительность в DirectX 9, однако результаты GeForce 8600 и Radeon 2600 в сравнении с графическими ускорителями предыдущего поколения, такими как ATI Radeon X1950Pro столь плачевны, что приходится признать – в погоне за снижением себестоимости DirectX10-чипов и Nvidia, и AMD/ATI явно перестарались.

Первой из положения вышла Nvidia, анонсировав 29 октября 2007 года новое графическое ядро G92, легшее в основу семейства GeForce 8800 GT. Новинка, созданная с использованием 65-нм техпроцесса, оказалась чрезвычайно удачной. Несмотря на огромную сложность ядра (754 миллиона транзисторов), его себестоимость, площадь, уровень энергопотребления и тепловыделения удалось удержать в разумных пределах. По количеству функциональных блоков G92 лишь незначительно уступил G80, что в сочетании с заметно повышенными тактовыми частотами и 256-битной шиной памяти дало потрясающие результаты. Как показало наше исследование, в большинстве случаев новинка с рекомендованной ценой всего 259 долларов (реальная розничная стоимость карт на 8800 GT на момент подготовки статьи составляла около 10 тысяч рублей) незначительно уступила флагману линейки GeForce 8 – GeForce 8800 GTX с рекомендованной ценой 599 долларов (реальная розничная стоимость – более 15 тысяч рублей)! О флагмане "красных", ATI Radeon HD 2900 XT нечего и говорить. При значительно худшей производительности, но значительно более высоком уровне энергопотребления он мгновенно был повергнут в прах. А что же AMD?"
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома"
Дружно переходим по ссылке
Строим город для имхо!!!
grogi вне форума