GeForce 6600 LE: пытаемся включить пиксельные конвейеры
Lexagon / 15.07.2005
Что из себя будут представлять видеокарты семейства GeForce 6600 LE, мы уже примерно определили. Они должны будут заменить собой GeForce 6200 PCI-E, предложив более высокие тактовые частоты (не всегда, прошу заметить) по более низкой цене (данный факт тоже требует проверки). Кроме того, видеокарты GeForce 6600 LE получат официальную поддержку SLI, хотя с рациональной точки зрения эффект от использования двух таких видеокарт в соответствующем режиме не оправдывает затрат. Разве что разгон может исправить ситуацию, но и здесь величина прироста производительности будет зависеть от модификации платы и конфигурации системы.
Что характерно, поддержку SLI можно будет реализовать как через соединительный мост (если плата располагает интерфейсом MIO и основана на дизайне GeForce 6600 GT), так и посредством драйверов ForceWare версии от 77.72 и выше - в последнем случае обмен данными будет осуществляться через интерфейс PCI Express. Кстати, по некоторым данным, драйверы ForceWare 77.72 и даже 80.40 пока не умеют поддерживать режим SLI для видеокарт GeForce 6600 LE, так что для реализации подобных планов придётся ждать более свежих версий драйверов.
Существует и информация о возможности прошивки BIOS от GeForce 6600 LE в GeForce 6200 с целью включения поддержки SLI. На этот счёт можем сказать следующее: прошивать BIOS не обязательно, тем более, что модификаций GeForce 6600 LE будет гораздо больше, чем версий GeForce 6200, и заимствование всего кода BIOS может обернуться выходом видеокарты из строя. Для внушения драйверам мысли о возможности работы с режимом SLI на видеокартах GeForce 6200 (NV43-V) достаточно поменять значение Device ID с 014F (GeForce 6200 PCI-E) на 0142 (GeForce 6600 LE).
Между прочим, тайваньские коллеги с сайта DigiTimes недавно поведали дополнительные детали о GeForce 6600 LE. Сообщается, что видеокарты этой серии будут анонсированы в начале августа, отпускная цена составит $60-70. Учитывая транспортные расходы и розничную наценку, желающим приобрести это чудо придётся выделить из личного бюджета сумму порядка $90-100. Впрочем, цены должны достаточно быстро упасть, ибо скоро нас ждёт встреча с новыми решениями класса middle-end на чипах G71 и G72.
Интересно другое - многие производители уверены, что стоимость комплекта для построения системы с поддержкой SLI, состоящего из двух видеокарт GeForce 6600 LE и материнской платы, снизится до $200. В принципе, этому должно способствовать и снижение цен на чипсеты семейства nForce 4 SLI, так что ничего удивительного в таких прогнозах нет.
Вернёмся к характеристикам видеокарт GeForce 6600 LE. До сих пор в Сети существовала противоречивая информация по поводу используемого для производства этих видеокарт чипа. Кто-то считал, что используется специально спроектированный чип с четырьмя пиксельными конвейерами из четырёх возможных. Другие источники настаивали на использовании старого доброго NV43-V, сдобренного поддержкой SLI и более высокими частотами. Вопрос о возможности включения дополнительных пиксельных конвейеров вообще оставался открытым.
Сегодня мы решили представить вашему вниманию результат нашего расследования, на которое был потрачен не один день, и в которое были вовлечены многие люди. Мы попытаемся определить, возможно ли включить дополнительные пиксельные конвейеры на видеокартах серии GeForce 6600 LE. Чтобы наши дорогие читатели чувствовали себя достаточно подготовленными к погружению в практические аспекты подобных трансформаций, предлагаем сначала ознакомиться с описанием методики включения восьми пиксельных конвейеров на видеокартах GeForce 6200 с интерфейсом PCI Express x16, основанных на чипе NV43-V. Именно такое сочетание "ингредиентов" в прошлом в какой-то мере гарантировало включение всех восьми пиксельных конвейеров. Получится ли повторить эксперимент на этот раз?
Для начала изучим скриншот утилиты RivaTuner, полученный на системе с установленной видеокартой GeForce 6600 LE:
http://www.overclockers.ru/images/ne.../6600le_01.jpg
Прошу обратить особое внимание на два параметра: 128-битную шину памяти и номер ревизии чипа NV43 (A4). Собственно говоря, упоминание о чипе NV43 уже в какой-то мере лишает нас сомнений - перед нами производная форма старого доброго NV43-V. Как мы убедимся позднее, это как раз четвёртая ревизия чипа.
Если бы видеокарта была основана на чипе NV44 или его производной форме, она обладала бы только 64-битной шиной памяти. Кроме того, такой чип был бы лишён поддержки HDR, ограничен в функциональности технологии PureVideo, а также не мог бы поддерживать компрессию Color&Z - всем этим грешил чип NV44, в декабре прошлого года давший жизнь видеокартам серии GeForce 6200TC. Хотя формально декларировалась поддержка 128-битной шины памяти, на практике платы с единственным чипом памяти вообще использовали 32-битную шину. Поэтому даже AGP-версия по имени NV44A, обладавшая "стабильной" 64-битной шиной, в таком окружении смотрелась выигрышно.
Другими словами, родственные NV44 чипы похвастать поддержкой полноценной 128-битной шины не могли. На скриншоте мы видим не только упоминание о чипе NV43, но и свидетельства поддержки 128-битной шины. Собственно говоря, и фотографии видеокарт GeForce 6600 LE позволяют говорить о поддержке как минимум 128-битной шины - чипы памяти на платах расположены Г-образно. Лишь ограничения бюджета не позволяют говорить о том, что такая плата способна поддерживать 256-битную шину.
Следующим объектом особого внимания становится ревизия A4 видеочипа NV43-V. Как вы можете помнить из зловещего предупреждения в конце уже упоминавшейся нами статьи, именно эта ревизия чипа абсолютно нечувствительна к программным методам включения четырёх дополнительных пиксельных конвейеров. Ревизия A2 ещё позволяла радоваться такой "халяве", но потом nVidia "прикрыла лавочку", внедрив более эффективную блокировку конвейеров.
http://www.overclockers.ru/images/ne.../6600le_02.jpg
Соответствующая закладка утилиты RivaTuner выявила существование у видеокарты GeForce 6600 LE четырёх скрытых пиксельных конвейеров. Другими словами, для производства видеокарт серии GeForce 6600 LE действительно используются чипы NV43-V, получаемые из NV43 (GeForce 6600) путём отключения половины пиксельных конвейеров. Почему nVidia решила идти по такому затратному пути, намеренно урезая функциональность части работоспособных чипов NV43? Не дешевле ли было выпустить специальный чип с четырьмя конвейерами и меньшей площадью ядра?
Возможно, в иных условиях нужно было поступить иначе, но сейчас суровая правда жизни диктует иную тактику поведения. Конкурентом GeForce 6600 LE является Radeon X550 - это очевидно. Он основан на прежнем 0.11 мкм ядре RV370, которое ради эффекта новизны получило суффикс "XT" и более высокие тактовые частоты. При этом цена видеокарт не изменилась, а уровень производительности подрос. Легко представить, что потребители будут их охотнее покупать. Собственно говоря, такой подход можно назвать "ребрэндингом": хорошо забытое старое получает новое название и новый имидж, что способствует повышению спроса на такой продукт.
Ситуация с GeForce 6600 LE ничем не отличается: в преддверии выхода новых видеочипов семейства G7x нужно избавляться от запасов NV43. Избавляться не "как попало", а с выгодой. Разрабатывать новый чип для конкуренции с Radeon X550 очень дорого, а если украсить чуть более быстрый вариант GeForce 6200 PCI-E именем "GeForce 6600 LE" и приправить его поддержкой SLI, то получится очень даже успешный план по ликвидации запасов NV43. Впрочем, это лишь наши предположения - nVidia могла руководствоваться несколько иными соображениями.
Наконец, пробуем активировать четыре пиксельных конвейера при помощи утилиты RivaTuner. Ставим галочку, нажимаем "OK" и перезагружаемся...
http://www.overclockers.ru/images/ne.../6600le_03.jpg
Повторное посещение соответствующей закладки приводит к разочаровывающему результату - конвейеры включить так и не удалось. Впрочем, рассчитывать на иной результат с чипом NV43-V ревизии A4 нам помогал лишь неисправимый оверклокерский оптимизм

. Увы, его оказалось недостаточно.
Судя по появлению на страницах других сайтов информации о видеокартах серии GeForce 6600 LE, анонс будет носить "размазанный" характер, и привычной помпезности мы не увидим. В конце концов, GeForce 6600 LE не является решением того уровня, чтобы нагнетать интригу до момента анонса. Теперь мы знаем, что скрытые пиксельные конвейеры на этих видеокартах известными способами включить нельзя.
Видеокарта GV-3D1-68GT анонсирована официально
Lexagon / 15.07.2005
О планах Gigabyte по выпуску видеокарты GV-3D1-68GT, основанной на базе двух чипов GeForce 6800 GT, мы узнали ещё в конце мая. На тот момент подобное решение казалось заманчивым: 20 000 "попугаев" 3DMark03 и почти 10 000 "попугаев" 3DMark05 для одиночной видеокарты в то время казались рекордными. Особенно импонировало то, что Gigabyte учитывал ошибки других производителей, отважившихся представить видеокарты на базе двух чипов GeForce 6800 GT или GeForce 6800 Ultra. Например, габариты платы были уменьшены за счёт поворота второго видеочипа и соседних микросхем памяти на 45 градусов. Разъём питания остался всего один, а дополнительная планка с портами D-Sub позволила выводить изображение на четыре монитора одновременно.
По мере приближения анонса GeForce 7800 GTX, заведомо более производительной видеокарты, чем пара GeForce 6800 Ultra, энтузиазм производителей в отношении "тандемов" постепенно таял. Asus вообще отказалась от планов по выпуску своих видеокарт на базе двух чипов GeForce 6800 GT и GeForce 6800 Ultra. Компания MSI прототип подобного тандема представила на Computex 2005, но выпускать серийно не собиралась. И только Gigabyte продолжала настойчиво идти к поставленной цели.
Несколько дней назад сообщения об официальном анонсе этого графического решения промелькнули на отдельных сайтах. В действительности видеокарта GV-3D1-68GT была анонсирована 11 июля, но по каким-то причинам её описание появилось на официальном сайте только вчера.
http://www.overclockers.ru/images/ne...15/giga_01.jpg
Углубляться в описание характеристик этой видеокарты ещё раз мы не будем. Остановимся лишь на особенностях эксплуатации. Первым делом взгляд притягивает одна фраза из пресс-релиза: "совместимость с более широким набором системных плат, чем у первого ускорителя серии 3D1". Если вы помните, видеокарта GV-3D1 для работы требовала специальной материнской платы Gigabyte на базе чипсета nForce 4 SLI. Неофициальные эксперименты говорили о том, что с некоторыми огрехами её можно заставить работать и в материнской плате Asus. Наконец, после анонса чипсета nForce 4 SLI Intel Edition компания Gigabyte выпустила специальную планку-коммутатор, позволяющую эксплуатировать GV-3D1 в паре с материнскими платами собственного производства, основанными на новом чипсете. Версии чипсета nForce 4 SLI для платформ AMD64 и Intel используют разные схемы коммутации линий PCI Express в режиме SLI, из-за чего и потребовалось выпускать новые планки-переключатели.
Стало быть, проблемы с совместимостью GV-3D1-68GT и материнскими платами больше не будут огорчать пользователей? На коробке с видеокартой нам удалось найти очень мелкую сноску, которая гласит о том, что GV-3D1-68GT совместима с любой материнской платой, оснащённой хотя бы одним слотом PCI Express x16. При этом производитель рекомендует использовать несколько собственных моделей материнских плат, основанных на той или иной модификации чипсета nForce 4 SLI. Мы постараемся уточнить, сможет ли эта графическая плата работать в материнских платах сторонних производителей, а также в материнских платах на базе других чипсетов.
http://www.overclockers.ru/images/ne...15/giga_02.jpg
Кстати, на самой плате расположен блок микропереключателей, позволяющий выбрать режим работы "Single GPU" или "Dual GPU". Судя по всему, в случае использования видеокарты с несовместимой материнской платой или слабым блоком питания, можно отключить один из графических чипов, и продолжить работать с одиночной GeForce 6800 GT. Заметим, что перед началом эксплуатации видеокарты в "двухъядерном" режиме нужно активировать режим SLI в драйверах.
Если же не подключить шестиштырьковый разъём к блоку питания (переходник с двух Molex прилагается в комплекте), то видеокарта попросту не стартует. Gigabyte сообщает, что специально разработала подсистему питания GV-3D1-68GT, учитывая специфику этого продукта.
Рабочие частоты видеокарты равны 425/1100 МГц, дальнейший разгон при помощи фирменной утилиты V-Tuner тоже возможен. Поставки видеокарты начнутся в ближайшее время, розничная цена может достигать $700.
GV-3D1-68GT может работать даже с чипсетом nForce 4-4x
Lexagon / 16.07.2005
Анонсированная на прошедшей неделе видеокарта GV-3D1-68GT претендовала на лучшую совместимость с материнскими платами, чем предшественники, но при этом список одобренных Gigabyte материнских плат сводился к нескольким моделям собственного производства на базе чипсета nForce 4 SLI. Между тем, соблазн установки этой видеокарты в материнскую плату с единственным слотом PCI Express x16 был велик. По крайней мере, это решило бы проблемы тех, кто хотел бы получить "удвоенную" производительность в системе с одним графическим слотом.
Наши коллеги с известного своими смелыми экспериментами гонконгского сайта HKE PC словно уловили это настроение, и решили попробовать установить GV-3D1-68GT в материнскую плату Gigabyte GA-K8NE, основанную на чипсете nForce 4-4x и оснащённую единственным слотом PCI Express x16. Их выбор легко объяснить. Во-первых, чипсет nForce 4-4x является самым дешёвым в этом семействе. Во-вторых, он может быть модифицирован на аппаратном уровне таким образом, что сможет поддерживать SLI и Serial ATA-II. Прежде чем переходить к изучению результатов эксперимента, предлагаю взглянуть на видеокарту GV-3D1-68GT с оборотной стороны:
http://www.overclockers.ru/images/ne...16/giga_01.jpg
Как видите, даже здесь предусмотрено активное охлаждение с обширным радиатором. Кстати, радиатор с лицевой стороны платы, напоминающий вафельный торт с шоколадной глазурью, имеет высоту порядка 3 см, так что места под слотом расширения занимает прилично. Тем не менее, видеокарта без проблем вписывается в стандартный корпус формата ATX, чего нельзя сказать о напоминающей авианосец почившей в бозе видеокарте Asus (на фото сверху):
http://www.overclockers.ru/images/ne...16/giga_02.jpg
Необходимо заметить, что в инструкции по эксплуатации GV-3D1-68GT в разделе аппаратных требований упоминается необходимость использования материнской платы с одним разъёмом PCI Express x16 (очевидно, как минимум одним

) и блока питания мощностью не менее 500 Вт. Второе требование вполне уместно, а вот первое можно истолковать двояко: некоторые пользователи могут подумать, что видеокарту можно использовать в материнских платах, основанных не на базе чипсетов семейства nForce 4 SLI - как известно, все материнские платы на базе чипсетов nForce 4 SLI имеют два слота PCI Express x16, которые в режиме SLI переходят в режим "PCI Express x8 + PCI Express x8". Собственно, подобное предположение будет уместным, как доказывают результаты экспериментов наших коллег.
http://www.overclockers.ru/images/ne...16/giga_03.jpg
Соединив известный "мостик" в правом верхнем углу подложки чипсета nForce 4-4x, авторы эксперимента смогли научить материнскую плату поддерживать SLI. Разумеется, эта возможность могла бы оставаться виртуальной, ведь "пришить" второй слот PCI Express x16 или PCI Express x4 на плату в домашних условиях нельзя. Однако, двухчиповая видеокарта GV-3D1-68GT выручила коллег, так как она использует режим SLI в своей работе. Что характерно, коллеги уверены в использовании видеокартой именно режима PCI Express x8, хотя в инструкции для материнских плат на базе nForce 4 SLI (под AMD64) предписывается использовать режим коммутации "Normal", подразумевающий работу графического слота в режиме PCI Express x16.
http://www.overclockers.ru/images/ne...16/giga_04.gif
Скорее всего, такая неразбериха порождена драйверами - переделка чипсета обманывает именно их, так как после смены ID вчерашний чипсет nForce 4-4x принимается за настоящий nForce 4 SLI, и поддержка SLI активируется через драйверы. Ранее nVidia пыталась бороться с такими трансформациями на уровне драйверов, но в условиях демократизации SLI наверняка устранила препятствия.
Опытным путём коллеги установили, что видеокарта GV-3D1-68GT может работать в модифицированных материнских платах Gigabyte K8N-Ultra-9, MSI K8N Neo4 Platium, Albatron K8NF4U и Asus A8N-E (nForce4 Ultra). В принципе, вероятность нормальной работы высока для всех материнских плат на базе чипсетов серии nForce 4, только отдельные материнские платы с нестандартным дизайном могут выпасть из общей благополучной статистики.
Если говорить о результатах сравнительных тестов производительности, то GV-3D1-68GT приятно удивила: на системе с процессором Athlon 64 3400+ в исполнении Socket 754 она обогнала GeForce 7800 GTX с большим запасом. Как уже не раз отмечалось, для полного раскрытия потенциала производительности GeForce 7800 GTX требует мощного центрального процессора, а Athlon 64 3400+ с одноканальной памятью к таковым отнести нельзя.
Воодушевившись успехом трансформации чипсета nForce 4-4x, коллеги установили в материнскую плату Gigabyte GA-K8NE видеокарту GV-3D1-XL, основанную на двух чипах GeForce 6600. Затем в плату на чипсете nForce 4 SLI установили две одиночных видеокарты GeForce 6600, которые работали без SLI-моста. Затем сравнили уровень производительности. В итоге "тандем" GV-3D1-XL оказался как минимум в полтора раза быстрее связки из двух GeForce 6600, работающих через шину PCI Express. Вот вам и ответ на вопрос "Кого могут заинтересовать графические тандемы?" Получается, что видеокарты типа GV-3D1-XL могут пригодиться тем пользователям, которые владеют недорогой материнской платой на базе чипсета серии nForce 4 с единственным графическим слотом, но мечтают об удвоении производительности видеоподсистемы. Увы, тираж видеокарт-тандемов весьма ограничен, а потому повезёт лишь немногим. Тем не менее, с теоретической точки зрения союз двухчиповой карты и чипсета nForce 4-4x представляет большую ценность для сообщества энтузиастов.
(С)_www.overclockers.ru
Видеокарта GeForce 7800 GT действительно имеет 20 пиксельных конвейеров
Lexagon / 16.07.2005
Некоторые уточнения характеристик видеокарт GeForce 7800 GT, чей анонс запланирован на 11 августа, принесли сразу два сюрприза: приятный и "не очень". Первый заключался в том, что частота чипа составит 400 МГц - это всего на 30 МГц меньше, чем у флагманского GeForce 7800 GTX. Неприятный сюрприз заключался в наличии только 20 пиксельных конвейеров. При этом было очевидно, что четыре недостающих конвейера были отключены на чипе G70, но вот гарантировать включение в 100% случаев было нельзя. Вероятность их включения при помощи утилиты RivaTuner существует, но, во-первых, nVidia могла предусмотреть аппаратную блокировку, во-вторых - никто не гарантирует, что на значительной части чипов конвейеры не окажутся "битыми". В конце концов, отключать их nVidia решила "не от хорошей жизни".
Коллеги с сайта The Inquirer умудрились получить подтверждение этих ключевых характеристик видеокарт GeForce 7800 GT по недосмотру одного из партнёров nVidia. На этот раз сплоховал веб-мастер, обслуживающий сайт Inno3D - описание характеристик GeForce 7800 GT на короткое время стало доступно всем желающим. Мы лично застать эту страницу "в добром здравии" не успели, поэтому будем доверять британским коллегам. Как они сообщают, видеокарта GeForce 7800 GT в исполнении Inno3D действительно должна иметь 20 пиксельных конвейеров и работать на частоте 400 МГц по чипу. Другие характеристики не раскрываются, но мы наверняка сможем их узнать чуть позже, ведь до анонса осталось меньше месяца.
G71: грозное оружие nVidia в борьбе с R520?
Lexagon / 17.07.2005 12:19 / ссылка на материал
Многие источники продолжают интенсивно обсуждать тему противостояния GeForce 7800 GTX и R520, хотя последнее решение ещё не вышло, и даже не обозначило ориентировочные показатели быстродействия. Существует лишь предположение, что одиночная видеокарта на базе R520 сможет покорить рубеж 10 000 "попугаев" 3DMark05, и для номинального режима GeForce 7800 GTX такие результаты представляют угрозу. Соответственно, многие источники склоняются к возможности выхода разогнанного варианта GeForce 7800 GTX под условным названием "GeForce 7800 Ultra". Тем более, что осенью каждого года nVidia обычно предлагает более быструю версию видеочипа, анонсированного весной. Конец июня весной можно считать лишь с натяжкой, но более быстрый вариант G70 вполне может выйти ещё в этом году. Особенно с учётом того, что R520 окажется быстрее GeForce 7800 GTX.
Новую порцию информации по поводу этой самой GeForce 7800 Ultra попытались выдать коллеги с сингапурского сайта VR-Zone, однако первая публикация о чипе под кодовым названием G71 была удалена с сайта по запросу заинтересованной стороны. Скорее всего, в дело вмешалась некая компания nVidia или кто-то из её партнёров, имевших неосторожность поделиться секретной информацией. Самой важной новостью в том сообщении была принадлежность чипа G71 к 0.09 мкм техпроцессу, хотя британские источники о переводе флагманских чипов nVidia на новый техпроцесс в этом году говорят со значительной долей скепсиса.
Более того, обозначение вида "G71" заставляет полностью пересмотреть иерархию, предложенную японскими источниками. Например, решение среднего класса вместо G71 теперь получает имя "G73", а ещё более доступный чип - "G72". Новая версия обозначений "по-сингапурски" теперь выглядит так:
GeForce 7800 GTX (G70) -> GeForce 7800 Ultra (G71) -> G80;
GeForce 6600 (NV43) -> GeForce 7600 (G73);
GeForce 6200 (NV44) -> GeForce 7200 (G72).
Собственно говоря, система распределения кодовых имён в иерархии видеочипов nVidia никогда не отличалась логичностью и преемственностью, так что заучивать её в нынешней версии мы бы пока не рекомендовали. Следует дождаться осени, чтобы узнать точный вариант.
Характерно, что британские коллеги с сайта The Inquirer подхватывают идею выхода более быстрой версии G70 под кодовым именем "G71", но при этом продолжают отрицать её принадлежность к 0.09 мкм техпроцессу. Попутно приводятся заявления о наличии у этих видеокарт мощной "двухэтажной" системы охлаждения с тепловыми трубками, 512 Мб памяти типа GDDR-3 и феноменальной частоты чипа - до 800 МГц в разгоне. Как известно, такие частоты GeForce 7800 GTX может покорять только при помощи фреона, а британские коллеги говорят лишь об использовании штатного воздушного кулера. Сомнительно, чтобы такая частота была достигнута без перехода на 0.09 мкм техпроцесс.
Кстати, факт наличия на этой видеокарте 512 Мб памяти типа GDDR-3 нас абсолютно не удивляет - дизайн сегодняшней GeForce 7800 GTX уже содержал "посадочные места" для дополнительных чипов памяти, и выход 512 Мб версии GeForce 7800 GTX оставался лишь вопросом времени. Нельзя исключать, что одновременно с увеличением объёма памяти nVidia решила поднять частоту чипа и усовершенствовать систему охлаждения видеокарты. В конце концов, R520 будет использовать двухэтажный кулер, и nVidia ничего не потеряет, последовав этому примеру.
Надеемся, что в обозримом будущем нам удастся пролить свет истины на эту таинственную видеокарту, которой приписываются самые причудливые характеристики и свойства.
(С)_www.overclockers.ru