imho.ws |
|
07.05.2004, 00:11 | # 41 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Nvidia: новые подозрения в подтасовке результатов бенчмарков
Казалось бы, совсем недавно Nvidia предприняла шаги в сторону отказа от сомнительных "оптимизаций" в бенчмарках, свидетельством чему стали драйверы ForceWare 60.72, отсутствие "заточек" в которых подтвердили независимые обозреватели и сертификация Futuremark. Новые исследования качества картинки в играх и бенчмарках и выход драйверов ForceWare 61.11 заставили вернутся к рассмотрению вопроса жульнических оптимизаций снова. Известный немецкий журнал Chip.de при тестировании своего экземпляра GeForce 6800 Ultra Extreme с новыми драйверами 61.11 в игре FarCry наткнулся на неожиданный результат. Переименование исполняемого файла игры из FarCry.exe в, скажем, FartCry.exe (любители "тонкого немецкого юмора" могут заглянуть в словарь и проверить значение слова "fart" ), наблюдалось значительное падение производительности - примерно по 10 FPS для каждого видеорежима! Данные результаты представлены на диаграмме - верхней строчкой показан результат "FartCry", второй - результат без переименования: _http://www.overclockers.ru/images/sogt/2004/05/06/chip.de_FartCry.jpg Наблюдаемое 13-30%-ное падение производительности наводит на мысли о сходстве с заявленным 20%-ным ростом быстродействия ForceWare 61.11 в данной игре. Представители Nvidia объясняют данные результаты, тем, что это как раз и есть результаты исправления ошибки z cull, приводящей к тем самым 20% роста, и что такая практика исправлений является нормальным процессом при запуске нового продукта и доработке драйверов к нему. Верить или нет - решайте сами . Тем временем некоторые обозреватели, среди которых и сайт DriverHeaven, сосредоточили свое внимание на качестве отображаемой GeForce 6800 картинки и пришли к выводу, что она несколько отличается от референсной и выводимой конкурирующими продуктами для ряда исследуемых приложений. В случае для 3DMark 2003 даже была поставлена под сомнение правильность "диагноза" об отсутствии "оптимизаций". Ко всеобщему удовольствию, корпорация Futuremark предоставила официальное разъяснение по поводу данных обвинений. Во Futuremark вновь протестировали драйверы 60.72 и во второй раз не обнаружили неправомерных оптимизаций. После дополнительных консультаций с Nvidia и Microsoft выяснилось, что некоторая разница в отображаемой картинке вызвана разными алгоритмами рендеринга изображения и, в первую очередь, новым видом анизотропной фильтрации. Новый алгоритм анизотропии используется при этом для всех приложений, а не только 3DMark 2003 и поэтому никак не может быть "заточкой". Представители же Microsoft сообщили, что на самом-то деле "идеальной" картинки в случае применения анизотропной фильтрации не существует, а используемый Nvidia метод даже превосходит референсный из DirectX 9. Отмечается, что в любом случае рост производительности от "оптимизированной" анизотропной фильтрации незначителен для итоговых результатов 3DMark 2003. Неудовольствие пользователей вызвала и история со сравнением качества картинки от использования разных версий шейдеров во время официального анонса GeForce 6800 Ultra. Как выяснилось, сравнивались картинки с использованием пиксельных шейдеров версий 1.1 и 3.0, а не 2.0 и 3.0, как могли подумать приглашенные и о чем явно заявлено не было. Позже прозвучали подтверждения, что сравнивались именно режимы PS 1.1 против PS 2.0/3.0 (разницы в качестве при использовании PS 3.0 вместо 2.0 быть практически не может - только рост быстродействия), но некоторые обозреватели уже успели сообщить о "зримом превосходстве технологий Pixel Shader 3.0 против Pixel Shader 2.0". Таким образом, некоторые сомнения в честности Nvidia есть, но большинство из них либо сомнительны и пока не подтверждены, либо просто вызваны недостаточным пониманием механизмов работы 3D-акселераторов, некоторые принципы которых мы сегодня затронули. Ждем развития ситуации. NV40 vs. R420: счет "26:24", ничья 8 раз Многие пользователи в силу некоторых стереотипов мышления разделяют "черно-белое" восприятие реалий компьютерного мира. Например, если новейшая видеокарта фирмы X в большинстве тестов выигрывает поединок с видеокартой фирмы Y, то покупать следует только видеокарты фирмы X. При этом не важно, что в других условиях тестирования расстановка сил может быть иной, а эксплуатационные качества видеокарты-победителя (шум системы охлаждения, нагрев чипов памяти) далеки от идеала. Тем не менее, таких "максималистов" достаточно и среди наших читателей, а потому вместо ответа на вопрос "Кто же круче – NV40 или R420?" в ходе описания результатов первых тестов решений на базе R420, мы просто предлагаем ознакомиться с интересной таблицей, опубликованной сайтом NV News: _http://www.overclockers.ru/images/news/2004/05/06/comparison.png Наши коллеги собрали в одной таблице результаты тестов видеокарт Radeon X800 XT и GeForce 6800 Ultra, разделив их по категориям игровых приложений, и выделив единственный критерий – "чья взяла" . В итоге получилась вот такая таблица, не претендующая на абсолютную объективность и беспристрастность, но позволяющая любителям каких-то конкретных игр выбрать ту видеокарту, которая в данных условиях показывает наибольшую производительность. Заметим, что исход поединка часто зависит от модели используемого центрального процессора, поэтому следует ориентироваться и на этот фактор. Красной надписью "ATI" выделены соответствующие победы канадской компании, Nvidia фигурирует в таблице под зеленым цветом. Словом "DRAW" обозначены случаи, в которых получилась "ничья", то есть обе видеокарты показали примерно сопоставимые результаты. Кстати, сугубо субъективно в данном наборе тестов победу 26 раз одержала видеокарта Nvidia GeForce 6800 Ultra, 24 раза победа перешла на сторону ATI Radeon X800 XT (или Radeon X800 Pro), и 8 раз "победила дружба" . (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
07.05.2004, 21:57 | # 42 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
nVidia GeForce 6800 Ultra Extreme будет, но неофициально!
07/05/2004 17:00, Рожкевич Кирилл Если помните, на прошлой неделе мы уже писали о загадочной модификации GeForce 6800 Ultra Extreme, тогда казалось, что это будет совершенно официальное, «топовое» решение, предлагавшееся как реальная альтернатива ATi X800 XT. В доказательство тому, буквально пару дней назад появился анонс подобной карты от Gainward. Сразу же подумалось, вот оно, «сердце кощеево»! Однако, по словам неназванных представителей nVidia, праздник жизни отменяется, точнее говоря, отменяется он частично, т.к. официально таких карт существовать попросту не будет. При этом многочисленные партнеры компании вольны выпускать и более разогнанные версии, как говорится, на свой страх и риск, хоть азотное охлаждение применяй В итоге, линейка GeForce 6800 пока что так и остаётся с 3-мя моделями: GeForce 6800 Ultra => 400(450)/1100 МГц, 16 пиксельных конвейеров, GDDR III GeForce 6800 GT => 350/1000 МГц, 16 пиксельных конвейеров, GDDR III GeForce 6800 => 325/700 МГц, 12 пиксельных конвейеров, DDR I (C) _www.3dnews.ru NV40 будет обходиться в производстве на 10-15% дешевле R420 В условиях постоянно меняющихся технологических норм, подрядчиков и площадей ядра достаточно сложно объективно оценить, насколько выпуск нового чипа будет экономически выгоден для производителя. Традиционно считается, что с появлением более "тонких" техпроцессов снижается себестоимость производства чипа, поскольку на пластине неизменного диаметра можно разместить большее число более компактных чипов. Тем не менее, увеличение площади ядра в сфере графических чипов иногда происходит еще более устрашающими темпами, чем это принято для центральных процессоров, потому в обосновании экономической целесообразности многих нововведений могут появляться некоторые нюансы. Сайт NV News цитирует слова президента Nvidia, прозвучавшие на недавней отчетной конференции. Из множества менее интересной информации следует выделить следующее сообщение. Представители Nvidia уверены, что себестоимость производства NV40 будет на 10-15% ниже, чем аналогичные показатели для R420! Казалось бы, мы имеем парадоксальную ситуацию: чип с большим на 40% числом транзисторов, каким-то магическим образом оказывается более экономичным с точки зрения себестоимости производства. Представители поясняют феномен следующим образом. Хотя NV40 действительно превосходит R420 на 40% по числу транзисторов, площадь ядра у чипа Nvidia всего на 9% больше, чем у R420. Действительно, некоторые попытки обозревателей сопоставить площадь кристаллов NV40 и R420 выявили, что чипы имеют примерно одинаковую площадь. Поскольку NV40 и R420 производятся по 0.13 мкм техпроцессу, то повлиять на затраты в данном случае могут лишь дополнительные факторы. Для R420 этим фактором становится использование low-k диэлектриков, которые делают свой вклад в себестоимость производства. По этой причине Nvidia считает возможным утверждать, что NV40 будет обходиться в производстве дешевле. Это означает, что Nvidia оставляет некоторое пространство для маневра ценой и выпуска различных урезанных версий NV40. Конечный потребитель от этого только выиграет, так как сможет приобрести более дешевые видеокарты нового поколения . Кроме того, чипы семейства NV4x должны обладать неким "иммунитетом к дефектам" за счет возможности управления уровнем выхода годных кристаллов путем перестройки архитектуры чипа. Другими словами, уровень брака в семействе чипов NV4x будет ниже, чем это было присуще предыдущим поколениям. Интереснее всего звучит заявление президента Nvidia о том, что потребности видеокарт GeForce 6800 Ultra в мощном блоке питания не так уж принципиальны. Сообщается, что GeForce 6800 Ultra может прекрасно работать с единственным разъемом питания, и второй предусмотрен лишь для обеспечения некоторого запаса по разгону. В общем, и требования по мощности блока питания в 480 Вт тоже не имеют обязательного к исполнению характера. Опять же, с учетом потребности этой видеокарты в производительном процессоре, игнорировать подобные требования не нужно. GeForce 6800 Ultra Extreme: в списках не значился Услышав заявления Gainward о подготовке к анонсу видеокарты класса GeForce 6800 Ultra Extreme, способной разгоняться до частоты свыше 500 МГц, а также убедившись в отличном разгонном потенциале этого решения, мы почти не сомневались в серьезности планов Nvidia выпустить эти элитные видеокарты официально. На деле же получилось несколько иначе... Как сообщают наши друзья и коллеги с сайта X-bit Labs со ссылкой на официальных представителей Nvidia, видеокарты GeForce 6800 Ultra Extreme – это инициатива партнеров компании, официально такого продукта в линейке GeForce 6 Series не существует. Часть чипов NV40 действительно способна работать на частоте 450 МГц и выше, но решение об установке подобной номинальной частоты всегда должно исходить от производителя видеокарт, а не Nvidia. Некоторые системные интеграторы, предлагающие производительные решения по весьма нескромным ценам, тоже согласились официально разогнать видеокарты GeForce 6800 Ultra, устанавливаемые в свои системы. К сожалению, за "отборные зерна" придется выложить не менее $599 – этот новый рубеж для игровых видеокарт в будущем может стать вполне обыденным. Как мы уже объясняли, объективные причины типа роста себестоимости производства чипов и высоких цен на память не позволяют производителям удерживать ценовую планку для флагманских продуктов на прежнем уровне. Кстати, по-прежнему не исключается вероятность повышения номинальной частоты массовой версии GeForce 6800 Ultra. Если первая партия чипов производства IBM будет распределена между самыми расторопными производителями, причем заметная часть может уйти на комплектацию Quadro FX 4000 – профессионалы ждать не любят , то новая партия чипов вполне официально сможет работать на более высоких частотах. (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
09.05.2004, 08:50 | # 43 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
А нужен ли GeForce 6800 Ultra второй разъем питания?
Lexagon | 09:23 | ссылка на материал Вполне естественно, что многих потенциальных владельцев видеокарт GeForce 6800 Ultra волнует вопрос энергопотребления, который на официальном уровне описан слишком устрашающе: два выделенных канала питания и мощность источника питания не менее 480 Вт. Radeon X800 XT при этом вполне обходится одним разъемом питания, а требуемая мощность источника питания вообще может не превышать 300 Вт. Так ли страшен черт, как пытается это представить Nvidia? Вчера мы узнали, что представители Nvidia считают возможной эксплуатацию видеокарты GeForce 6800 Ultra только с одним разъемом питания, а второй играет роль "страховочного", предназначенного для разгона. Наши коллеги с американского сайта Hard OCP получили комментарии Nvidia по данному вопросу: Эталонные видеоплаты GeForce 6800 Ultra были оснащены дополнительным разъемом питания с учетом потребностей оверклокеров. Видеокарты GeForce 6800 Ultra смогут работать на номинальных частотах без необходимости использования второго разъема питания. Дополнительный разъем питания позволит выжать из GeForce 6800 Ultra максимум при разгоне. Другими словами, факт использования второго разъема питания не так уж важен в общем случае, если говорить о серийных видеоплатах. Так ли это на самом деле? Наши коллеги связались с представителями компании BFG Technology, которые провели специальный тест по использованию видеокарты GeForce 6800 Ultra с одним разъемом питания на номинальных частотах. Вот какие получились результаты... Несмотря на появившееся предупреждение о том, что видеокарта может работать на пониженных частотах из-за недостаточной мощности источника питания, снижения частот не произошло. Система стабильно работала в тесте 3DMark 2003. Тем не менее, после продолжительной работы в 3DMark 2003 с одним разъемом питания в тестах Battle of Proxycon и Troll's Lair начали наблюдаться некоторые артефакты, но уровень их присутствия не был катастрофичным. В подобных условиях игра Unreal Tournament 2004 не демонстрировала каких-либо проблем. Большинство экспертов сходится во мнении, что достаточность одного разъема питания может присутствовать только в определенных играх и приложениях, не очень сильно загружающих видеочип. С другой стороны, если использовать хороший блок питания мощностью свыше 400 Вт, проблем при использовании одного разъема питания возникнуть не должно. Если использовать один разъем питания и слабенький источник питания, то проблемы наверняка возникнут даже в номинальных режимах. Понятно, что в реальной системе, напичканной мощными потребителями энергии, второй разъем питания и рекомендуемая мощность 480 Вт вовсе не покажутся избыточными, так что нельзя легкомысленно заявлять о возможности работы GeForce 6800 Ultra с одним разъемом питания в любых условиях. Все зависит от ситуации, и серийные видеокарты могут демонстрировать несколько иное поведение. Хотелось бы верить, что иным оно будет в лучшую сторону . (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
09.05.2004, 22:09 | # 44 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Albatron GeForce 6800 Ultra: через неделю по цене $623
Lexagon | 16:29 | ссылка на материал Хотя японская розница отреагировала на анонс GeForce 6800 Ultra достаточно оперативно, уже через несколько дней выставив на обозрение коробку от видеокарты WinFast A400 Ultra TDH MyVIVO, официальные поставки видеокарт этого класса должны начаться только в конце мая. Любопытно, что другая скандально заявившая о своем продукте этого класса компания по имени Albatron обещала начать поставки GeForce 6800 Ultra в первой половине мая. Кроме того, в пресс-релизе указывалась возможность работы графического чипа на частоте до 600 МГц, что не лезло даже в рамки характеристик GeForce 6800 Ultra Extreme. Судя по всему, у японских потребителей скоро появится возможность проверить оба заявления. На полках местных магазинов появились коробки от видеокарт GeForce 6800 Ultra производства Albatron. _http://www.overclockers.ru/images/news/2004/05/09/alba_01.jpg Символом этой серии видеокарт становится девушка с "матричным" именем Trinity, которая теперь красуется на коробках. _http://www.overclockers.ru/images/news/2004/05/09/alba_02.jpg Поступление этих видеокарт ожидается на следующей неделе, примерно в середине месяца. Самое шокирующее - это стоимость новинки. В Японии ожидаемая цена GeForce 6800 Ultra в исполнении Albatron составляет $623! Заметим, что со стороны ATI на японский рынок должны поступить в сопоставимые сроки видеокарты Sapphire Radeon X800 Pro по цене $475-500, так что розничный дебют GeForce 6800 Ultra не останется без ответа, если подобные продукты разных ценовых категорий вообще можно сопоставлять напрямую. (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
11.05.2004, 16:52 | # 45 |
Full Member
Регистрация: 15.10.2003
Адрес: [ crystalnet ]
Сообщения: 1 114
|
Albatron обгонит всех?
Источники сообщают, что первой компанией, выпустившей на рынок видеокарту на базе графического чипа NVIDIA GeForce 6800 Ultra, вполне может стать Albatron. Эта информация подтверждается представителями японских розничных магазинов, которые утверждают, что в самое ближайшее время к ним должны поступить видеокарты Trinity GeForce 6800 Ultra. Представитель компании Albatron заявил, что в это же время, то есть в середине мая, видеокарты на базе новых графических чипов поступят в продажу и на Тайване. Таким образом, если эти обещания будут выполнены, Albatron и в самом деле станет пионером. Тем более, что по официальным данным поставщика чипов – компании NVIDIA, ожидать появления продуктов на базе GeForce 6800 Ultra следует не раньше конца мая, а то и начала июня текущего года.
Источник: _www.anandtech.com |
11.05.2004, 22:55 | # 46 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Блок питания на 350 Вт: Nvidia смягчает требования к GeForce 6800 Ultra
Lexagon | 08:10 | ссылка на материал Еще за несколько дней до апрельского анонса GeForce 6800 Ultra вся прогрессивная общественность была поставлена в известность, что флагманское решение Nvidia будет обладать немалыми аппетитами в плане энергопотребления. Например, блок питания мощностью не менее 480 Вт и два выделенных канала питания – подобные требования породили массу едких шуток типа "Теперь, покупая видеокарту, вы приобретаете еще и блок питания" . Вполне естественно, что приближение GeForce 6800 Ultra к стадии массового производства внесло свои коррективы в требования Nvidia по питанию. Например, недавно мы узнали, что в большинстве случаев серийные видеокарты GeForce 6800 Ultra смогут спокойно работать на номинальных частотах при использовании только одного разъема питания. Дополнительный разъем может быть задействован только в случае разгона видеокарты или для работы в "тяжелых" условиях. Как выясняется, мощность блока питания в 480 Вт тоже не является обязательным к исполнению требованием. Сотрудники сайта GameSpot попытались выяснить при помощи представителей Nvidia, насколько обоснованы подобные требования к мощности источника питания. Nvidia рассчитывала эти требования, исходя из наихудшего случая. Например, когда используется некачественный блок питания и плохо вентилируемый корпус. В условиях спешной подготовки GeForce 6800 Ultra к анонсу необходимо было предусмотреть какие-то заведомо обеспечивающие надежность требования. Понятно, что Nvidia предпочла перестраховаться, а потому рекомендовала использовать мощные блоки питания на 480 Вт и два разъема питания. Сейчас нарабатывается практика испытаний, и требования подвергаются уточнению. Мощность блока питания в 480 Вт была изначально предусмотрена с учетом потребностей оверклокеров. Надо понимать, что Nvidia все же не исключала сценария, при котором Radeon X800 XT окажется быстрее, и часть обозревателей ради оправдания "высокого доверия партии" будет вынуждена разгонять GeForce 6800 Ultra. Кроме того, часть партнеров Nvidia готовит к выпуску так называемые видеокарты GeForce 6800 Ultra Extreme, работающие на частоте 450/1100 МГц. Понятно, что мощный блок питания для таких видеокарт отнюдь не покажется лишним. Кроме того, мы уже неоднократно подчеркивали, что для полной реализации потенциала видеокарт класса GeForce 6800 Ultra или Radeon X800 XT требуется мощный процессор типа Athlon 64 FX или Pentium 4 XE. Естественно, что другие компоненты такой системы должны обеспечивать сбалансированную производительность, потребляя при этом немало электроэнергии. Блок питания в этом случае просто не может иметь мощность менее 400 Вт. И все же, представители Nvidia признаются, что для работы на частотах 400/1100 МГц видеокартам GeForce 6800 Ultra потребуется блок питания не менее 350 Вт. В данный момент проводятся испытания, имеющие своей целью подтвердить достаточность подобных требований. Надо сказать, что требования к качеству питания при этом не ослабляются – блок питания должен уверенно держать нагрузку. Другими словами, для работы с GeForce 6800 Ultra все равно потребуется добротный блок питания, даже если его рекомендуемая мощность снижена до 350 Вт. На оверклокеров подобные послабления не распространяются – по уже указанным причинам, для разгона потребуются более мощные блоки питания. (C) _www.overclockers.ru [/B]Требования к GeForce 6 будут снижены? Ujesh Desai, главный менеджер по десктоп-решениям корпорации (General Manager of Desktop GPUs for NVIDIA) в переписке с сайтом Gamespot выдал интересную информацию о смягчении требований к питанию систем с картами GeForce 6. Так, он заявил, что первоначальные требования к системному блоку, а именно - наличие блока питания на 450 Ватт, являются изначально завышенными и предназначались для овеклокеров. Как, впрочем, и второй (опциональный) разъем питания, которым комплектуются Ультры 6-го семейства. Цифра 450 Вт бралась также с расчетом на корпуса, в которых есть проблемы с циркуляцией воздушных потоков. Нынче же NVIDIA собирается официально понизить требования до 350 Вт для карт 6800 Ultra, функционирующих на стандартных частотах в 400/1100 МГц. В данный момент сотрудниками NVIDIA, а также их партнерами по выпуску новой линейки, проводится тестирование корректного функционирования карт в системах с БП на 350 Вт. NVIDIA официально продемонстрирует Unreal Engine 3 на GeForce6 NVIDIA выпустила официальный пресс-релиз(_http://nvidia.com/object/IO_13103.html), в котором говорится о показе движка Unreal Engine 3 от Epic на Electronic Entertainment Expo (E3), которая будет проходить на этой неделе. Напомню, что мы уже писали о закрытой демонстрации движка Unreal Engine 3 при презентации чипа NV40. Теперь же желающие смогут сами посмотреть чудеса шейдеров 3-й редакции на стенде № 324 Южного зала (South Hall). В пресс-релизе кроме общей информации говорится, что движок Unreal 3 - первый игровой движок, полностью реализующий Shader Model 3.0 - ключевого аспекта Microsoft DirectX 9.0, доступного ныне только на картах серии GeForce 6. У меня сразу возникает вопрос - а как же Far Cry? Про него что, забыли? Кстати, демонстрация будет запускаться каждый день интервалами в 15 минут после открытия. (C) _www.nvworld.ru[B] Albatron снижает частоту NV40 до 400 МГц За минувшее с момента анонса GeForce 6800 Ultra время мы уже дважды становились свидетелями рекламных акций компании Albatron. Во-первых, эта фирма пыталась убедить общественность в возможности разгона чипа NV40 до частоты 600 МГц. Во-вторых, Albatron пообещала начать поставки видеокарт класса GeForce 6800 Ultra на японский рынок уже в середине мая. Попытаемся отследить, как изменяются планы Albatron с ходом времени. Прежде всего, на сайте производителя теперь можно обнаружить исправленную версию технических характеристик этого продукта: _http://www.overclockers.ru/images/news/2004/05/11/alba_01.gif Как видите, частота чипа равна 400 МГц, а не обещанным ранее 600 МГц. Являлись ли прежние заявления о возможности увеличения частоты чипа до 600 МГц рекламным трюком или приятным заблуждением – мы сейчас сказать затрудняемся. Тем не менее, частота GeForce 6800 Ultra в исполнении Albatron приближается к стандартной отметке, и это устраняет некоторые разночтения. Теперь попробуем построить прогноз по поводу сроков поступления аналогичных видеокарт в продажу. Наши коллеги с сайта X-bit Labs провели собственное расследование на эту тему, и мы процитируем некоторые интересные заявления. Прежде всего, компания Nvidia дает понять, что сроки поставок видеокарт на базе NV40 во многом зависят от партнеров. Например, некоторые из них заявили о намерении начать поставку видеокарт серии GeForce 6800 Ultra только в конце июня, хотя большинство источников до сих пор называло май в качестве оптимистичной цели для подобного события. Другими словами, намерение Albatron отличиться в сфере оперативности поставок готовых видеокарт GeForce 6800 Ultra на рынок еще не говорит о том, что компания сможет сохранить приверженность намеченному графику. Кроме того, даже в случае успеха Albatron не стоит рассчитывать на синхронность действий других производителей, и массовая доступность видеокарт GeForce 6800 Ultra может возникнуть лишь в конце июня этого года. (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
13.05.2004, 08:39 | # 47 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
GeForce 6800 не-Ultra: все-таки 325/700 МГц
Lexagon | 04:12 | ссылка на материал Хотя в иерархии графических решений на базе чипа NV40 мы уже давно разобрались, некоторые источники продолжают "мутить воду", публикуя нестандартные частоты для некоторых видеокарт. В частности, в отношении GeForce 6800 не-Ultra у нас оставались некоторые сомнения - будет чип работать на частоте 325 МГц или 350 МГц. Наши немецкие коллеги на сайте Tweak PC опубликовали полные характеристики новых графических решений производства компании Club 3D, и в числе прочих упомянули GeForce 6800 не-Ultra. Из приведенной информации совершенно однозначно можно понять, что видеокарта будет работать на частотах 325/700 МГц, оснащаться 128 Мб памяти типа DDR-I и иметь 256-битную шину памяти. Естественно, что число пиксельных конвейеров будет ограничено до восьми. Кстати, если в отношении перспектив трансформации видеокарт на базе R420 путем включения дополнительных пиксельных конвейеров близкие к ATI источники находят основания утверждать о невозможности осуществления такого трюка известными средствами, видеокарты на базе NV40 с этой точки зрения еще не изучались. Возможность поэкспериментировать с ними появится в июне, когда будут выпущены видеокарты GeForce 6800 GT с 12 пиксельными конвейерами и GeForce 6800 не-Ultra с 8 пиксельными конвейерами. Таким образом, теперь мы можем с твердой уверенностью сказать, что видеокарты GeForce 6800 будут работать на частотах 325/700 МГц, сохраняя паритет в отношении старших моделей. P.S. Весьма оригинально звучит версия технических характеристик одной из предсерийных видеоплат GeForce 6800 не-Ultra в исполнении китайского сайта PC Pop. Утверждается, что чип будет иметь 12, а не 8 пиксельных конвейеров! Частоты видеокарты остаются неизменными – 325/700 МГц. Плата имеет восьмислойный дизайн (против 10 слоев текстолита у GeForce 6800 Ultra), а также лишена второго разъема питания. Сообщается, что для гарантированной работы GeForce 6800 достаточно иметь блок питания мощностью 300 Вт. Интереснее всего, что время выборки памяти DDR-I приятно удивляет – она равно 2.5 нс, хотя для гарантированной работы на частоте 700 МГц DDR вполне достаточно было бы использовать 2.8 нс память. Если удача будет благоприятствовать разгону, то частоту памяти видеокарт GeForce 6800 не-Ultra можно будет увеличить до 800-900 МГц DDR и выше. Тем не менее, нельзя гарантировать, что все видеокарты данного класса будут оснащаться именно 2.5 нс памятью – в этой ценовой категории возможен большой разброс характеристик. Продажи GeForce 6800 должны начаться примерно в середине июня по цене порядка $299. Если все 12 пиксельных конвейеров действительно будут сохранены (в чем приходится сомневаться), то у более дорогой GeForce 6800 GT появится достаточно сильный конкурент. (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
13.05.2004, 09:05 | # 48 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
on english=):
No 6800 Ultra extreme, Nvidia says By Fuad Abazovic: NVIDIA SAID THAT all Geforce 6800 Ultra will remain clocked at 400MHz, the same speed that they where introduced at in San Francisno and Geneva last month. Sources close to Nvidia confirmed that the 6800 Ultra cards will remain at 400MHz since it actually can ship them in any volumes at this speed, while its 450+MHz chips will be reserved for special partners. Special cards will be introduced by, yes, Gainward, a company that will soon be ready with its Cool FX water-cooled card clocked at over 450MHz. We suspect that it may reach over 500MHz. Gainward is still testing its final clock speeds but we are sure that this card will be one of the fastest cards ever produced up to this point. Another company which will do this is the ambitious XFX, which will also introduce a limited number of cards clocked at least to 450MHz for the core and close to 1200MHz for the memory. We don't have any idea about its availability. The third partner will be US only and will be BFG. It has the green light to introduce these 450MHz cards as well. We don't have any solid date when any of these cards will be available but Gainward should be ready to sample early next week with production in just a week or two beyond that. In this product cycle we expect to see the Radeon X800XT Platinum water cooled producing a nice little fight, we believe. µ _http://www.theinquirer.net/?article=15864 GeForce 6 Series Question & Answer with NVIDIA - Page 1 of 1 By Mike Chambers - May 13, 2004 INTRODUCTION nV News was given the opportunity to conduct a question and answer session with NVIDIA's Tony Tomasi, Senior Director of Desktop Product Management and Ujesh Desai, General Manager of Desktop Graphics Processing Units. The questions are naturally related to the GeForce 6 Series, which was announced by NVIDIA on April 14. I would like to thank the group of nV News staff and selected visitors who assisted us in compiling a list of questions for NVIDIA. A total of 30 questions were submitted and I had the unfortunate duty of trimming the list down to 10 as requested by NVIDIA. Since most of the submitted questions were technically oriented, I chose to keep the Q&A along those lines. nV News: What are the primary factors that would lead to a difference in performance between FP16 and FP32 calculations with the GeForce 6800? Tony Tomasi: FP16 uses less storage than FP32, and GeForce 6800 supports FP16 texture filtering and frame buffer blending in hardware. In particular, support for FP16 texture filtering and frame buffer blending can be a very significant performance win for high dynamic range applications. There are also some operations that can be performed faster, or in some cases "for free" using FP16 in the shading hardware. For example, partial precision normalize (FP16 normalize) is essentially "free" on GeForce 6800 hardware. nV News: X-bit labs has shown benchmark results (chart at bottom of page) of the GeForce 6800 Ultra generating more than its theoretical limit of 32 z-pixels per clock cycle when color writes are disabled. Are these results correct? Tony Tomasi: Depending on the impact of occlusion culling, one could measure rates beyond 32 pixels per clock of effective fill. But the Z-ROP hardware in GeForce 6800 is capable of 32 pixels per clock of z/stencil-only rendering. Rates beyond that would be due to other factors. High z/stencil rendering rates are a nice win for applications that do 2-pass shadow algorithms, like Doom3, which is why GeForce 6800 is capable of rendering z/stencil-only at such high rates. nV News: We have seen partial precision benchmark results (compare "PS 2.0 - Simple" to "PS 2.0 PP - Simple" in first table) on the GeForce 6800 drop in performance over full precision. Is it possible that the GeForce 6800 could have lost performance in some applications due to having Pixel Shader 2.0 shaders optimized for the GeForce FX? Tony Tomasi: We have filed a bug against the results generated by Marko Dolenc's fill-rate tester and are checking in to it. Something is definitely up there. We're not aware of any reason that partial precision floating point should be slower than full precision (FP32) floating point. There are architectural differences between the GeForce FX architecture and the GeForce 6800 architecture that can lead the GeForce FX to have higher performance per Quad of shading horsepower in some limited number of partial precision cases, but since the GeForce 6800 has 4x the number of Quads for shading computation, GeForce 6800 should deliver better absolute performance. While its possible to build a pathologically bad register combiner program that could potentially run faster on GeForce FX than on GeForce 6800, in practice no application we've seen does or would do that. nV News: Reviewers have noticed image quality issues with Far Cry and are perplexed as to why the game performs better on the newly announced Radeon X800 graphics chipsets than the GeForce 6800. Comments? Is a future patch in the works that will support the new features of Shader Model 3.0? Ujesh Desai: We are aware of all the issues with Far Cry and we are working with Crytek to solve them as soon as possible. Some of the issues are driver bugs that we are working on, and some of the issues are application related and Crytek is working on a patch for this. We are also working with Crytek to get a Shader Model 3.0 patch added to the game. nV News: Performance of the GeForce FX sometimes dropped when a Pixel Shader 1.x shader was executed compared to executing a similar shader under Pixel Shader 2.0. Will the GeForce 6800 have a similar performance drop when executing a shader using Pixel Shader 3.0? Ujesh Desai: Actually it will be the opposite. I think there is a bit of confusion about Shader Model 3.0 and Shader Model 2.0. While Shader Model 3.0 will enable some "new" effects, it is better characterized by ease of programming, more efficient use of the hardware, and higher scene complexity/or frame rates. Shader Model 3.0 makes developers lives easier due to the support for advanced programming features such as loops and branches. This is a fundamental requirement and will improve the efficiency in how programmers can write their code. Without support for loops and branches enabled by Shader Model 3.0, developers will be forced to break up longer Shader Model 3.0 shader programs into smaller segments that will run on Shader Model 2.0 hardware. This will absorb clock cycles which will hamper performance in games that use the latest version of DirectX and have more sophisticated Shader Model 3.0 pixel shaders. It is important to note that in some cases, developers can create the same effect with Shader Model 2.0 and Shader Model 3.0, however it may take longer to program using Shader Model 2.0 and may require more passes through the hardware to render. Shader Model 3.0 does introduce some new functionality - particularly dynamic branching in the pixel shader, which must be used carefully for good performance. But in general, Shader Model 3.0 should actually make development easier, and can offer some nice performance benefits for complex shaders that can be executed in pixel shader 2.0, but can be executed more efficiently in Shader Model 3.0.(Вот подтверждение того, что не так уж и сильно они на SM3 напирают).... nV News: Do you believe that mixed precision is still relevant knowing that the uses of 64-bit floating point precision over 128-bit still benefits the GeForce 6 series? Ujesh Desai: Yes. In general, as with any processor, you should always use the fewest bits of precision that performs the function with the degree of accuracy you are after. In a CPU, people don't always declare doubles for good reasons - there are performance trade offs. I expect much the same behavior with GPU's. While 128-bit pixels are certainly higher precision than 96-bit or 64-bit pixels, they have more storage requirements as well. Additionally, most high dynamic range applications being developed work quite well with 16-bits of floating point per component, and that in combination with floating point texture filtering and frame buffer blending of 64-bit floating point data makes mixed precision a large benefit. In fact, 64-bit floating point (called half) is enough precision for many high quality rendering and image processing systems. OpenEXR has some great examples of this as well. nV News: When using static branching, are those branches "free?" That is, as long as the constant value that changes which branch is executed is not changed, can that shader run at exactly the same speed as an "unrolled" shader with no branches? If not, about how many clock cycles does a static branch cost? Tony Tomasi: On the pixel shader side, shaders are recompiled based on constant state, so the hardware should see an unrolled shader independent of the input. This is not true in the vertex shader, but static branches are pretty cheap, all things considered (~2 clocks / branch in vertex shader). nV News: When using static branching, does changing the constant value that changes which branch is executed result in a state change? That is, can "uber shaders" be used to avoid state changes, and thus increase performance? Tony Tomasi: Yes, this is a state change (and shader recompile in pixel shader). Uber shaders can be used to avoid state changes, but uber shaders use extremely coherent dynamic branching (branch condition supplied as a vertex attribute), rather than static branching. nV News: About how many cycles does a dynamic branch cost at a minimum? Under what situations would a developer want to use dynamic branching and why? Tony Tomasi: There is a 2 cycle latency per branch instruction in the pixel shader, so IF/ELSE/ENDIF adds 6 cycles to a program (IF/ENDIF adds 4). If the branches are coherent (such as uber shaders, or potentially skipping calculations if N.L <= 0), and the number of instructions that can be skipped is greater than the latency, a developer should try dynamic branching. The vertex shader has a 2 cycle latency, too, but branch coherence isn't important, since the vertex shaders are MIMD. nV News: What programming feature of the GeForce 6 series do you find the most exciting? Ujesh Desai: I am really excited to see NVIDIA continuing to push technology forward and continue to be the technology leaders in the industry by pioneering Shader Model 3.0. Bottom line is developers want Shader Model 3.0. It is really disappointing to see some GPU manufacturers trying to hold the industry back by down playing the significance of Shader Model 3.0. Next time someone downplays Shader Model 3.0, ask them if a Shader Model 3.0 part is on their roadmap.(знамо дело без пинков ати не обошлось gigi ) Then ask Microsoft what they think about their next version of DirectX 9. If given the choice between supporting it or not, any GPU manufacture would want Shader Model 3.0 support. Tony Tomasi: I would say both Shader Model 3.0 AND floating point texture filtering and frame buffer blending. FP16 texture filtering and frame buffer blending makes developer's lives much better for high dynamic range type applications, as well as having a significant positive impact on performance and quality for those classes of applications as texture filtering can be done in higher precision w/o using shader passes (and/or without performing filtering in lower precision). In the same way, frame buffer blenders can be used on this same FP16 data, again avoiding extra passes in the pixel shader. By making 64-bit floating point fully orthogonal (mipmapping, all texture filtering modes, etc.) developers no longer have to special case high dynamic range functionality. nV News: Is there any information on the low and mid-range GeForce 6 product lineup that you can share? Ujesh Desai: Sorry, but we cannot discuss unannounced products. Stay tuned. We're quite pleased with the per-clock performance of the NV4x architecture, and look forward to delivering the benefits to a top?to-bottom family of the GeForce 6 GPUs. We would like to thank Brian Burke, NVIDIA's Desktop Public Relations Manager, for suggesting a Q&A session with Tony and Ujesh. And of course thanks go out to Tony and Ujesh for taking time to provide us with their responses! _http://www.nvnews.net/articles/geforce_6_interview/
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
13.05.2004, 09:08 | # 49 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
_http://www.buyxtremegear.com/vc129101.html
GEFORCE 6800 ULTRA 256MB DDR цена - Regular price: $599.00 Sale price: $547.00 срок - 5/17/2004
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
13.05.2004, 23:35 | # 50 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
XFX и BFG подтягиваются вслед за Gainward
Источники, близкие к NVIDIA подтвердили, что чипы Geforce 6800 Ultra имеющие потенциал работы на частотах, превышающих номинальные 450 МГц, будут поставляться партнерам корпорации для производства специальных "штатно разогнанных" карт (мы уже писали о CoolFX от Gainward). В настоящее время есть данные о подобных разработках у Gainward (по некоторым данным, его CoolFX с водяным охлаждением может быть тактирован 500 Мгц), XFX и BFG. В настоящее время, насколько известно, у Gainward идут последние "испытания на прочность" ядра, насколько продвинулись вышеназванные конкуренты - пока не известно. (C) _www.nvworld.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
14.05.2004, 21:53 | # 51 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Фото Gainward PowerPack Ultra 2600
14/05/2004 11:02, Рожкевич Кирилл Не так давно мы уже писали о 2-х модификациях карт на базе GeForce 6800 Ultra от компании Gainward. Одна из них поставлялась с комплектом водяного охлаждения от немецкой Innovatek (модель CoolFX PowerPack! Ultra/2600 Golden Sample), вторая же, PowerPack Ultra 2600 GS, по сути, являлась обычной «ультрой» с немного увеличенными частотами. И вот сегодня на страницах ресурса Guru of 3D появилось её первое фото: _http://www.3dnews.ru/documents/news5/20040513_gainward6800_1.jpg Напомним основные характеристики карты: частоты 430/1150 МГц, 256 Мб DDR III, 256-битная шина, 2 x DVI и 1 TV выход. Что же касается цены, то она не изменилась ни на цент, лежа в районе всё тех же $710. (C) _www.nvworld.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
14.05.2004, 22:03 | # 52 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
ShaderMark NV40 vs R420
_http://www.beyond3d.com/forum/viewtopic.php?t=12314&postdays=0&postorder=asc&start=20 форум на английском
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! Последний раз редактировалось grogi; 14.05.2004 в 22:07. |
14.05.2004, 22:04 | # 53 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
15.05.2004, 09:13 | # 54 |
::VIP::
Регистрация: 07.02.2004
Адрес: fear factory
Пол: Male
Сообщения: 3 165
|
Фото Gainward PowerPack Ultra 2600 GS на базе GeForce 6800 Ultra
__________________
[!] :: HiTecH ThReaD :: [!] |
15.05.2004, 22:21 | # 55 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
GeForce 6800 Ultra и два разъема питания: в поисках истины
Lexagon | 14:42 | ссылка на материал Информация о достаточности мощности 350 Вт блока питания для использования с видеокартами GeForce 6800 Ultra неоднократно была подтверждена самыми разными источниками, и теперь все принялись ждать появления первых серийных изделий, чтобы убедиться в ее адекватности. Наши коллеги с американского сайта Hard OCP решили изучить этот вопрос на практике, подключив тестовый образец GeForce 6800 Ultra к блоку питания мощностью 430 Вт. Ход испытаний был достаточно прост. Вначале видеоплата была запущена при подключении только к первому разъему питания. Драйвер выдал сообщение о недостаточности подаваемого на видеокарту питания, в двумерном режиме появились артефакты, запуск трехмерных приложений вообще вызывал зависание системы. При подключении видеокарты только ко второму разъему питания система вообще отказалась загружаться, издав протяжный писк на этапе прохождения POST. Лишь при подключении обоих разъемов питания к видеокарте проблем не возникало. Подобные результаты несколько огорчили наших коллег, и они решили обратиться к представителям Nvidia за разъяснениями. Вот что им удалось узнать. Оказывается, работоспособность видеокарт GeForce 6800 Ultra при использовании только одного разъема питания гарантируется лишь для серийных видеокарт, а не инженерных образцов. Для превращения "жадного" инженерного образца в видеокарту с умеренным аппетитом достаточно будет обновить драйверы и прошить новый BIOS. Все серийные видеоплаты GeForce 6800 Ultra будут поставляться с новой версией BIOS, так что никаких модификаций в домашних условиях покупателям производить не придется. Тем не менее, простота подобной перемены аппетитов заставляет задуматься, насколько обоснованными были заявленные изначально требования по мощности блока питания и количеству каналов питания... (C) _www.overclockers.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
15.05.2004, 22:42 | # 56 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
- Serious Engine 2 Pixel Shader Test -
_http://www.pcekspert.com/articles/211-20.html - Serious Engine 2 Vertex Shader Test i zaključak - _http://www.pcekspert.com/articles/211-21.html там еще и игровые тесты имеются...........
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
16.05.2004, 04:13 | # 57 |
::VIP::
Регистрация: 07.02.2004
Адрес: fear factory
Пол: Male
Сообщения: 3 165
|
grogi
а ты что на nv40 прицел взял ? покупать будеш ?
__________________
[!] :: HiTecH ThReaD :: [!] |
16.05.2004, 08:24 | # 58 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
fear factor
да....по нескольким причинам: 1. удачная архитектура чипа 2. последний честный агп представитель 3. внедрение новых технологий думаю на 1-2 года хватит...а потом всяк надо будет уже полностью новый системник брать..... gigi у меня до сих пор в 1 компе стоит GF 2 MX(Asus V7100) ....во втором ФХ 5200 by Andrew Worobyew(iXBT iXBT Video Hardware Editor Moderator) "Так, на сегодня что известно: 6800 - 12 pipes. 325/700 MHz - $299 6800 GT - 16 pipes, 350/1000 MHz - $399 6800U - 16 pipes, 400 (450?)/1100 MHz - $499 ($599?) X800SE - ? pipes, ? MHz (и будет ли?) - $? X800 PRO - 12 pipes, 475/900 MHz - $399 ($299?) X800 XT - 16 pipes, ? MHz (и будет ли?) - $399 ? X800 XT PE - 16 pipes, 525/1150 MHz - $499 Учитывая достаточное количество знаков вопросов, можно сделать вывод, что рановато "сталкивать" ту или иную карту с соперником. Пока еще не выявлены точно весовые категории - что чему будет соответствовать.
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
17.05.2004, 22:09 | # 59 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Фото Gainward CoolFX PowerPack с водяным охлаждением
Мы уже писали о Gainward CoolFX PowerPack! Ultra/2600 "Golden Sample" с водяным охлаждением. Напомню вкратце - это карта на базе GeForce 6800 Ultra, но имеющая штатные частоты 450/1200 МГц (ядро/память), вместо рекомендованных NVIDIA 400/1100. Теперь желающие могут полюбоваться на монстра с ожидаемой ценой в 899 евро: Напоминаю, что данная информация еще не официальная и позже может быть изменена. (C)_www.nvworld.ru
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
17.05.2004, 22:15 | # 60 |
Moderator
Регистрация: 09.08.2002
Адрес: Kaliningrad
Пол: Male
Сообщения: 15 485
|
Трио от Albatron: 6800GT, 6800U, 6800
Компания Albatron сообщила о расширении линейки своих видеокарт тремя моделями, которые будут поставляться с мая, GeForce 6800GT (6800GT), GeForce 6800 Ultra (6800U) и собственно GeForce 6800 (6800). Согласно данным, сообщенным компанией, тактовая частота процессора первой карты (с индексом GT) – 350 МГц; 16 конвейеров, у модели 6800U количество конвейеров то же, но тактовая частота процессора увеличена до 400 МГц. Как 6800GT, так и 6800U оснащены 256 Мб GDDR3, ширина шины памяти – 256 бит; тактовые частоты памяти – 1 ГГц и 1,1 ГГц соответственно. 6800, судя по всему, имеется более-менее стандартной картой, соответствующей новой спецификации: 12 конвейеров, интересный случай с тактовой частотой ядра: изначально в данных проскочила цифра 600 МГц, которая впоследствии была скорректирована – естественно 400 МГц; объем видеопамяти карты – 128 Мб, тактовая частота – 700 МГц. Все карты имеют два 400 МГц RAMDAC, поддерживаемое максимальное разрешение – 2048x1536 пикселей (85 Гц, 32 бит). Интерфейсы у карт стандартные: 15-контактный D-Sub, DVI, S-Video. На официальном сайте фото карт пока нет, но вот коллеги с PC Watch сделали фото одной из новинок на рынке: (C)_www.ixbt.com
__________________
"Самый аккуратный водитель тот, кто забыл свои права дома" Дружно переходим по ссылке Строим город для имхо!!! |
Теги (метки) |
geforce, nvidia, видеокарта |
|
|