Фотографии видеокарт GeForce 9400 GT в исполнении MSI
Lexagon / 24.08.2008 11:14 / ссылка на материал / версия для печати
По странному стечению обстоятельств, характеристики видеокарты GeForce 9400 GT появились на официальном сайте NVIDIA ещё в начале июня, но потом были удалены оттуда. Судя по той первой информации, GeForce 9400 GT представляет собой аналог GeForce 8400 GS с удвоенной пропускной способностью шины памяти, которая теперь имеет разрядность 128 бит. Номинальные частоты равны 450/900/800 МГц, эталонная видеокарта использует 256 Мб памяти типа DDR-2. Число потоковых процессоров равно шестнадцати.
Сайт TweakTown на этой неделе заявил, что продажи GeForce 9400 GT начнутся с 26 августа. Компания MSI, например, подготовила две видеокарты этой модели: с 512 Мб и 256 Мб памяти типа DDR-2 соответственно. Первая из них оснащается небольшим активным кулером:
http://www.overclockers.ru/images/ne.../24/msi_01.jpg
Вторая готова довольствоваться пассивным радиатором:
http://www.overclockers.ru/images/ne.../24/msi_02.jpg
Обе видеокарты имеют на задней панели порт HDMI, помимо стандартных портов DVI и D-Sub. Это позволяет использовать данные видеокарты в мультимедийных системах для просмотра видео с носителей Blu-ray и HD DVD. Видеокарты GeForce 9400 GT также должны обеспечивать поддержку CUDA и PhysX. Производитель заявляет о двукратном приросте производительности относительно GeForce 8400 GS, но это наверняка касается только быстродействия памяти.
NVIDIA скептически относится к Larrabee и Fusion
Lexagon / 24.08.2008 11:36 / ссылка на материал / версия для печати
В этом году представители NVIDIA уже не раз выступали с резкими критическими заявлениями по поводу некоторых инициатив и продуктов основных конкурентов компании, и опубликованное на страницах сайта PC Pro интервью с одним из топ-менеджеров NVIDIA лишь подтверждает эту тенденцию.
По мнению представителей NVIDIA, подход Intel к созданию графических решений класса Larrabee с x86-совместимой архитектурой оставляет слишком много неопределённости. NVIDIA считает, что её будущие продукты превзойдут Larrabee в том виде, в каком его сейчас изображает Intel, и реальность окажется гораздо хуже оптимистичных прогнозов процессорного гиганта. По оценкам одного из аналитиков, в 2010 году Larrabee предложит такой же уровень быстродействия, как видеочип AMD или NVIDIA образца 2006 года. NVIDIA разделяет эту точку зрения.
Что касается продуктов AMD, то здесь NVIDIA высказывается по поводу сразу двух решений конкурента. Во-первых, NVIDIA считает, что AMD уделяет недостаточно внимания непрофильному использованию ресурсов видеочипов - сама NVIDIA активно продвигает платформу CUDA, и считает, что графические чипы безвозвратно шагнули за пределы ускорения графики в играх.
Во-вторых, идею создания гибридных процессоров Fusion с интегрированным графическим ядром NVIDIA считает лишённой смысла. Графическое ядро занимает достаточно места на кристалле, и встроить приличную графику в процессор не удастся по экономическим причинам, а простая графика хорошо покупается теми пользователями, которые о характеристиках графической подсистемы не задумываются вообще, и не готовы за неё переплачивать. По мнению NVIDIA, у процессоров Fusion нет нормальных рыночных перспектив, а процессорные ядра лучше физически отделять от графических.
Фотографии видеочипа GT200 без крышки
Lexagon / 25.08.2008 08:58 / ссылка на материал / версия для печати
Нередко в наши дни видеочип или центральный процессор снабжаются крышкой теплораспределителя. Во-первых, она позволяет защитить кристалл чипа от механических повреждений. Во-вторых, по замыслу производителя, такая крышка призвана лучше отводить тепло от ядра. Последнее утверждение ставят под сомнение любители экстремального разгона, которые подобные крышки стремятся удалить. Однако, удачей такая "хирургическая операция" заканчивается далеко не всегда - частицы кристалла могут остаться вместе с термоклеем на внутренней поверхности крышки.
Коллегам с сайта ComputerBase.de во время визита в штаб-квартиру NVIDIA удалось запечатлеть автономно существующий (в конструктивном плане) видеочип GT200, который был лишён крышки теплораспределителя. Данная фотография позволяет нам оценить, насколько велико само графическое ядро GT200, содержащее 1,4 млрд. транзисторов.
http://www.overclockers.ru/images/ne...5/gt200_01.jpg
http://www.overclockers.ru/images/ne...5/gt200_02.jpg
Ранее оценить размеры ядра было сложно из-за наличия крышки теплораспределителя. Предполагается, что с переходом на 55 нм техпроцесс площадь ядра GT200 удастся уменьшить.
(C)_www.overclockers.ru
Жажда скорости: Экстремальный разгон Nvidia GeForce 9800 GTX
"В течение длительного времени Nvidia практически безраздельно властвовала в секторе высокопроизводительных графических карт, но история учит, что никакое господство не может продолжаться вечно. Первым чувствительным ударом по положению Nvidia стал анонс ATI Radeon HD 3870 X2, показавший, что два недорогих графических процессора, объединенных на одной плате, могут составить серьёзную конкуренцию одному ядру более высокого класса. Удар этот, однако, не стал фатальным, в первую очередь, из-за недостатков, свойственных современным мультипроцессорным графическим решениям. Тем не менее, снижение цен на ATI Radeon HD 3870 X2 сделало его серьёзным конкурентом Nvidia GeForce 9800 GTX, последнего и самого производительного однопроцессорного видеоадаптера на базе чипа G92.
Настоящий coup de grace был нанесён 25 июня, когда ATI, графическое подразделение Advanced Micro Devices, представила на суд общественности новое поколение архитектуры ATI Radeon HD. Нельзя сказать, что Nvidia GeForce 9800 GTX сдался без боя, но в эпической битве Давида и Голиафа победил всё же Давид – скромный, на первый взгляд, ATI Radeon HD 4850, изначально проектировавшийся, как «народный» видеоадаптер стоимостью всего $199. Ответные меры, предпринятые Nvidia, походили, скорее, на акт отчаяния, нежели на планомерную стратегию противостояния, и выразились, в первую очередь, в обвальном снижении цены на Nvidia GeForce 9800 GTX до конкурентоспособной цифры $199, хотя совсем недавно эта карта относилась к категории $299-$349. Другим шагом стал анонс Nvidia GeForce 9800 GTX+ с повышенными тактовыми частотами ядра. Возможно, их повышение с 675/1688 МГц до 738/1836 МГц и поможет укрепить положение карты в борьбе с ATI Radeon HD 4850, но ведь в арсенале ATI есть куда более серьёзное оружие – ATI Radeon HD 4870. Его потенциал настолько высок, что, будучи достаточно серьёзно разогнанным, он, по заявлению компании Diamond Multimedia, сможет составить конкуренцию флагманскому решению Nvidia – GeForce GTX 280.
Возникает вопрос – может ли серьёзный разгон Nvidia GeForce 9800 GTX обеспечить уверенное преимущество над ATI Radeon HD 4850 и дать хотя бы призрачную надежду на возможность соперничества с ATI Radeon HD 4870? Поиску ответа на этот вопрос и будет посвящён сегодняшний обзор. Для этого система питания Nvidia GeForce 9800 GTX подвергнется модификации, позволяющей вручную управлять напряжением питания графического процессора, после чего будет предпринята попытка выжать из него всё, на что он способен.
Как уже отмечалось, такой метод разгона крайне ненадёжен и резко повышает вероятность выхода карты из строя, но он позволит с достаточной точностью определить границы потенциала карт на базе графического процессора Nvidia G92 и сделать необходимые выводы. Такая информация должна представлять существенный интерес как для владельцев Nvidia GeForce 9800 GTX, так и для тех, кто уже приобрёл или намеревается приобрести ATI Radeon HD 4850 или ATI Radeon HD 4870."