NVIDIA показала трассировку лучей в реальном времени
TOPMO3 / 16.08.2008 04:03 / ссылка на материал / версия для печати
Как и было обещано ранее, на конференции SIGGRAPH 2008 компания NVIDIA продемонстрировала построение изображений методом трассировки лучей в реальном времени, выполняемое с использованием фирменных GPU. Эту демонстрацию можно отчасти считать ответом на инициативы Intel, продвигающего свой перспективный продукт Larrabee, одним из применений которого как раз и станет построение 3D изображений методом трассировки лучей. NVIDIA же показала, что с этой задачей вполне справляются и её продукты, используя технологию CUDA.
Правда, пока что речь идёт скорее о теоретической возможности, так как при демонстрации использовалась недоступная обычным пользователям система Quadro Plex 2100 D4, объединяющая четыре пока что не анонсированные видеокарты Quadro FX нового поколения. Впрочем, зато такая система смогла обсчитывать достаточно сложный деморолик в разрешении 1920x1080 с использованием сглаживания со скоростью, достигающей 30 кадров в секунду.
http://www.overclockers.ru/images/ne...16/porno-1.jpg
Обсчитываемая сцена состояла примерно из двух миллионов полигонов и использовала динамическое освещение и затенение с учётом отражений и преломлений.
http://www.overclockers.ru/images/ne...16/porno-2.jpg
Кстати, сама система Quadro Plex 2100 D4, с помощью которой выполнялись расчёты, будет анонсирована в следующем месяце. Её цена составит примерно $11000.
http://www.overclockers.ru/images/ne.../16/quadro.jpg
К сказанному остаётся добавить, что прошедшая демонстрация NVIDIA – далеко не первая проба сил в построении сцен методом трассировки лучей в реальном времени. Ранее подобное шоу устраивала компания Intel, показывавшая работу популярной игры Enemy Territory: Quake Wars на четырёхпроцессорной системе с четырёхъядерными CPU семейства Tigerton, работающими на частоте 2.93 ГГц. Использование рендеринга трассировкой лучей в этом случае позволило достичь скорости до 29 кадров в секунду при разрешении 1280x720.
(C)_www.overclockers.ru
"Рождённый конкуренцией": обзор и тестирование GeForce 9800 GTX+ от компании Point of View
"Ни для кого не секрет, что ценовая война между производителями в любом секторе рынка Hi-Tech всегда способствует снижению цен на компьютерные комплектующие. В последнее время мы с вами стали свидетелями того, как компании NVIDIA пришлось дважды снизить стоимость не только своих новых видеокарт GeForce GTX 260/280, но и опустить в средний ценовой сегмент видеокарту GeForce 9800 GTX, ранее предлагавшуюся по цене в 299 долларов США. "Виной" тому, безусловно, успешный старт продуктов, основанных на графических процессорах ATI, – Radeon HD 4850 и HD 4870.
Тем не менее, NVIDIA не ограничилась только существенным снижением стоимости GeForce 9800 GTX, и в самом конце июля выпустила на рынок видеокарту GeForce 9800 GTX+, основанную на графическом процессоре G92b, выпущенном по новому, более тонкому 55-нм техпроцессу. По-правде сказать, изменения могли бы быть и более значимыми, но в случае с GeForce 9800 GTX+ NVIDIA ограничилась только небольшим повышением частоты графического процессора, что вряд ли сколь-либо весомо скажется на производительности новой видеокарты в номинальном режиме её работы.
Однако, в отличие от большинства простых пользователей, для оверклокеров перевод кристаллов (не только видеокарт) на более тонкий технологический процесс может означать не что иное, как надежду на рост оверклокерского потенциала. Порой, эти надежды оправдываются сполна, а бывало и так, что переход к более тонкому техпроцессу не приносил ожидаемых результатов. Помимо возможного роста частоты, от графического процессора G92b и видеокарт на его основе логичным было бы ожидать не только уменьшения тепловыделения, но и снижения энергопотребления, что также немаловажно в современных реалиях нашей жизни. Как произошло на этот раз вам и будет рассказано в сегодняшней статье."