Цитата: (ImmortalSin)
Ещё как нужны, без шеидеров HDR не HDR. Может и не 3.0 нужны а 2.0b как вы говорите, но зачем разработчики будут заморачиваться есле на 3.0 легче писать их, быстрее работают, к тому же обе ведущие компаний уже перешли к 3.0 . А то что команда Valve реализовала поддержку HDR на 2.0б так флаг им в руки, у них денег даи боже и репутация такая же, другие такого делать не будут ибо не выгодно.
Связи HDR и шейдеров 3.0 нету...
В Халфе целочисленный HDR как я понял используется, соответственно даже на FX серии оно будет работать, но это НЕ TRUE HDR!
Цитата: (TwisteR)
для сравнения GeForce 6800 - 3200 3DMark 2005)
Странные результаты... 6600GT даёт 3200 очков, в разгоне 4000...
Цитата: (Kuja)
Плюс в дровах AAх8 и AFx16.
8xAA это считаю лишнее, думаю хватит и 4x...
А анизотропия 8x от 16x не очень сильно отличается, поэтому выставление в 16x просто лишняя трата ресурсов...
Выставляя графику на максимум нужно думать насколько нужно тебе включение этой фишки, что оно тебе даст и стоит ли эта фишка той производительности которую ты за неё отдаёшь, потому что возможно стоит лучше включить другие графические фишки вместо неё, что даст более приятную картинку... Например нет особого смысла ставить разрешение 1600x1200 и при этом делать 8x сглаживание, тогда уж лучше или 800x600-1024x768 и 4x (ну или 8x если уж очень хочется) или же 1600x1200 и NoAA/2xAA...
Цитата: (KING<3BEER)
1) А чем отличаются Gf NX6600 и ND6600?
2) А че лучше то? NX или ND?
1) Просто это названия моделей у разных производителей, чип соответственно одинаковый, не путайте пожалуйста названия моделей и названия чипов, а то иногда название модели содержит слова типа Ultra и некоторые думают, что это чип Ultra...
2) Дело вкуса...

Цитата: (Kuja)
X800 поддерживает HDR в полной мере.
Он поддерживает (если можно вообще это слово применить) так называемый целочисленный HDR...
Цитата:
Лучше наверное иметь играбельный уровень FPS на X800XL, чем сидеть с 6600GT например с шейдерами 3.0 и со слайд шоу. Все равно же не вытянет карта.
Так как количества инструкций 2.0b хватит с головой. Ну можно на 3.0 написать эффект на 100000 иструкций и любоваться кадром в 2-3 FPS с этим эффектом.
Сейчас самые навореченные эффекты не превышают 200-300, ну максимум 1000, в еще разрабатываемых играх, инструкций.
Не в количестве инструкций прелесть шейдеров 3.0...
Есть шейдер написанный на языке высокого уровня, компилируем его под 2.0 - получается к примеру 100 инструкций, компилируем под 3.0 - получается к примеру 20 инструкций, соответственно на третьих шейдерах будет работать быстрее, потому что благодаря возможностям третьих шейдеров можно код выполнить намного быстрее, потому как есть какието дополнительные команды... Это как у процов к примеру SSE - дополнительные инструкции, соответсвенно переписанный код на SSE будет выполняться быстрее, чем такой же код, но без него, соответственно можно на SSE реализовать больше вычислений за те же ресурсы... С процом сравнение я для простоты привёл, ибо до некоторых не доходит отличие шейдеров...
Цитата:
X1900XTX 512мб. сейчас самая быстрая видеокарта. И стоит она дешевле 7800GTX 256 мб.
О каких пол шага ты говоришь? Вот выйдет 7900GTX тогда посмотрим. А пока ATi впереди.
Все эти топовые войны только для имиджа и массе подобные карты не нужны изза их огромной цены... Восновном смотрят на средний ценовой диапазон - где у Ати позиция слабее...
Цитата:
И как ты можешь объяснить то, что у меня на 2.0b в HL2: Lost Coast и FarCry и Black & White и SP3: Chaos Theory эффекты тютелько в тютельку как на GeForce 7800GTX. У которой SM 3.0. А у меня какие-то 2.0b
Тебе уже кидали ссылку на статью на THG...
http://www.thg.ru/graphic/20060114/index.htmlЦитата:
Разница в том, что для того чтобы красивые эффекты работали только на SM 3.0 разработчикам пропрачивают. Как и чтоб все работало на SM 2.0b. Вот и все.
Дело не в проплате... Некоторые эффекты с приемлемой производительностью просто не реализовать на SM 2.0b...
Kuja, давай разберёмся раз и навсегда в отличии шейдеров, а то ты слишком высоко ставишь возможности 2.0b...
Версия пиксельных шейдеров / 2.0 (R9600-R9800) / 2.0a (GF FX) / 2.0b (Ati X800) / 3.0 (GF6/7, Ati X1800)
Dependent Texture Limit / 4 / No limit / 4 / No limit
Texture Instruction Limit / 32 / unlimited / unlimited / unlimited
Position Register / - / - / - / YES
Instruction Slots / 32 + 64 / 512 / 512 / >= 512
Executed Instructions / 32 + 64 / 512 / 512 / 2^16 (65,535)
Interpolated Registers / 2 + 8 / 2 + 8 / 2 + 8 / 10
Instruction Predication / - / YES / - / YES
Indexed Input Registers / - / - / - / YES
Temp Registers / 12 / 22 / 32 / 32
Constant Registers / 32 / 32 / 32 / 224
Arbitrary Swizzling / - YES / - / YES
Gradient Instructions / - / YES / - / YES
Loop Count Register / - / - / - / YES
Face Register (2-sided lighting) / - / - / - / YES
Dynamic Flow Control Depth / - / - / - / 24
Может теперь тебе станет видно, что 2.0b по возможностям даже хуже шейдеров на серии GeForce FX... Производительность уже соответственно другая тема и к возможностям отношения не имеет... Нравится тебе это или нет, но это факт, так есть на самом деле и ничего с этим не поделаешь... Надеюсь от такой новости у тебя инфаркта не будет...

Я настоятельно тебе рекомендую перестать говорить о том, в чём не разбираешься и тем самым вводить людей в заблуждение, я думаю здесь много пользователей которые не разбираются в подобных вещах и твоими громкими постами ты только введёшь их в заблуждение в котором находишься и сам... Ты лучше вначале понормальному разберись в вопросе, а потом советуй, а то начитаешься всяких форумов аля overclockers.ru, где много тех кто не понимает о чём говорит......
Я тебе в прошлый раз репутацию за перлы понизил, но похоже на тебя это недействует, буду тогда репутацию за каждый перл понижать, может тогда будешь сначала разбираться в том о чём говоришь, а лишь потом говорить...
Прошу модераторов меня простить за пост не совсем по теме, просто молчать не могу когда неправду пишут и пользователей форума в заблуждение вводят... Старался не отвечать на посты где затрагивается вопрос Ati vs Nvidia и не разводить флейм...
В данной теме восновном обсуждаются вопросы "пойдёт ли Обливион на моём железе" и "какая карта лучше", может всё таки последнее вынести в другой раздел форума? А то заходишь чтобы почитать чтото новое, а видишь споры какая видюха круче...
Думаю сейчас для большинства было бы интереснее всего взять карточки 6800GS/7800GS - ИМХО соотношение цена/производительность отличная... Я вот планирую взять 7800GS, думаю в Обливионе буду играться на высоком качестве графики... Как раз апгрейд должен успеть сделать до выхода Обливиона...