Поиск - Участники - Календарь
Перейти к полной версии: Системные требования
ElderScrolls.Net Conference > The Elder Scrolls > TES IV: Oblivion > Технические вопросы
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28
Merlin
Покупаем карточки

NVIDIA Quadro® FX 4500, NVIDIA Quadro FX 4400, и NVIDIA Quadro FX 4000

И не мучаемся.. biggrin.gif , на этих точно всё пойдёт по максимуму.

http://nvidia.ru/products/QuadroFX/qfx_uhe.shtml

Были б деньги, сам бы купил cool.gif
Kuja
>> Merlin:
В своем уме или как?
Цитата: 
NVIDIA Quadro® FX 4500, NVIDIA Quadro FX 4400, и NVIDIA Quadro FX 4000

Это карты для 3D моделирования и т.п. Для игр не пригодны, так как не поддерживают игровые технологии.
[FG]
>> Kuja:
Повежливее.
Kuja
http://forums.overclockers.ru/viewtopic.ph...der=asc&start=0

Ветка о PS 2.0 vs. PS 3.0

Вывод идет к тому, что на шейдерах 2.0b тоже можно делать HDR в полном объеме. И все фишки PS 3.0 тоже. Просто разработчики леняться и имея под рукой PS 3.0 пишут под них. Хотя могут написть так, что работало под обе версии.
CoM
ATI подписалась на ps 3.0, теперь резона нет на 2.0b заморачиваться при разработке топ-игр.
Killng55
18 день Утренней Звезды, будет днём когда можно скачать 3DMark 2006.
Там будет поддержка HDR и PS 3.0.

http://www.gamespot.com/promos/2006/3dmark06/index.html

http://www.gamespot.com/news/6142457.html
Kuja
Цитата: 
ATI подписалась на ps 3.0, теперь резона нет на 2.0b заморачиваться при разработке топ-игр.

Писать игру только под последние видеокарты - это убыток для разработчиков. Типа кто купил крутую карту - любуется. А кто с моделью чуть пониже - фига. Геймеры и фанаты их не поймут.

Вывод из темы PS 2.0 vs. PS 3.0:
Сегодня все эффеты ps 3 можно делать и на 2.0b. Но разработчики леняться. Имея под рукой PS 3, под ps 2.0b мало что делают.
Обливион изначально писался под 2.0b а уж потом что-то под 3.0 доводили. Вероятно визуально не будет различий. Либо их придется с лупой выискивать.
То что HDR не пашет на 2.0b, а работает только на PS 3.0 - вранье. Все работает. Скриншоты из HL2: LC (GeForce 7800GXT и X850XT использовались для снятия скринов) это доказывают.
Если HDR не работает на ATi X8хх серии, то это опять лень разработчиков.
Шейдеры и HDR вообще между собой не связаны.
Сегодня от 6600 карт Нвидия толку ноль (то есть выбирая карту в одинаковом ценовом диапозоне и делая ставку на 6600GT с PS 3.0 ничего не выигрываете). Их PS 3.0 считай вообще не юзаются. Просто говорят, что эффекты у нас на PS 3.0 написаны. Это и 2.0b отрисовать могут. Хотя если разработчики опять поленятся, то визуально будет немного различимо.
Nvidia сделала хорошую рекламу. Очень похоже на 64 бита у процессоров. Слов много, а толку мало. На сегодняшний день.
Игр с нормальной(полноценной подднржкой 3.0 ) нет.

Пока выводы такие. Но следствие идет дальше...

Про 3DMark2006: они писали, что программируют на микрософтском компиляторе, которому всё равно какая версия шейдеров 2.0 или 3.0, он при загрузке в карту составит такой код, какой удобен карте. А при современной длине шейдеров и 3.0 и 2.0b дадут абсолютно одинаковую картинку.
Kuja
Цитата: 
ATI подписалась на ps 3.0, теперь резона нет на 2.0b заморачиваться при разработке топ-игр.

Писать игру только под последние видеокарты - это убыток для разработчиков. Типа кто купил крутую карту - любуется. А кто с моделью чуть пониже - фига. Геймеры и фанаты их не поймут.

Вывод из темы PS 2.0 vs. PS 3.0:
Сегодня все эффеты ps 3 можно делать и на 2.0b. Но разработчики леняться. Имея под рукой PS 3, под ps 2.0b мало что делают.
Обливион изначально писался под 2.0b а уж потом что-то под 3.0 доводили. Вероятно визуально не будет различий. Либо их придется с лупой выискивать.
То что HDR не пашет на 2.0b, а работает только на PS 3.0 - вранье. Все работает. Скриншоты из HL2: LC (GeForce 7800GXT и X850XT использовались для снятия скринов) это доказывают.
Если HDR не работает на ATi X8хх серии, то это опять лень разработчиков.
Шейдеры и HDR вообще между собой не связаны.
Сегодня от 6600 карт Нвидия толку ноль (то есть выбирая карту в одинаковом ценовом диапозоне и делая ставку на 6600GT с PS 3.0 ничего не выигрываете). Их PS 3.0 считай вообще не юзаются. Просто говорят, что эффекты у нас на PS 3.0 написаны. Это и 2.0b отрисовать могут. Хотя если разработчики опять поленятся, то визуально будет немного различимо.
Nvidia сделала хорошую рекламу. Очень похоже на 64 бита у процессоров. Слов много, а толку мало. На сегодняшний день.
Игр с нормальной(полноценной подднржкой 3.0 ) нет.

Пока выводы такие. Но следствие идет дальше...

Про 3DMark2006: они писали, что программируют на микрософтском компиляторе, которому всё равно какая версия шейдеров 2.0 или 3.0, он при загрузке в карту составит такой код, какой удобен карте. А при современной длине шейдеров и 3.0 и 2.0b дадут абсолютно одинаковую картинку.
ImmortalSin
Цитата: 
Шейдеры и HDR вообще между собой не связаны.

Не правда, для реализаций некоторых эфектов HDR интенсивно используются шеидеры.
Цитата: 
Игр с нормальной(полноценной подднржкой 3.0 ) нет.

Список того что умеет SM3.0 и SM2.0b в студию пожалуиста.
Цитата: 
что программируют на микрософтском компиляторе, которому всё равно какая версия шейдеров 2.0 или 3.0,

Как работает компилятор ты тоже не знаеш так что не факт что визуальное качество не отличается.
Цитата: 
Если HDR не работает на ATi X8хх серии, то это опять лень разработчиков.

Есле он будет работать то от этого пользы также 0 т.к для него нужны ресурсы которой карты этой серий не располагают.

Я уверен что, то что умеет SM3.0 не умеет SM2.0!
Kuja
Это высказывания гуру по 3D графике. Сам почитай ветку.

Цитата: 
для него нужны ресурсы которой карты этой серий не располагают

Ресурсы есть. HL2: LC это доказал.
Goshad
Вот здесь http://www.tomshardware.com/2006/01/13/new...atures_in_2006/ все очень наглядно написано
Kuja
>> Goshad:
Эта ссылка тут уже была.

Цитата: 
ATI upgraded its new graphics boards to support PixelShader 2.1

Не 2.1, а 2.0b. Еще и с ошибками пишут.

http://images.tomshardware.com/2006/01/13/...xelshader_3.jpg
Вот доказательство того, что 2.0b могу тоже самое, что и 3.0.

http://images.tomshardware.com/2006/01/13/...xelshader_2.jpg
http://images.tomshardware.com/2006/01/13/...xelshader_3.jpg
Это уже 2.0 (не 2.0b) и 3.0 сравниваются.

И далее по всей статье идет сравнение 2.0 и 3.0

Цитата: 
ИМХО самое главное изменение в ПС3.0 - удобство программирования... Всё остально типа ХДР, неограниченной длины и т.д. пустая маркетинговая утка. Изначально код пишется под ПС2.0 т.к. их сложнее программить, а потом портируется под ПС3.0. Разницу в картинке можно списать на различие в реализации тех или иных процессов в дровах, дирехт икс.

Так же как правило для улучшения картинки в ПС3.0 может добавится что - либо но это редко......
В основном все отличия в скорости - за счет более простой реализации и наличию оптимизированного компилера под 3.0

На мой взгляд ХДР при должном уровне программера может быть реализован руками на ПС2.0 без проблем...

http://forums.overclockers.ru/viewtopic.ph...2037188#2037188
© by Andreika

Я с этим ИМХО согласен.
CoM
Цитата: (Kuja @ 18.01.06 - 17:36)
Писать игру только под последние видеокарты - это убыток для разработчиков. Типа кто купил крутую карту - любуется. А кто с моделью чуть пониже - фига. Геймеры и фанаты их не поймут.
[right]*[/right]


Вспомним первые игры с поддержкой шейдеров - большинство видеокарт было без онной smile.gif и что? Как раз и было "любуемся, либо фига" - нука, как там Морровинд и его чудесная вода?

Цитата: (Kuja @ 18.01.06 - 17:36)
Обливион изначально писался под 2.0b а уж потом что-то под 3.0 доводили. Вероятно визуально не будет различий. Либо их придется с лупой выискивать.
[right]*[/right]


Откуда такая детальная информация?

Цитата: (Kuja @ 18.01.06 - 17:36)
Сегодня все эффеты ps 3 можно делать и на 2.0b. Но разработчики леняться. Имея под рукой PS 3, под ps 2.0b мало что делают.
[right]*[/right]


Дорогой Kuja зачем противоречить всему написанному не тобой? Чем отличается по смыслу высказывание "ATI подписалась на ps 3.0, теперь резона нет на 2.0b заморачиваться при разработке топ-игр."? Делать можно, но делать никто не будет ... потому что 3.0 проше, выгодней, популярней, поддерживается  производителем и т.д.

2.0 и др. дефакто использутся производителями мидлэнд (за редким исключением) для привлечения большего контингента, потому что не уверены в изначальной популярности/продаваемости продукта.


З.Ы. " Разницу в картинке можно списать на различие в реализации тех или иных процессов в дровах, дирехт икс." Процессы реализуются без оглядки на возможности технологии smile.gif?

Ммм ...

"На мой взгляд ХДР при должном уровне программера может быть реализован руками на ПС2.0 без проблем..." "Без проблем" ... какое безапеляционное заявление smile.gif, не слишком ли самонадеянно? "© by Andreika" видимо ведущий программист,  в одной из топ-контор?
Kuja
Цитата: 
Вспомним первые игры с поддержкой шейдеров - большинство видеокарт было без онной

Тогда была революция. Новая технология и т.д. А сейчас просто ее улучшение. И тогда не во всех новых играх шейдеры то были. А сейчас пихают везде где можно.

Цитата: 
Откуда такая детальная информация?

Новости на главной странице сайта ESN. Всегда в курсе. wink.gif

Цитата: 
"На мой взгляд ХДР при должном уровне программера может быть реализован руками на ПС2.0 без проблем..." "Без проблем" ... какое безапеляционное заявление smile.gif, не слишком ли самонадеянно? "© by Andreika" видимо ведущий программист,  в одной из топ-контор?

Для тех кто в танке еще раз говорю. Half-Life2: Lost Coast. Скрины с X850XT и GeForce780GTX один в один. Сравнивал полиграфист.

Цитата: 
2.0 и др. дефакто использутся производителями мидлэнд

Хочешь сказать, что X850 это миддл энд. Тебя не поймут миллионы.

Цитата: 
Делать можно, но делать никто не будет ... потому что 3.0 проше, выгодней, популярней, поддерживается  производителем и т.д.

Разработчики тоже кушать хотят. А их зарплата завасит от количества проданных игр. Если они всегда и все будут делать для топ видеокарт (коих обладателей меньшенство), а остальным показывать фигу - никто их игры покупать не будет.
Пока обладателей GeForce FX, ATI X800 большинство им придется писать эффеты преимущественно под 2.0b. Поэтому не популярней и не выгодней.
К концу 2006 года обладателй новых карт станет больше и тогда все можно писать под PS 3.0
Vaalsvijk
Ребята! (большая просьба не удалять)!!!!Очень больное всё таки как TES IV пойдет у меня конфиг системы: проц:Athlon XP 2200+;maTb: DFI AD 77 <KT 400>;RAM 512mb;video: GeForce 6600 <Gigabyte>.
Kuja
>> Vaalsvijk:
Ну еклмн! FAQ висит перед глазами с похожей конфигурацией. Только твоя еще слабее.
boblen
Пойдет, хоть на минимуе, жа пойдет... я бы еще памяти прикупил, да проц помощнее (с последним как раз проблем больше, замену найти уже трудно). А вообще не так уж долго до выхода осталось - а там и определимся у кого как идет...
ImmortalSin
Цитата: 
Разработчики тоже кушать хотят. А их зарплата завасит от количества проданных игр. Если они всегда и все будут делать для топ видеокарт (коих обладателей меньшенство), а остальным показывать фигу - никто их игры покупать не будет.
Пока обладателей GeForce FX, ATI X800 большинство им придется писать эффеты преимущественно под 2.0b. Поэтому не популярней и не выгодней.

Ты это скажи разрабам сплинтер чела 3 wink.gif
У них проблем с продажеи небыло, хоть и обладатели х8.. серий любовались лиш 1.1 шеидерами.
Ах да, есле бы SM3.0 не отличался от 2.0a/b то его бы и небыло. Нафиг разрабам париться есле можно тоже самое зделать раз в 20 быстреи(пример), и потом разница в качестве есть но это уже может и не будет реализовано СЕГОДНЯ, по этому все говорят что разницы нету.
А ХЛ:ЛК доказал (по моему мнению) что их нет.
Kuja
Цитата: 
Ты это скажи разрабам сплинтер чела 3

К Splinter cell 3 выпусти давно патч в котором все тоже самое рисуется шейдерами 2.0b tongue.gif
Urfin
Цитата: 
Разработчики тоже кушать хотят. А их зарплата завасит от количества проданных игр

Жизнь рядового разработчика ну никак не зависит от того сколько копий продали. Он пришел, свое дело сделал, зарплату по контракту получил и все. И сколько там продали, чего, как - это его не волнует и на него никак не влияет.

Количество проданных копий влияет только на прибыли издателя и, если независимая студия получает проценты с продаж, доход самой конторы. Но если студия продала игру за вполне конкретную сумму (что так же не редкость), то кроме издателя да критиков никого объемы продаж не волнуют.
Kuja
>> Urfin:
offtop
Если продукт созданный конкретной фирмой-разработчиком плохо продается. И еле еле окупает или даже не окупает вложенных на разработку игры денег+рекламу, то как правило контракт с разработчиком разрывается. Нет новых контрактов - нет денег. Нет денег - нет зарплаты. Разработчики не работают. Фирма закрывается.
Поэтому чтоб иметь постоянную зарплату разработчику и фирме-разработчику надо делать проекты, которые хорошо продаются.

А за плохую игру на разработчика издатель еще может и иск подать (дабы вернуть вложенные на воздух деньги). Мол говорили, что будет супер-пупер. А вышло хуже некуда.
/offtop
ImmortalSin
Ктото тут говорит что х800 для Обливиона за глаза хватит, так я вот хотел спросить, это на максимальнои или как?
Kuja
X850XT 100% хватит. Для высоких. А насчет макс. сейчас гадать не буду.
Хотя X800XL - http://img395.imageshack.us/my.php?image=fear0zq.gif
ImmortalSin
Упалподстол....ржунимагу.....
Увереность выше крыши а учитывания ситуаций 0.
А скрин можешь комуто другому показывать потому что информативности тоже 0 а на слово не поверю.....я про настроики графики.
Цитата: 
К Splinter cell 3 выпусти давно патч в котором все тоже самое рисуется шейдерами 2.0b

Сути не меняет, разрабы выпустили игру и она не поддерживала все шеидеры и на продаже это не отразилось. Есле же брать с патчем то и другие разрабы со временем могут выпустить патч а сначала руководится принципом "фиги".
Kuja
http://people.overclockers.ru/GDEAD/record10

Про ATi Radeon X1900XT/XTX
Можно пускать слюни:
Цитата: 
Number of Transistors - 384m
Core Speed - 650Mhz
Pixel Pipeline - 16
Pixel Shader Processors - 48
Vertex Shader Processors - 8
Memory Speed - 1550Mhz
Memory Latency - 1.2ns
ImmortalSin
Насчёт видюхи это давно извесно. И у памяти не 1.2нс а 1.1
Арто
Хмм. некоторые соображения по поводу требований. Ну-ка вспомните, на каких сист.даных морровинд летал? 1 гб оперативки,2.2-2.4 проц, так?(видюху в рассмотрение не беру) следовательно, Oblivion (а это игра нового поколения) должна требовать на порядок более высокие данные, и 2 гб опер. и 3 ггц проц это отнюдь не преувеличение, по-моему.
Kuja
>> Арто:
Морровинд летал и на процессоре ~1.5Ghz и 512 мб. оперативки. Главное плагами игру не нагружать и держать систему в незагруженном разнвм софтом состоянии (Касперские там и т.д.).
А к видеокарте он вообще был нетробователен. Можно было комфортно и на GF4MX играть.
[FG]
Ну, скажем, в MW город Балмора и на моей текущей конфигурации не летает (по моим меркам и понятиям) с макс. настройками.
APAXHA
[FG] - поддерживаю(оспаривая мнение Kuja), у меня, на моем не слабом компе, тормозит почти также, как и тогда, когда у меня были Geforce 5200, 512 ОЗУ, и проц 1800Атлон(в сравнение с Geforce FX6800GT/1gb ОЗУ/Athlon 64)...вотъ...
Kuja
Это кривокосость движка. Тут будет тормозить при любых конфигурациях.
[FG]
Намек, я думаю, понятен. Как и опрометчивые утверждения некоторых личностей о том, что все будет "летать". Увы, действительность всегда сильно отличается от желаемого. Так что давайте перестанем гадать о точных требованиях. До момента релиза или публикации официальной и точной информации.
Kuja
http://www.ixbt.com/video2/r580-part1.shtml
ATi Radeon X1900XTX - новый король 3D графики.

Карты уже в продаже. Даже ниже рекомендуемой цены.
http://www.newegg.com/Product/Product.asp?...N82E16814102671

А GeForce 7800GTX 512mb днем с огнем не сыщешь.

Цены на X1800 резко падают. Так как они сняты с производства. X1800XL с 512mb можно всего за 299$ купить уже.
Goshad
Цитата: (Kuja @ 24.01.06 - 12:38)
http://www.ixbt.com/video2/r580-part1.shtml
ATi Radeon X1900XTX - новый король 3D графики.

Карты уже в продаже. Даже ниже рекомендуемой цены.
http://www.newegg.com/Product/Product.asp?...N82E16814102671

А GeForce 7800GTX 512mb днем с огнем не сыщешь.
[right]*[/right]


Действительно новый король, только через пол года после выпуска G70.
Карты в продаже  в США, не более двух штук в одни руки, т.е. их немного и скоро они могут кончиться, а могут и не кончиться.

Резюме: великая радость для фанов ATI - наконец-то продукты их любимой компании смогли догнать и перегнать G70, все остальные радуются усилению конкуренции на рынке и ждут новый топовый процессор от Nvidia который выйдет в начале марта.
Kuja
>> Goshad:
Дело в том, что в первые дни уже можно купить топовую видеокарту от АТИ. И не только в США. В Японии тоже есть. А 7800GTX 512mb нет вообще нигде. Так сказать Phantom Edition.
Первая партия X1900 - 10000 штук. Кончится не должны. Вторые партии на подходе.

Цитата: 
новый топовый процессор от Nvidia который выйдет в начале марта.

И что. Осенью R600 выйдет. Это чихарда уже сколько лет тянется.
Unsoul
А когда новый жефорс выйдет не подскажите??И какая оптимальная видюха нужна для Обвилиона??
Kuja
Марте-апреле.
Оптимально - это все что уровня X800/GeForce 6800 и выше.

Еще обзор:
http://3dnews.ru/video/ati_x1900xtx_crossfire/index.htm
Goshad
Так я к тому и веду, что все это чихарда, но вот X1900 кажися очень сильная карточка, надо посмотреть, что предложит NVidia и уже выбирать. А там еще Windows Vista, новый слот от АМД, PS3 и множество других интересных событий, так что в 2006 году рынок железа дожен жечь, а мы с вами радоваться.
boblen
Чему же радоваться, если денег на все новинки не хватает (да что новинки - и на середнячки набирать надо...) Ну, разве что, техпроцессу.
ImmortalSin
Цитата: 
Осенью R600 выйдет

Кто это сказал?
[FG]
Господа, хотелось бы обратить ваше внимание, что мы тут осуждаем не даты выхода чипсетов и различных хай-тек решений для графических плат от ATI и NVIDIA.
Vedmak
Странно, почему не обсуждается немецкий PC Games. Эти журналисты играли в Обливион и на сайте waiting4oblivion.com написано их мнение о требуемом железе:

"The PC Games reviewers played the game on machine with an AMD Athlon 64 FX-55 processor with one GByte of RAM and a NVidia GeForec 7800 GT. They were suprised the game worked so well with "only" 1 GByte of RAM, remarking that loading times between areas were almost non-existant even with that amount.

Minimum required:
  Video: GeForce 6800 GS or equivalent w/ 256 MB
  CPU: AMD Athlon 64 3500+ or equivalent
  RAM: 1 GByte

Recommended:
  Video: GeForce 7800 GTX or equivalent w/ 256 MB
  CPU: AMD Athlon 64 X2 4800+ or equivalent
  RAM: 2 GByte


Now, please keep in mind these recommendations are not official."



Цитата: (Reaver @ 26.01.06 - 01:02)
Семь скринов из вышеупомянутого PC Games, все остальные в статье - старые:

Разве это "старье", Reaver?
[FG]
Это не официальная информация. С таким же успехом, мы можем написать тоже самое. Обоснований нет.
Vedmak
То что это неофициальные рекомендации, написано и на них не надо сильно расчитывать, это лишь предположения. Но какие нужны обоснования? То что журналисты играли в игру и смогли запустить на данной конфигурации (AMD Athlon 64 FX-55 processor with one GByte of RAM and a NVidia GeForec 7800 GT)?
Kuja
Цитата: 
Но какие нужны обоснования?

Руки у них кривые. Вот и все.

Цитата: 
"The PC Games reviewers played the game on machine with an AMD Athlon 64 FX-55 processor with one GByte of RAM and a NVidia GeForec 7800 GT. They were suprised the game worked so well with "only" 1 GByte of RAM, remarking that loading times between areas were almost non-existant even with that amount.
Minimum required:
  Video: GeForce 6800 GS or equivalent w/ 256 MB
  CPU: AMD Athlon 64 3500+ or equivalent
  RAM: 1 GByte
Recommended:
  Video: GeForce 7800 GTX or equivalent w/ 256 MB
  CPU: AMD Athlon 64 X2 4800+ or equivalent
  RAM: 2 GByte
Now, please keep in mind these recommendations are not official."


Со своей точки зрения заявляю, что это чистой воды брехня. Написано чисто от балды. Даже без знания дела. Кто с такими требования ми вообще купит игру?! Простите, не идиоты игру делают.

добавлено Kuja - [mergetime]1138335688[/mergetime]
Последний обзор X1900XTX от Fcenter.
http://www.fcenter.ru/online.shtml?article...re/videos/16410
Executor
Kuja: Ты так интенсивно тут выкладываешь ссылки всяких обзоров топовых карт, что создаётся впечатление, что ты собираешься их покупать для Обливиона... smile.gif Это всё топовые решения и массе они совершенно не интересны изза своей высокой цены... Основной народ это предел $200-$300... Купят топовые карты лишь единицы, это просто борьба компаний за лидерство...
IliaV
Цитата: (Executor @ 27.01.06 - 10:04)
Kuja: Ты так интенсивно тут выкладываешь ссылки всяких обзоров топовых карт, что создаётся впечатление, что ты собираешься их покупать для Обливиона... smile.gif Это всё топовые решения и массе они совершенно не интересны изза своей высокой цены... Основной народ это предел $200-$300... Купят топовые карты лишь единицы, это просто борьба компаний за лидерство...
[right]*[/right]
Поэтому, самый нормальный вариант сейчас по цена/производительность - это модели GS от нвидии - 6800gs, 7800gs. Тем более, что есть и для АГП 7800гс от лидтека.
Kuja
Цитата: 
Поэтому, самый нормальный вариант сейчас по цена/производительность - это модели GS от нвидии - 6800gs, 7800gs.

И X800GT, X800GTO и X800XL от ATi.

to Executor
Да я присматриваюсь к X1900XT.
Сейчас можно купить X850XT (экс топовое решение) за 300$. По моемому очень неплохой для Обливиона выбор будет. Либо 6800GT.

И мало ли, что не интресны. Хочешь играть на высоких настройках в новейшие игры - изволь иметь достойное железо. Выкладываю обзоры для общего развития.
kazaks
Процессор: AMD AthlonXP 2500+ or 2600+ (Barton Core, 333MHz FSB)
Оперативная память: 1024MB (1GB) RAM
Видеокарта: ATi Radeon 9800pro, AGP with 256MB video RAM
Привод: 4x DVD-ROM (Dual Layer read)

простите если повтаряюсь
Упрощенная версия форума. Для перехода в полную нажмите на эту ссылку.
Invision Power Board © 2001-2025 Invision Power Services, Inc.