PDA

Просмотр полной версии : Производительность или снова о FPS.



228ShAD_Liar
01.07.2003, 09:44
ткните носом, плз, неразумного где у меня узкое место?

имеем две видеокарты:
1. Card name: NVIDIA GeForce4 MX 440 (NoName)
2. Card name: NVIDIA GeForce FX 5200 (Asus)
у обоих по 128MB памяти.

тестовые треки:
1. Горы - лето.
2. Москва - зима.
штурмуем наземную технику. вид из кабины.

технология замера FPS:
запускаем трек. переходим в комстроку. fps START SHOW. выход. ждем 2 мин. по таймеру трека. pause. списываем данные.

после каждой смены режима - полный перегруз игры.

настройки игры:
дравер OpenGL (на DirectX показатели того хуже)
видео "настройки по умолчанию" (при смене на другие разницы ощутимо нет)

имеем: бледный вид. два дня экспериментов. мутные глаза. изжогу.
так как непонятные странности.

по всем замерам MX440 делает FX5200 на несколько FPS(доходит до десятков)!!!
ну не может этого быть?!?

если надо всю цифирь - могу привести.

зы: в UnrealTournament у 440mx fps тоже круче. :)

------------------
System Information
------------------
Operating System: Windows XP Professional (5.1, Build 2600) (2600.xpclient.010817-1148)
Language: Russian (Regional Setting: Russian)
MB: GA-8ST667-F3
BIOS: Award Modular BIOS v6.00PG
Processor: Intel(R) Celeron(R) CPU 1.70GHz
Memory: 512MB RAM (DDR 333)
DirectX Version: DirectX 9.0 (4.09.0000.0900)
Sound Devices: Avance AC97 Audio
NVidia_Detonator: 44.03_win2kxp_international.exe

Balamut
01.07.2003, 10:06
Ну в общем то всё правильно, если MX440 полноценная, а не обрезок выпущенный в последнее время, то она должна "делать" FX5200 (особенно если 5200 не ultra).

Анизотропную фильтрацию и сглаживание включать на обоих карточках строго воспрещается! :)
Если в Ил-2 "настройки по умолчанию", то надо выбрать "Фильтрация" - трилинейная, "Компрессия текстур" - S3TC, убрать галочку из чекбокса "Анизотропная фильтрация".
Но это и так, наверное, известно. Просьба не пинать если зря повторил. :)

Leshik
01.07.2003, 10:28
http://fps.squad.ru/pn_712/html/modules.php?op=modload&name=phpBB_14&file=index&action=viewforum&forum=2

Пройдись по топикам "Настройка"

23AG_Oves
01.07.2003, 10:32
FX 5200 ничем не лучше MX440, кроме аппаратной поддержки DX9. А в остальном может даже и хуже. Отсюда и результат.
А вообще тема для "настройки харда и софта".

MK
01.07.2003, 10:49
Processor: Intel(R) Celeron(R) CPU 1.70GHz
шутить изволите???
этож не процессор....

Karaya
01.07.2003, 15:39
Originally posted by 228ShAD_Liar
ткните носом, плз, неразумного где у меня узкое место?

имеем две видеокарты:
1. Card name: NVIDIA GeForce4 MX 440 (NoName)
2. Card name: NVIDIA GeForce FX 5200 (Asus)
у обоих по 128MB памяти.

тестовые треки:
1. Горы - лето.
2. Москва - зима.
штурмуем наземную технику. вид из кабины.

технология замера FPS:
запускаем трек. переходим в комстроку. fps START SHOW. выход. ждем 2 мин. по таймеру трека. pause. списываем данные.

после каждой смены режима - полный перегруз игры.

настройки игры:
дравер OpenGL (на DirectX показатели того хуже)
видео "настройки по умолчанию" (при смене на другие разницы ощутимо нет)

имеем: бледный вид. два дня экспериментов. мутные глаза. изжогу.
так как непонятные странности.

по всем замерам MX440 делает FX5200 на несколько FPS(доходит до десятков)!!!
ну не может этого быть?!?

если надо всю цифирь - могу привести.

зы: в UnrealTournament у 440mx fps тоже круче. :)

------------------
System Information
------------------
Operating System: Windows XP Professional (5.1, Build 2600) (2600.xpclient.010817-1148)
Language: Russian (Regional Setting: Russian)
MB: GA-8ST667-F3
BIOS: Award Modular BIOS v6.00PG
Processor: Intel(R) Celeron(R) CPU 1.70GHz
Memory: 512MB RAM (DDR 333)
DirectX Version: DirectX 9.0 (4.09.0000.0900)
Sound Devices: Avance AC97 Audio
NVidia_Detonator: 44.03_win2kxp_international.exe

Я как железячник скажу тебе, не стоит карточку сувать NO NAME, отстой редкостный, возьми себе ASUS 9280 TI200 128 mb, у нас многие заюзали ее и хорошие отзывы, я правда Тi 4600 юзаю.

Max972
01.07.2003, 15:48
Аналогично. С Asus GF3 Ti200 (разогнанная) с ААх2 и АФх4 (1024х768х32) - порядка 30 fps и никаких проблем (если шрейдерную воду не включать ;) ).

3GIAP_Hazard
01.07.2003, 16:19
Если не изменяет память на ixbt.com писали, что 5200 = грабеж и провокация. То есть: цена менее 100 у.е., при этом работает зачастую медленнее 440МХ. (которая сейчас стоит 60-65 енотов 128 битная).

Max972
01.07.2003, 16:57
На мой провокационный вопрос продавцу в "Компьютер-центре КЕЙ" (после того, как я дал понять, что полным чайником не являюсь ;) ), так чем же лучше 5200 чем 440МХ - "ну-у-у, в нем реализована поддержка DX9, что ... ну-у-у ... э-э-э ... лучше..." :D

228ShAD_Liar
01.07.2003, 18:50
Originally posted by Balamut
Ну в общем то всё правильно, если MX440 полноценная, а не обрезок выпущенный в последнее время, то она должна "делать" FX5200 (особенно если 5200 не ultra).

ээээ... уважаемый, вы чипсеты не попутали?

228ShAD_Liar
01.07.2003, 18:53
Originally posted by Leshik
http://fps.squad.ru/pn_712/html/modules.php?op=modload&name=phpBB_14&file=index&action=viewforum&forum=2

Пройдись по топикам "Настройка"

Leshik передай пожайлуста AndyGandy огромное человеческое спасибо!!!
благодаря его советам мои FPS реально выросли!

228ShAD_Liar
01.07.2003, 18:54
Originally posted by 23AG_Oves
FX 5200 ничем не лучше MX440, кроме аппаратной поддержки DX9. А в остальном может даже и хуже. Отсюда и результат.


судя по всему так оно и есть.



А вообще тема для "настройки харда и софта".

сорри. виноват. исправлюсь. :)

228ShAD_Liar
01.07.2003, 18:55
Originally posted by MK
шутить изволите???
этож не процессор....

мля....
поубивал бы за такие советы...

228ShAD_Liar
01.07.2003, 18:56
Originally posted by Karaya
Я как железячник скажу тебе, не стоит карточку сувать NO NAME, отстой редкостный, возьми себе ASUS 9280 TI200 128 mb, у нас многие заюзали ее и хорошие отзывы, я правда Тi 4600 юзаю.


эх...
кроме хороших и просто достойных видео - есть такая проблема как бабки, бабулечки... :(

зы: я себе джой до сих пор не могу купить, а ты про Титаны..
:)

228ShAD_Liar
01.07.2003, 18:58
Originally posted by JGr124_Hazard22
Если не изменяет память на ixbt.com писали, что 5200 = грабеж и провокация. То есть: цена менее 100 у.е., при этом работает зачастую медленнее 440МХ. (которая сейчас стоит 60-65 енотов 128 битная).

спасибо ребята всем за Ваши советы и ответы.
нет бы дураку сразу тут спросить.. :(
два дня убил на ХЗ знает что.... :(

MK
01.07.2003, 23:01
мля....
поубивал бы за такие советы...
Я разве тебе какую то грубость сказал?? Эх, блин, раз в жизни здесь что то написал, так сразу обхамили.
Извини конечно, но ты действительно думаешь, что этот проц крутой и его замена никак не скажется на быстродействии? Не надо думать, что заменив видео карту, хоть на самую современную, все начнет летать.
Тебе действительно неинтересны мои ламерские опыты? Чтож, могу промолчать...

Maza
01.07.2003, 23:12
2 228ShAD_Liar зачем создавать на каждый ответ пост?

2 Сабж Интересно бы знать реалные фпс владельцев FX, хотя я думаю все равно не имеет смысла менять пока свой 4600 на енту девайсину, но все же интересно. И как критичен проц (например раздница между 2.2 и 3.06) в ЗС.

Balamut
01.07.2003, 23:48
Originally posted by 228ShAD_Liar
ээээ... уважаемый, вы чипсеты не попутали?
Нет. Собственноручно тестил (тоже ASUS кстати, не ультра :) ).
А вот впро настройки я опечатался конкретно :), уже исправил.

Botik
02.07.2003, 05:17
...Интересно бы знать реалные фпс владельцев FX...Числа так после 10-го буду брать Альбатрон FX5600 Ultra на тестирование. По обзорам в инете он должен хорошо разгоняться. Будет возможность сравнить в ЗС с моим GF3 Ti200 (разогнанным до Ti500). Результаты тестов обязательно выложу.

Jameson
02.07.2003, 07:44
Что касается проца, то п3 933 был бы получше, пожалуй..

228ShAD_Liar
02.07.2003, 15:26
Originally posted by Maza
2 228ShAD_Liar зачем создавать на каждый ответ пост?

в зависимости от твоего настроения выбери нужный ответ сам:
1. словесный понос.
2. нежелание хоть кого-то пропустить. люди старались помочь. :)



2 Сабж Интересно бы знать реалные фпс владельцев FX, хотя я думаю все равно не имеет смысла менять пока свой 4600 на енту девайсину, но все же интересно. И как критичен проц (например раздница между 2.2 и 3.06) в ЗС.
по статистике интересная идея. можно попробовать реализовать. тока не реальна она - надо иметь доступ к железу...
по процу: скоро буду менять цел 1.7 на цел 2.2. итоги скину.

LostCluster
03.07.2003, 01:55
Originally posted by 228ShAD_Liar

---skipped---
по процу: скоро буду менять цел 1.7 на цел 2.2. итоги скину.

А смысл?Чем зря деньги тратить, разгони его по шине до 533 - получишь частоту 2,26 и прирост производительности будет больше, за счет более быстрой шины :)И главное - даром :)

Balamut
03.07.2003, 03:11
Originally posted by LostCluster
А смысл?Чем зря деньги тратить, разгони его по шине до 533 - получишь частоту 2,26 и прирост производительности будет больше, за счет более быстрой шины :)И главное - даром :)
Дело человек говорит.
Материнскую плату только хорошую надо ("Intel" в данном случае, например, к хорошим не относится :)).

Balamut
03.07.2003, 03:40
Хотя чего-то я поспешил, не обратил внимания что процессор 1.7, соответственно ядро - Willamette. :( Шансы разогнать невелики.
А Celeron'ы Northwood начинаются с 2.0 ГГц.

Молодчик
03.07.2003, 16:01
Originally posted by LostCluster
А смысл?Чем зря деньги тратить, разгони его по шине до 533 - получишь частоту 2,26 и прирост производительности будет больше, за счет более быстрой шины :)И главное - даром :)

Не все так просто с разгоном по шине. Если мат. плата на 400, но держит и 533 (такие платы любит в частности MSI), то при разгоне шины, гониться и AGP. И далеко не любая видеокарта будет хорошо себя чувствовать. Очень часто подобный разгон ведет к зависанию 3Д приложений. Лично с таким сталкивался. Помогал сброс AGP с 4-х до 2-х, а то и до 1-го....

Молодчик
03.07.2003, 16:02
Originally posted by Balamut
Материнскую плату только хорошую надо ("Intel" в данном случае, например, к хорошим не относится :)).

Что это значит? :confused:

Balamut
03.07.2003, 16:50
Originally posted by Молодчик
Что это значит? :confused:
У материнских плат Intel полностью отсутствуют оверклокерские возможности:
изменение тактовой частоты шины;
изменение напряжения питания процессора, памяти, AGP;
изменение делителей частоты работы памяти, PCI, AGP (не надо бояться за здоровье PCI и AGP устройств на "правильной" плате :));
мониторинг (для тестирования и контроля).
К "правильным" платам можно отнести: ASUS, ABIT, Albatron, Epox, уже упомянутую MSI... Список можно продолжать, он не претендует на полноту. Но надо учитывать, что бывают и у перечисленных фирм "неудачные" в плане разгона платы, и у фирм не специализирующихся на таких "фичах" могут быть модели пригодные для разгона.
Но не Intel! У них политика такая. Во всяком случае пока.

Balamut
03.07.2003, 16:55
Originally posted by Молодчик
Не все так просто с разгоном по шине. Если мат. плата на 400, но держит и 533 (такие платы любит в частности MSI), то при разгоне шины, гониться и AGP. И далеко не любая видеокарта будет хорошо себя чувствовать. Очень часто подобный разгон ведет к зависанию 3Д приложений. Лично с таким сталкивался. Помогал сброс AGP с 4-х до 2-х, а то и до 1-го....
Делитель FSB/AGP/PCI при переходе со 100 МГц на 133 МГц надо менять с 3/2/1 на 4/2/1.

Молодчик
03.07.2003, 16:56
Originally posted by Balamut
У материнских плат Intel полностью отсутствуют оверклокерские возможности:
изменение тактовой частоты шины;
изменение напряжения питания процессора, памяти, AGP;
изменение делителей частоты работы памяти, PCI, AGP (не надо бояться за здоровье PCI и AGP устройств на "правильной" плате :));
мониторинг (для тестирования и контроля).

Хмммм... А откуда такая уверенность? Конкретный пример. MSI на 845Е.

1.Изменение частоты шины - есть, причем в довольно широких пределах.
2. Изменение напряжения питания проца - есть.
3. Мониторинг - есть. Как в БИОСе, так и из системы.

Изменение делителей частоты работы памяти, PCI, AGP (не надо бояться за здоровье PCI и AGP устройств на "правильной" плате) - PCI при разгоне шиной поддерживает штатные 33 автоматом. С памятью тоже проблем нет. Проблема ТОЛЬКО в AGP - это да, минус, большой. :(

Молодчик
03.07.2003, 17:03
Originally posted by Balamut
Делитель FSB/AGP/PCI при переходе со 100 МГц на 133 МГц надо менять с 3/2/1 на 4/2/1.

Ну не знаю как там НАДО. Знаю, что реально ПОМОГЛО. ;)

Balamut
03.07.2003, 17:13
Originally posted by Молодчик
Хмммм... А откуда такая уверенность? Конкретный пример. MSI на 845Е.

1.Изменение частоты шины - есть, причем в довольно широких пределах.
2. Изменение напряжения питания проца - есть.
3. Мониторинг - есть. Как в БИОСе, так и из системы.

Изменение делителей частоты работы памяти, PCI, AGP (не надо бояться за здоровье PCI и AGP устройств на "правильной" плате) - PCI при разгоне шиной поддерживает штатные 33 автоматом. С памятью тоже проблем нет. Проблема ТОЛЬКО в AGP - это да, минус, большой. :(
Во первых сорри, я подредактировал свой пост выше. Не думал, что реакция будет так быстро. :)

Имеется в виду не чипсет, а именно сама плата кем сделана.

Соглаен, что переход на AGP 2x помогает, но выбор правильных делителей, как бы, более правильный путь. :)
поищи в BIOS'е, там же где разгон должно быть.

228ShAD_Liar
05.07.2003, 13:57
Originally posted by 228ShAD_Liar
по процу: скоро буду менять цел 1.7 на цел 2.2. итоги скину.

вот. как и обещал. сменил.
прирост ощутимый.

разрешение 800х600
настройки "идеальные"

было:
1. 19 50 6 2000
2. 29 51 6 2500

стало:
1. 21 67 6 2300
2. 36 67 6 3200

настройки "освещение - хорошо. детал - низкая"
было:
1. 22 59 7 2300
2. 41 64 10 3800

стало:
1. 27 66 7 2800
2. 40 67 10 3800


зы: я так подозреваю что это предел - 40 67 10 3800
зыы: а цифры от GeForce FX 5200 даже приводить не хочу - плакать хочеться глядя на них... :(

Молодчик
05.07.2003, 14:14
Originally posted by 228ShAD_Liar
вот. как и обещал. сменил.
прирост ощутимый.

разрешение 800х600
настройки "идеальные"

было:
1. 19 50 6 2000
2. 29 51 6 2500

стало:
1. 21 67 6 2300
2. 36 67 6 3200

настройки "освещение - хорошо. детал - низкая"
было:
1. 22 59 7 2300
2. 41 64 10 3800

стало:
1. 27 66 7 2800
2. 40 67 10 3800


зы: я так подозреваю что это предел - 40 67 10 3800
зыы: а цифры от GeForce FX 5200 даже приводить не хочу - плакать хочеться глядя на них... :(

К сожалению, замена одного целерона на более быстрый особенной прибавки в скорости не дает. В играх рулит размер кэша... ИМХО, терпеть 800Х600 в Иле ради скорости - большого смысла нет. Разница, конечно, есть, но не настолько заманчивая.

По поводу FX в ЗС... Уффф... Уж сколько раз говорили - на видеокарту не стоит расчитывать. ГФ 2 с 64МВ - за глаза и за уши... А шейдеры... тормозят они, похоже, практически ЛЮБУЮ современную машину.

Maximus_G
05.07.2003, 16:53
Патч, похоже, многое изменит.

deCore
05.07.2003, 17:02
Originally posted by Молодчик
По поводу FX в ЗС... Уффф... Уж сколько раз говорили - на видеокарту не стоит расчитывать. ГФ 2 с 64МВ - за глаза и за уши... А шейдеры... тормозят они, похоже, практически ЛЮБУЮ современную машину.
1. Производительность шейдеров целиком и полностью зависит от производительности графического ядра и его памяти. Ну, и от того, как они (шейдеры) написаны, конечно. Фотореалистичные шейдеры (я не видел кода шейдеров Кармака, но думаю, что он достаточно хорошо их оптимизировал), похоже, действидельно тормозят любую современную видеокарту.
2. В Ил2:
Видеосистема- основной ограничитель СРЕДНЕГО и максимального FPS. При частоте процессора от 1-1.5 GHz.
Если количество самолетов превышает 32, то, например, Athlon 1.3 уже начинает тормозить, и средний FPS падает.
Чтобы проверить что у вас тормозит- процессор или видеокарта, достаточно во время тормозов нажать паузу. Если мгновенный FPS резко вырос- значит ваш процессор не справляется с обсчетом физики и ИИ. Кстати, здесь же вы сможите увидеть, какой ФПС вас ждет при смене процессора на более производительный (без смены видеокарты).
Частота процессора может влиять на минимальный ФПС, в моменты, когда появляются новые объекты: начинается активная перестрелка, сброшенные бомбы взрываются кучей осколков, и т.д. FPS при этом будет падать скачком:
1. Процессор уже может не справляться с доп. нагрузкой.
2. Процессор и видеокарта внесут дополнительное торможения из-за отрисовки зпецэффектов (взрывы, динамические карты освещения от них, дымы, трассы).

В ситуации же простого редактора, вклад процессора в тормоза - не более 10% при колебании:
Процессор (берем Атлоны): 1ГЦ-2000+
Видеокарта: Любая ниже ГФ4Ти4600 (чем хуже видеокарта- тем меньше вклад процессора).

deCore
05.07.2003, 17:05
Originally posted by Maximus_G
Патч, похоже, многое изменит.

НЕ ВЕРЮ! (С) Станиславский.

Принимаю ставки (на "идеальный" режим, разумеется, т.к. "шейдерный" режим останется неиграбельным, на что тоже готов принять ставки).

Maximus_G
05.07.2003, 17:14
Да ладно вам, не нужно в это верить. Это только предположение, основанное на постах некоторых "приближенных" авторов :)

deCore
05.07.2003, 17:17
Originally posted by Maximus_G
Да ладно вам, не нужно в это верить. Это только предположение, основанное на постах некоторых "приближенных" авторов :)
Мое предположение тоже не только на суевериях основано. :)

Молодчик
05.07.2003, 17:53
Originally posted by deCore
Видеокарта: Любая ниже ГФ4Ти4600 (чем хуже видеокарта- тем меньше вклад процессора). [/B]

Вот в этом и заключается идиотизм современных видеокарт. ЛУЧШАЯ видеокарта требует лучшей системы... Они не разгружают подсистему, а нагружают ее дополнительно. ОК, сейчас на хардвере они могут рисовать отличные картинки. Но эти картинки, в свою очередь, должен еще кто-то создать. Еще 8 директы до конца не окучили, а уже 9 прут... А последние Анрылы меня абсолютно не поразили своей красотой... :(

Что касается ГРАФИЧЕСКОГО движка ЗС, то по тех. наворотам он старый... Ему прикручивают всякие фичи, но погоды они особой не делают, зато тормозят... Единственное, что от видяхи требуется - это тупо скорость отрисовки... Ну тут FX и всякие Радеоны рулят...

Поэтому если тормозит при насыщенной сцене - нет смысла хвататься за видео. Есть смысл при нормальной скорости в таких сценах улучшить общую картинку - поднять разрешение, анизатропка, сглаживание.... Вот тут видяха крутая пригодиться...