человеческий глаз видит не кадрами. Поэтмоу раница между 24 и 42 и между 42 и 85 кадров в секунду будет заметна, хотя возможно сколко именно КС вы не скажете. Понятно сцена должна быт ьдинамичная, на статике можно и между 1 и бесконечностью разницу не заметить![]()
Интересный способ отвечать оппонету, меняя тему беседы.Мы с вами говорили о кадрах в секунду а не об обрезании картинки при изменении угла зрения.
Сколько же в мире еще тех, кто хочет принести людям свет науки, наивно полагая что именно он мессия которого все ждали.Для милиционеров попробую разжевать. Когда вы летите прямо, и камерой не дергаете, то фпс вы получаете стабильный. Не важно какой, главное стабильный. Но, стоит вам начать поворачивать камеру в сторну, то фпс падает. Это связано с тем, что процессор начинает обсчитывать не просто изменения в уже ранее обработанной сцене, а принципиально новые данные! Если вы наблюдаете при этом "гребенку", то процессор не справляется с обработкой. Попробуйте провести эксперимент: не в полете а на земле поверните камеру на 90 градусов а потом верните как было. В первый раз вы можете увидеть "гребенку", а вот во второй раз вы увидите плавно поворачивающиеся изображение. Потому что эти сцены уже ранее обработались процесором, они хранятся в памяти, и при повторном повороте процессор будет только сравнивать кадры хранящиеся в памяти с новыми произошедшими изменениями. Если изменений нет, то вы будете наблюдать качественную без "гребенки" картинку.
А если серьезно, то работа видеочипа в построении кадров описанная вами это бред.
Объясню в трех словах. В каждый момент времени, видеокарта просчитывает сцену заново. Грубо говоря, ей вообще без разницы изменилось ли положение камеры или нет. Она оперирует определенным массивом данных и выдает кадры с такой скоростью, с какой успевает просчитать сцену с этим массивом. Увеличится массив - считать будет медленнее, уменьшится - быстрее. Так что когда камера повернувшись на 90 градусов вернется в исходное положение, карта выдаст столько кадров, сколько и было в начале, и качество изображения тоже не изменится. Если камера не меняет положения, то разница только в том что массив данных не изменится, но просчитывать этот массив при построении сцены карта по прежнему будет.
Такой пример, представьте что вам дали в руки фотокамеру с не взведенным затвором и фиксированным фокусом. Вы взводите затвор, щелкаете, взводите, щелкаете и т. д. Каждый раз вам придется взводить затвор как и в первый раз. Видеокарте тоже чтобы "щелкнуть" кадр, нужно просчитать что ей нужно отрисовать.
Надеюсь описал доступно и понятно, ликбез не входит в мои планы, уж извините.
Phenom II X6 1090T @3600Mhz, Corsair XMS3 16GB, Radeon HD7850 2Gb|1920 x 1080, ASUS Xonar D1|Microlab Solo 5C, Thrustmaster T.16000M, Win 7 X64 SP1.
Вы описали примитивный способ обработки картинки, какой использовался в DOS-играх. Это кстати, объясняет почему сюжет первых трехмерных (помните?) игр был в катакомбах или коридорах, одинаковые полигоны с неизменными координатами проще просчитывать. Мы же говорим про настоящие (я имею ввиду текущее время) игры.
Хорошо, зайдем с другой стороны. Чем по вашему занимается драйвер видеокарты? Почему от версии драйверов изменяется производительность обработки видео? Зачем на видеокарты ставят много памяти?
ЗЫ. Прошу прощения, задаю много вопросов и понимаю что ликбез не входит в ваши планы, и даже можете не отвечать...
Скрытый текст:
Расим тебе ИМХО очень неплохо объяснил. Каждый кадр видеокарта просчитывает, грубо говоря, с нуля. Память видеокарты используется для хранения самих объектов, их текстур и карт расчета шейдеров плюс само изображение для выведения (фреймбуффер). Ну так, грубо говоря.
Производительность от версии драйверов меняется по довольно интересной причине: количественные изменения переходят в качественные. При расчете картинки используется огромное множество параметров в каждом конкретном кадре изображения. Например, если отключить анизотропию на вот этих и тех текстурах, разницу в изображении увидеть будет практически невозможно, но картинка будет обсчитываться немного быстрее. Например, иногда в драйвера видеокарты вносятся изменения в соответствии с конкретной запускаемой игрой. Т.е. оптимизацией расчета картинки в данной конкретной игре начинают заниматься уже сами производители видеокарт. Был такой занятный случай: если запускной файл МСФСа переименовать в crysis.exe (так же у них запускной?), то игра начинает работать ощутимо быстрее - драйвер видеокарты думает, что запускается Крайзис и вносит соответствующие изменения в настройки расчета изображения.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp