Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp
Памяти нормально а проц все же хуже чем i5-750 думаю. У вас ведь Атом я так понимаю?
--- Добавлено ---
Это очень сильно не наоборот... и это мягко сказано.470 это пред топовая карта, даже в сравнении с 5-ой серией. Из новых с ней тягается разве что 560 Ti и выше.
Гляньте спецификации и тесты.
Извините, не сдержался, применительно к играм, в такую видеокарту я бы постеснялся моник втыкать, но исключительно для офисных приложений самое то.
Phenom II X6 1090T @3600Mhz, Corsair XMS3 16GB, Radeon HD7850 2Gb|1920 x 1080, ASUS Xonar D1|Microlab Solo 5C, Thrustmaster T.16000M, Win 7 X64 SP1.
Атом у меня на нетбуке)) По тестам проц лучше. 4ре ядра.
540 470 Самые важные цифры сравнения у данных видюх. =)
На ней на высоких летает батла 3-я и кризис 2(при таком-то разрешении). Так что это неоправданные косяки оптимизации самого ила)Извините, не сдержался, применительно к играм, в такую видеокарту я бы постеснялся моник втыкать, но исключительно для офисных приложений самое то.
I7-2630QM 2.9 Turbo; 6144 Мб DDR3-1333МГц; 1920x1080; 750 Гб-7200 rpm; GT 540M 1024+1632; win7 x64
http://history-afr.fatal.ru/
А вы их сравните на сайте nvidia (правда на сайте есть только GTХ 470 и GT 440, но даже по сравнению с GT 440, GT 540M отстает). То же самое и с процессором.
Сравните БП, видеокарту и охлаждение процессора десктопного железа и размеры ноута. Там этому всему места нет, проблемы с тепловыделением и потреблением. В ноуте все железо аналогичное десктопам очень прилично урезано по производтельности, что-бы "топовый" ноут мог хоть немного на батарее протянуть и не оплавиться - радиаторам то места нет.
Intel i5 2500K 3.3 GHz, 8Gb RAM, GeForce GTX 560 Ti 1GB, 19" 1280x1024, Win 7 SP1 x64
Flixis, советую зайти в тему http://www.sukhoi.ru/forum/showthread.php?t=68723
Там получите конкретную информацию по фпс.
На форуме тут часто говорят что-то вроде:
у меня стабильно 2-4 кадра секунду. Иногда и до 6 подымается! Играю без проблем и получаю удовольствие.Что вы всё ноете, игра класс и т.п...
Пока не сделают поддержку многоядерности, толку не будет.
I5 - 2500, 8GB ddr3 , GTX 460. Windows 7 x64
Параметр FPS, это количество сцен/в секунду обсчитанных процессором видеокарты. На экран выводятся сцены, оформленные в кадры. Человеческий глаз не может воспринять более 25 кадров/сек. Частота обновления экрана (60Гц) не влияет на количество обсчитываемых сцен процессором, но влияет на формирование количества выводимых кадров на экран. Сколько бы кадров на экран не выводилось, Вы все равно не увидите более 25.
Диалог выше по теме, можно воспринять как разговор дилетантов, не более.
--- Добавлено ---
Для игр необходимо большое количество FPS для того, чтобы без потери скорости (отображаемой на экране сцене) можно было перевести взгляд на другой объект, т.е. сменить камеру взгляда. Быстрый видеопроцессор, моментально пересчитает и выдаст на экран нужную картинку, иначе у Вас будут наблюдаться фризы. Freezе - в переводе означает заморозка, в нашем случае остановка выводимой картинки на экран.
может 24?.......Человеческий глаз не может воспринять более 25 кадров/сек. .
или Я что то путаю?
Главный жизненный принцип всех собак:
"Если это нельзя укусить, то на это можно нассать"
QuadCore Intel Core 2 Quad Q9550, 2833 MHz,(разгон 3400) Asus P5Q. GTX 580. DDR II 8Gb. win7x64
Я извиняюсь, но в вашем посте не меньше дилетантизма чем в том, который поднял тему фпс. Во первых не 25 кадров в сек. а 24. Во вторых, человеческий глаз не воспринимает более 24 кадра в секунду в кинематографе, в виду специфики. Там при быстрых переходах изображение плавное за счет смазывания изображения выдержкой. Если выдержка по какой либо причине была более короткая чем 1/60 то плавность пропадает, наблюдается стробоскопический эффект. В компьютерных играх нет понятия выдержки, частично это восполняет пост-эффект motion blur. Но даже с ним, 24 фпс не достаточно чтобы в играх быстрые переходы были плавными. В идеале, чтобы сгладить все переходы, независимо от их скорости, фпс должен быть не меньше 42.
Phenom II X6 1090T @3600Mhz, Corsair XMS3 16GB, Radeon HD7850 2Gb|1920 x 1080, ASUS Xonar D1|Microlab Solo 5C, Thrustmaster T.16000M, Win 7 X64 SP1.
Внимание! В вышеприведенном сообщении могут содержаться такие элементы сатиры как: аллегория, гипербола, гротеск, ирония, сарказм, а также юмор.
ॐ मणि पद्मे हूँ
Если коротко и невежливо: бред. Если по-сути: этот стереотип идет от эффекта 25 кадра, который мол не видно. Просто многие и не знают, что длительность этого 25 кадра была что-то порядка, если не вру, 90-й доли секунды. Хотя сейчас в Википедии посмотрел, там вообще пишут, что это фикция... Что-то соменваюсьНо человек легко различает разницу даже между 24 и 30 кадрами в секунду в телевещании.
На этом "вываливались" люди годами работалиНекоторые даже разницу с трудом видели между 60 и 100 герцами. И мерцание там не из-за герцовки как таковой. Просто кадр успевал появиться и потухнуть полностью (или почти в зависимости от яркости конкретного элемента) и некоторое время после этого еще показывать эту условно-черную картинку, прежде чем появлялся новый кадр.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp
Внимание! В вышеприведенном сообщении могут содержаться такие элементы сатиры как: аллегория, гипербола, гротеск, ирония, сарказм, а также юмор.
ॐ मणि पद्मे हूँ
Еще одна неправда. В ЭЛТ используется строчная развертка, т.е. кадр формируется пробеганием электромагнитного луча по полю экрана. 60 гц - это луч успевает пробегать 60 раз в секунду. И если люминофор успевает существенно погаснуть перед повторным приходом луча, то мы и видим мерцание на экране. Поэтому и постоянно повышали скорость прохода луча. 70, 80, 100 гц... Для этого требовалась более совершенные технлогии, поэтому и было постепенное нарастание герц в мониторах.
И что, собственно, в моих словах неправда?То, что я луч не упомянул что ли? А оно надо было? Кстати, насколько мне известно, он и при 100 герцах успевал погаснуть, но глаз уже это мерцание из-за собственной инертности замечать не успевал.
Тут речь о разных вещах. О мерцающей развертке ЭЛТ мониторов и отдельно о чувствительности к более высоким ФПС, нежели 24.
А с чего ты взял, что твои знания более полные-то?Инертность зрения и ощущения кадров в секунду малосвязанные вещи. Разница между 30 и 60 кадрами в секунду ощущается очень заметно.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp
Часто повторяемая глупость. Глаз может заметить разницу между 50 и 60 гц, и даже более. Другое дело что мозг уверенно сглаживает смену кадров при частоте более чем 20-25 гц ( от индивидуума). Если сомневаетесь, поставьте на ЭЛТ мониторе развертку 60 гц, а потом 80 и сравните, при этом лучше ставить белый фон и смотреть боковым зрением. Очень отчетливо видно мерцание.
По поводу фризов так это вообще что-то с чем-то.. При быстром повороте камеры, "фризит" не потому что картинка замирает а потому что 24фпс недостаточно, при повороте камеры на 180 градусов за секунду, вся эта 180 градусная панорама делиться на 24 части и угловой сдвиг обьектов между кадрами получается оч. большим. Отсюда и видимый глазу "дерганный" переход. Чем больше кадров в секунду тем меньше угловые сдвиги между кадрами, при определенной частоте сдвиги перестанут восприниматся глазом и переход станет плавным.
--- Добавлено ---
Нет, когда начали снимать кино со скоростю 24 кадра в секунду(до этого было 16 кадров, во времена немого кино) мониторов и телевизоров еще небыло.Просто на более короткой выдержке есть стробо-эффект а с выдержкой 1/30 в очень ярких условиях снимать тяжелее.
Phenom II X6 1090T @3600Mhz, Corsair XMS3 16GB, Radeon HD7850 2Gb|1920 x 1080, ASUS Xonar D1|Microlab Solo 5C, Thrustmaster T.16000M, Win 7 X64 SP1.
А теперь перечитайте мой пост еще раз, не по-диагонали, а сверху-вниз, и найдёте правильный ответ на вопрос: "Почему режется картинка при изменении угла зрения?"
Для милиционеров попробую разжевать. Когда вы летите прямо, и камерой не дергаете, то фпс вы получаете стабильный. Не важно какой, главное стабильный. Но, стоит вам начать поворачивать камеру в сторну, то фпс падает. Это связано с тем, что процессор начинает обсчитывать не просто изменения в уже ранее обработанной сцене, а принципиально новые данные! Если вы наблюдаете при этом "гребенку", то процессор не справляется с обработкой. Попробуйте провести эксперимент: не в полете а на земле поверните камеру на 90 градусов а потом верните как было. В первый раз вы можете увидеть "гребенку", а вот во второй раз вы увидите плавно поворачивающиеся изображение. Потому что эти сцены уже ранее обработались процесором, они хранятся в памяти, и при повторном повороте процессор будет только сравнивать кадры хранящиеся в памяти с новыми произошедшими изменениями. Если изменений нет, то вы будете наблюдать качественную без "гребенки" картинку.
Интересный способ отвечать оппонету, меняя тему беседы.Мы с вами говорили о кадрах в секунду а не об обрезании картинки при изменении угла зрения.
Сколько же в мире еще тех, кто хочет принести людям свет науки, наивно полагая что именно он мессия которого все ждали.Для милиционеров попробую разжевать. Когда вы летите прямо, и камерой не дергаете, то фпс вы получаете стабильный. Не важно какой, главное стабильный. Но, стоит вам начать поворачивать камеру в сторну, то фпс падает. Это связано с тем, что процессор начинает обсчитывать не просто изменения в уже ранее обработанной сцене, а принципиально новые данные! Если вы наблюдаете при этом "гребенку", то процессор не справляется с обработкой. Попробуйте провести эксперимент: не в полете а на земле поверните камеру на 90 градусов а потом верните как было. В первый раз вы можете увидеть "гребенку", а вот во второй раз вы увидите плавно поворачивающиеся изображение. Потому что эти сцены уже ранее обработались процесором, они хранятся в памяти, и при повторном повороте процессор будет только сравнивать кадры хранящиеся в памяти с новыми произошедшими изменениями. Если изменений нет, то вы будете наблюдать качественную без "гребенки" картинку.
А если серьезно, то работа видеочипа в построении кадров описанная вами это бред.
Объясню в трех словах. В каждый момент времени, видеокарта просчитывает сцену заново. Грубо говоря, ей вообще без разницы изменилось ли положение камеры или нет. Она оперирует определенным массивом данных и выдает кадры с такой скоростью, с какой успевает просчитать сцену с этим массивом. Увеличится массив - считать будет медленнее, уменьшится - быстрее. Так что когда камера повернувшись на 90 градусов вернется в исходное положение, карта выдаст столько кадров, сколько и было в начале, и качество изображения тоже не изменится. Если камера не меняет положения, то разница только в том что массив данных не изменится, но просчитывать этот массив при построении сцены карта по прежнему будет.
Такой пример, представьте что вам дали в руки фотокамеру с не взведенным затвором и фиксированным фокусом. Вы взводите затвор, щелкаете, взводите, щелкаете и т. д. Каждый раз вам придется взводить затвор как и в первый раз. Видеокарте тоже чтобы "щелкнуть" кадр, нужно просчитать что ей нужно отрисовать.
Надеюсь описал доступно и понятно, ликбез не входит в мои планы, уж извините.
Phenom II X6 1090T @3600Mhz, Corsair XMS3 16GB, Radeon HD7850 2Gb|1920 x 1080, ASUS Xonar D1|Microlab Solo 5C, Thrustmaster T.16000M, Win 7 X64 SP1.
Скрытый текст:
Расим тебе ИМХО очень неплохо объяснил. Каждый кадр видеокарта просчитывает, грубо говоря, с нуля. Память видеокарты используется для хранения самих объектов, их текстур и карт расчета шейдеров плюс само изображение для выведения (фреймбуффер). Ну так, грубо говоря.
Производительность от версии драйверов меняется по довольно интересной причине: количественные изменения переходят в качественные. При расчете картинки используется огромное множество параметров в каждом конкретном кадре изображения. Например, если отключить анизотропию на вот этих и тех текстурах, разницу в изображении увидеть будет практически невозможно, но картинка будет обсчитываться немного быстрее. Например, иногда в драйвера видеокарты вносятся изменения в соответствии с конкретной запускаемой игрой. Т.е. оптимизацией расчета картинки в данной конкретной игре начинают заниматься уже сами производители видеокарт. Был такой занятный случай: если запускной файл МСФСа переименовать в crysis.exe (так же у них запускной?), то игра начинает работать ощутимо быстрее - драйвер видеокарты думает, что запускается Крайзис и вносит соответствующие изменения в настройки расчета изображения.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp
Вот еще один пример. Возьмите игру 10-ти летней давности, вспомните какая была конфигурация компьютера для комфортной игры. Теперь установите игру на нынешний компьютер, и сравните фпс. Вы будете удивлены увидев на экране 1000 а может и больше фпс. Потом ответьте на вопрос, Вы видите разницу между 1000 нынешних фпс и тем что Вы наблюдали 10 лет назад?
Есть люди, с которыми разговаривать, а уж тем более спорить, бесполезно. Они всегда уверены что правы, в виду собственных знаний, пусть неполных, и опыта, пусть неудачного, но своего.
boRada, погугли фразу "инерционность зрения", потом попробуй применить ответ в теле- и игро- индустрии. Может почерпнешь для себя что-то новое?
--- Добавлено ---
Я думаю будет интересно почитать здесь http://www.knowaretech.com/page.php?id=82&comments=1
ХАХАХА Сначало подумай а потом пиши.
1. Да, погуглил. Есть такое слово "инерционность зрения" Но не понял что Я должен уяснить и в чем Я не прав? Инерционность зрения меняется в играх? Или мы говорим о 25 кадрах? Мух от котлет желательно отделять. А то невкусно.
2. Энштейн сказал "Две вещи действительно бесконечны:....." Погугли и прочти дальше.
http://www.knowaretech.com/page.php?id=82&comments=1 - погугли и определи разницу между ЭЛТ и ЖК мониторами. И более тщательно изучить вопрос взаимодействия глаза с мозгом. Да и устройсво глаза лучше изучать не по статьям инженеров. Наводящий вопрос, а если посмотреть на темное пятно и закрыть глаза, оно останется?
--- Добавлено ---
Ну почти. Кадра как такового там нет. Достаточно посмотреть на фото с короткой выдержкой экрана ЭЛТ монитора или телевизора, чтоб понять о чем я. Грубо говоря - когда внизу еще не погасли строки 345 кадра, вверху уже рисуются строки 346 кадра. Что отличается от кино, где кадр присутствует как 1 элемент. Т.е. кадр как таковойне присутствует на экране, каждая его строка живет своей жизнью. И мы бОльшую часть времени наблюдаем элементы 2-х кадров.
Крайний раз редактировалось boRada; 13.10.2011 в 18:15.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp