а велика ли разница между 3.0 и 2.0 ? У мамок на чипсете Z77 стоит уже 3.0
http://www.regard.ru/catalog/tovar104973.htm#
Вид для печати
а велика ли разница между 3.0 и 2.0 ? У мамок на чипсете Z77 стоит уже 3.0
http://www.regard.ru/catalog/tovar104973.htm#
Да это была ирония. По моему уже всем понятно, что 2.0 16 линий потянет и две 680-е и вообще всё, в обозримом будущем.
Ну зачем же так грубо.Тем более если 580й не хватает для игры на максимальных настройках.Если у человека есть возможность апгрейдить комп,так можно только порадоваться за него.(Только не надо сразу поднимать много шума и пыли,что выйдет великий и могучий патч и все заработает на встроенной в процессор графике :-)Я думаю,что в любом случае нужно значительно более быстрое железо,что бы можно было наслаждаться игрой и графикой на полную катушку)Но стоит ли брать 680 ую,это большой вопрос.Она же не вышла на кардинально новый уровень производительности,а 20-25 процентов прироста погодуы не сделают.А у нвидии вроде как почти готов туз в рукаве,о чем писалось выше,так может быть чуть-чуть подождать?А там и патч выйдет....
--- Добавлено ---
Ну если ати выпустила 7995,почему бы нвидии не обозвать эту 6999 :-)
О какой игре идет речь? В БзБ на максимальных настройках ГП зависимость для 580й начинается с 4,2+ ГГц I5/I7. Так, что я бы не стал говорить о некоторой нехватки 580й для БзБ, не говоря при этом, что в системе трудиться топовый проц разогнанный почти до предела. И про сегодняшнюю 680-ю, это своего рода 480-я в преддверии 580-й - т.е. несколько урезанный чип по причине отладки тех. процесса. Так, что подождать действительно стоит.
У меня феном,как и у вас,только 980й.А видеокарта 6970,поэтому я ничего не могу сказать с уверенностью,как ведет себя 580ка с ай5 и ай7 топовыми.Но читая форум я неоднократно видел посты в которых люди пишут,что ГП загружен полностью,а проц по ядрам на 35-60 процентов,из чего я делаю вывод что САМОЕ узкое место всетаки видяха.Кстати мой феном загружен абсолютно равномерно на 70-75 процентов.
П.С.Сори за ошибки ,я в командировке и пишу с планшета,лень тыркать сто раз монитор для вывода клавиатуры с символами.
--- Добавлено ---
У меня феном,как и у вас,только 980й.А видеокарта 6970,поэтому я ничего не могу сказать с уверенностью,как ведет себя 580ка с ай5 и ай7 топовыми.Но читая форум я неоднократно видел посты в которых люди пишут,что ГП загружен полностью,а проц по ядрам на 35-60 процентов,из чего я делаю вывод что САМОЕ узкое место всетаки видяха.Кстати мой феном загружен абсолютно равномерно на 70-75 процентов.
П.С.Сори за ошибки ,я в командировке и пишу с планшета,лень тыркать сто раз монитор для вывода клавиатуры с символами.
О какой игре идет речь???Угадайте сами(можно с трех раз) :-)
Кстати ай5 и ай7 далеко не топовые прцессоры у интела(и очень жаль,что у амд нет даже их аналогов)
П.С.А кто нибудь пробовал в БзБ FX от амд?
П.П.С.Сори за офтоп.
Это топовые процессоры для конечного потребителя. Шестиядерные Ксеоны тебе вряд ли сгодятся, к тому же далеко не факт, что система, построенная на них, реально будет быстрее. Уже был прецедент, когда выпустили платформу Sculltrail, которая поддерживала два серверных процессора и позиционировалась, как топовое решение для игр. На практике выяснилось, что данная система, имея два процессора, работала приблизительно с той же скоростью, что и "обычная" система с одним аналогичной частоты. Причем, они работали одинаково даже не в играх, а в приложениях, очень хорошо оптимизированных под многопоточность. Потеря скорости была из-за того, что серверные системы в первую очередь рассчитаны не на скорость, а на надежность.
К слову еще насчет видяхи: почти уверен, что 680 - не является реально топовой видяхой, по ее виду есть очень серьезное подозрение, что Нвидия выпустит такую же одночиповую видяху, но с большей производительностью, в относительно скорое время. Это зависит от того, что на существующий расклад им ответит АМД. Если АМД выкатит в ближайшем будущем какого-нибудь двухчипового мостра, то релиз какой-нибудь 685 вряд ли задержится более, чем на пару месяцев. Иными словами, брать сейчас 680 как замену и без того очень приличной видеокарты по мне смысла не имеет даже при большом "творческом зуде".
GTx 580 Справляется со всеми задачами даже на разрешении 1920х1200. Да и на 580-том БзБ Шел на максималке в момент релиза без каких либо проблемм.
Кроме того G-104 чип является урезанным и буде выпущено более мощное поколение. Так что это не адекватное решение менять этот адаптер на что то другое
чего-то я побаиваюсь этих халявных "бонусов".. сгорела у меня как-то видяха с "заводским разгоном", ну их нафиг.. разогнать я и сам могу не хуже, тем более что ты и сам знаешь, прирост в 8-10 процентов это из разряда "погрешностей измерения", в фпс такой прирост будет (для БоБа) выражаться в смехотворных цифрах
Ну вот... и я "попал" с этими дровами. Не утерпел, не дождался патча, собрал комп на чипсете Z77 (мать Асус делюксовская), видюху пока оставил "старую" Гигабайт 560-ти, накатил на радостях самые распоследние драйвера на видюху и... в Иле (!!!) видео зависло. Перегрузил комп, через 5 минут опять. Ах мать-перемать (вырезано цензурой), тут-то я и вспомнил, что на форуме обсуждалась эта проблема новых драйверов и видео 560-ти в вин 7-64.
Полез за более старыми дровами, скачал в панике дрова 275.33, да ещё и английские. Скачал програмку, которая следит за температурой видеокарты GPU observer 3 - в простом редакторе Ила с кучей самолетов температура больше 52-х градусов не поднималась. Слегка успокоился, видюха не подохла, шевелится :)
Однако вопрос..
1. Какой драйвер из более поздних устойчив для 560-х в Вин 7-64, желательно русских\интернациональных? Если не затруднит, прямую ссылочку дайте плиз.
2. Нет ли программы мониторинга видеокарт, которые располагаются ПОВЕРХ всех окон, типа как Фрапс?
Фирма Palit обычный GTX580 c двумя вентиляторами точно модель не помню название и лень идти смотреть. Просто для любого процессора центрального необходим большой КЭШ при работе с запятой а в этом АМД СОСЕТ по полной. Однако Интел стоит дорого это как сравнивать ТОёту например бизнес класса и Мэрседес каждый стоит своих денег, а вот есть они у вас или нет .........
Реализация PCI 3.0 будет приносить свои плоды когда будет не только железо держать, но и в директе под это делу будут пользовать то есть писать соответствующий КОД.
У меня конфигурация в подписи есть Этому компу года 2,5 нету ничего чтобы он не тянул. Крайзис второй вообще в 3Д прошел на максималке. Правдо щас моник поменял на АСУС
На NVIDIA вышли дрова 296.10 вроде стало лучше. Только что был на Репе4 ,даже прирост fps заметил.Посмотрите есть или нет изменения???
За оптимизацию дров под "бобика" тем более под новый движок Нужно денежку платить - коих у нищей конторы нету, Раз программистов нормальных нанять не могут и спонсора найти не могут нормального. Я думаю мы еще не скоро увидим в описании новых дров энвидии + столькото % для БзБ.
А я считаю,что производитель видеокарт заинтересован в оптимизации своих дров под игры,для увеличения продаж своей продукции.А по поводу того,что создатели игр должны платить деньги????Попробуйте связаться с нвидией,и спросить сколько будет стоить оптимизировать дрова под БзБ.Если сможете договориться я готов внести свою лепту,да думаю и не я один:-)Но боюсь,что вам долго придется объяснять,что вы от них хотите и о каких деньгах идет речь,и только ради того,что бы услышать в каком направлении вам идти,что бы посмотреть,как растет огородный хрен.
--- Добавлено ---
Вот,что абсолютно верно.Усилия персонала естественно будут направлены в первую очередь на массовый ширпотреб.
Попробуйте связаться с нвидией,и спросить сколько будет стоить оптимизировать дрова под БзБ
об этом рано ещё говорить, кабы сам БоБ работал как "часики" и были некоторые косячки в драйверах...