i7-2600K (4.9GHz/Thermalright Archon) | ASUS Maximus IV Extreme | DDR3 8Gb (2133MHz) | WD VelociRaptor (600Gb) | GTX 680 (1200/7000MHz) | DELL 2209WA х3 (5200х1050) | «УРПМ»
да, та же программка "AI Suite II" позволяет выводить монитор параметров (и записывать их), самая высокая температура была запечатлена - в 54*С,
стоит хороший радиатор от "Noctua"....
не в курсе что это...
Оптимизировал, как-то недавно (недели две назад) обновлением всех дров, чисткой CCleaner64,,,
Для нас вона в світі єдина, одна
в просторів солодкому чарі…
Вона у зірках, і у вербах вона,
і в кожному серця ударі,
Я могу наврать, но если память не изменяет, на Иви Бридже уже начали потихоньку похабить разгонный потенциал. На Хасвелле уже известно, что термоинтерфейс под крышкой корпуса плохой, на Иви не в курсе. Я вот это к чему... Не знаю точно, где находится термодатчик ярда, но если он где-нибудь непосредственно под крышкой, а термоинтерфейс уже плохой, то ядро у тебя вполне может и перегреваться. В этом случае начнет пропускать такты и ты прирост производительности рискуешь не получить. У меня в тексте тут предположений слишком много, обычно такие конструкции "не взлетают", но ты можешь запустить какое-нибудь кодирование небольшого видео где-нибудь на минуту (не знаю, минуту видео или минуту кодирования), проверить его на твоем разгоне, проверить на штатной частоте и опробовать поставить что-нибудь промежуточное вроде 3,7.
А еще проверь, грузятся ли все ядра у тебя на 100% при кодировании.
Трехмерка по одному проекту: www.youtube.com/watch?v=Xub-3TA7MIE&feature=plcp
i7-2600K (4.9GHz/Thermalright Archon) | ASUS Maximus IV Extreme | DDR3 8Gb (2133MHz) | WD VelociRaptor (600Gb) | GTX 680 (1200/7000MHz) | DELL 2209WA х3 (5200х1050) | «УРПМ»