PDA

Просмотр полной версии : GTX275 vs HD4890



FataLLex
18.12.2009, 19:12
На днях планирую прикупить одну из этих карт... больше года пользуюсь GF7300 :D До этого была GF6600GT так что в какой-то степени будет праздник.
Если кто разбирается подскажите что лучше:

GTX275 896Mb Sparkle SXX275896D3-VP
HD4890 1024MB PowerColor AX4890 1GBD5-HM

http://nizhcnevartovsk.positronica.ru/graphics-card/powercolor-ax4890-1gbd5-hm-513939/

http://nizhcnevartovsk.positronica.ru/graphics-card/sparkle-sxx275896d3-vp-514628/

Flanker_85
23.12.2009, 08:18
Отпишусь как пользователь 4870.
Видеокарта лично мне нравится.
То что ничего не тормозит, это даже не обсуждается :D.
Но проблемы есть:
1. Вода в Ил2 только вторая, но если честно выглядит нечуть не хуже чем 3 или 4 на Nvidia, и даже местами лучше, а именно красиво отрисовываются барашки на волнах.
2. Есть небольшой артефакт опять же в Ил2, но появляется крайне редко и максимум на 1 секунду (мне все равно бывает он или нет).
3. Большой гемморой с установкой драйверов на Linux, я на свою OpenSuse 11.2 два дня ставил, но все же сделал это :).

И еще непроверенная информация (т.е. мои предположения) - если запускать Ил2 под Linux (что делается крайне просто), то графика на Nvidia должна быть определенно лучше, но еще раз повторюсь, это только мои предположения.

Собственно наверное все. Своих денег эта видеокарта безусловно стоит. И если ты не планируешь переходить на Linux, и тебя не пугает отсутствие 3,4 воды то можешь смело покупать ATI.
И еще в дополнение, на ATI вроде охлаждение шумнее, но можно понизить до приемлимого уровня.

SAMAPADUS
25.12.2009, 20:21
http://www.overclockers.ru/lab/35352.shtml
Немного не в тему, но на мысли должно навести.
Сам являюсь владельцем 8800GT.
Владел несколькими типами карт обоих производителей.
В общем вопрос религии.

NemoS
04.01.2010, 20:24
Вода на 2 выглядит лучше (по сравнению с 6800, больше не покупал Нвидию из-за известных глюков), а именно - глубже цвет, и ближе к реальности, что ли..
Необходимо учитывать и то, что глюков на АТИ в общем-то нет (у меня по крайней мере) в отличии от НВ - круги на воде одни чего стоили, к примеру. Также 8-я серия что-то часто умирает беспричинно, не только в Инете читал, но и знакомый пострадал недавно. Но правда, купил вот 5850 и вода поменяла цвет - в худшую сторону, времени копаться пока нет, но, конечно, обсуждения глюков НВ настораживают.

Zorge
04.01.2010, 21:13
NemoS, насчет глюков есть противоположное мнение из противоположного лагеря.
Но озвучивать не буду, ибо начнется очередной holywar. :D

Как владелец GTX260 никаких "глюков" или глюков не наблюдаю ни разу.

Поэтому, отвечая по теме, соглашусь с SAMARAPADUS - вопрос религии.
Ну, может быть, еще и доступности (наличия и цены) в местных магазинах.



Также 8-я серия что-то часто умирает беспричинно, не только в Инете читал, но и знакомый пострадал недавно.
Не видел ни одной беспричинно умершей видеокарты. Любой серии любого производителя.
Всегда есть причина:
1) кривые руки юзера (запинавшего системник, или не чистившего его от пыли),
2) не менее кривые руки сборщика ПК - в тесный невентилируемый корпус впихнуть "мегамонстра", или запитать его от полудохлого непонятно откуда вынутого БП.
3) либо особо извращенный дизайн системы охлаждения от производителя видеокарты (причем не обязательно пассивного),
4) либо просто видеокарта куплена "на сдачу" и долго жить не может по определению.

В случае "преждевременной кончины" мощной видеокарты причины номер 1 и номер 2 - 99 процентов случаев. Независимо от того nVidia это или ATi.

NemoS
05.01.2010, 19:05
NemoS, насчет глюков есть противоположное мнение из противоположного лагеря.

Не видел ни одной беспричинно умершей видеокарты. Любой серии любого производителя.
Всегда есть причина:


Говорил лишь то, что видел, а именно - у 2-оих знакомых круги на воде - впечатлило навсегда....
У самого на 6800 при взгляде вниз на вираже земля проходила рывками -очень неприятно, опять же, да и по качеству картинки в Инете достаточно сравнений, и все они не в пользу сами поняи кого (правда это статьи 3-4 летней давности, но все равно понятно, что лидеру рынка не до заботы о качестве картинки, нужно успевать поставлять новые продукты, убеждать что они лучшие, и т.д. - это требует денег (Ваших), ну и т.д., не до качества тут, будет АТИ первой - будет то же самое)

В том-то и дело, что причина смерти есть, и эта причина - конструкция видеопроцессора, который греется чрезмерно, у моей же 5850 - и температура низкая, и шума не слышно, потому и советовал, причина в НВ - конструкторах.
Дело не в холиваре, просто привел факты. А вот вы-то как раз и начинаете холивар, причина смерти НВ установлена печальным опытом их владельцев уже давно!

GoRRik
05.01.2010, 19:36
В том-то и дело, что причина смерти есть, и эта причина - конструкция видеопроцессора, который греется чрезмерно, у моей же 5850 - и температура низкая, и шума не слышно, потому и советовал, причина в НВ - конструкторах.

Примерно таким же образом опытные маркетологи "давят" на мозжечковую мозоль своей юной пастве.

ПыСы Юзаю оба бренда. Читаю, улыбаюсь.

NemoS
07.01.2010, 20:19
Примерно таким же образом опытные маркетологи "давят" на мозжечковую мозоль своей юной пастве.

ПыСы Юзаю оба бренда. Читаю, улыбаюсь.

Давит температура, т.е. объективный фактор, ее можно измерить...
Потом сопоставляешь торговую марку умершей платы с ее температурой и делаешь вывод.
Теперь понятнее?

Zorge
08.01.2010, 07:03
Давит температура, т.е. объективный фактор, ее можно измерить...
Потом сопоставляешь торговую марку умершей платы с ее температурой и делаешь вывод.
Теперь понятнее?
Температура, которую показывают всякие термодатчики на видеокартах (и не только на видеокартах) с суровой реальностью имеет очень мало общего.
Занижают ее производители. И прилично.
Ну не может быть в воздушном потоке, выходящем через алюминиевый радиатор температура +65 °С, когда на видеокарте датчик показывает +58 °С (это показатели ATi Radeon 4870 одного знакомого под нагрузкой).
Мой GTX260 под нагрузкой летом показывает +64 °С при температуре "выхлопа" +63 °С.
Получше конечно (хотя бы похоже в качественном отношении), но любому человеку, знакомому с основами термодинамики и теплопередачи понятно, что термодиод GPU врет со страшной силой.
Не бывает алюминиевых радиаторов с термосопротивлением в 1 градус цельсия с такими габаритами и на таких отдаваемых мощностях. А уж с отрицательным термосопротивлением - тем более.
А ведь помимо радиатора системы охлаждения, есть еще крышка термораспределителя и слой термопасты далеко не самого высокого качества.

Лично видел две штуки GeForce 4 Ti 4200 и три штуки Radeon 9600, у которых термодатчик рассказывал что "все хорошо", но, тем не менее, сгоревших. И "вскрытие" пациентов (снятие радиаторов) показало, что сгорели они именно от перегрева.

И с CPU тоже не все гладко:
На моем стареньком AMD Barton термодатчик процессора показывал +37 °C, а калиброванная термопара, прижатая к его радиатору показывала +40 °С.
Сейчас вообще весело - Intel Core 2 Duo "рисует" температуру в простое +21 °С, тогда как в комнате +25 °С. И это с обычным (пусть и не боксовым) воздушным охлаждением. Прямо холодильная машина получается, а не ZM 9700NT :D

Так что - ни разу не объективный это показатель. Примерно оценить состояние GPU или CPU на уровне "молотит - не молотит" позволяет, но не более того.
Более-менее объективную температуру, изображаемую термодатчиками я видел последнее время только у жестких дисков.

Mirnyi
08.01.2010, 09:27
Согласен полностью, что с температурами в последнее время ATI/AMD хулиганят. Интел/Нвидиа тоже не без греха, но у них показания встроенных датчиков гораздо ближе к реальности.

А-спид
08.01.2010, 14:40
Согласен полностью, что с температурами в последнее время ATI/AMD хулиганят. Интел/Нвидиа тоже не без греха, но у них показания встроенных датчиков гораздо ближе к реальности.
Сильна вера твоя, юный падован :)

Сейчас вообще весело - Intel Core 2 Duo "рисует" температуру в простое +21 °С, тогда как в комнате +25 °С. .

NemoS
10.01.2010, 15:08
Лично видел две штуки GeForce 4 Ti 4200 и три штуки Radeon 9600

Ну вот, приятно видеть единомышленника, пусть и без термометра, но зато со здравым смыслом...