Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 1 из 3 [ Сообщений: 101 ]  Версия для печати [+] На страницу 1, 2, 3  След.
Показать сообщения за  Поле сортировки  
С официальными характеристиками X1900 GT можно ознакомиться в справочнике radeon.ru, а внимательно рассмотреть карту в фотобанке компании Сапфир.

Radeon X1900 GT — mainstream performance решение, основанное на видеопроцессоре R580. В отличие от R520, он имеет конвейерную формулу 12x3: 12 текстурных блоков, 12 блоков растеризации и 36 блоков пиксельных шейдеров. Вершинных процессоров 8. Частоты выше, чем у X1800 XL из той же ценовой ниши: 575 / 600 (1200) против 500 / 500 (1000) (указаны в МГц).
Карта оснащается памятью типа GDDR3 объёмом 256 MB, работающей на частоте 600 (1200) МГц, и имеет шину памяти шириной 256 бит.
Полностью поддерживается SM3.0 (DirectX 9.0c) и HDR блендинг в формате FP16.

На сайте hkepc.com уже появился обзор свежеиспеченной карты, в котором протестировали Radeon X1900 GT (575/1190 МГц), Radeon X1800 XL (500/1000 МГц) и GeForce 7900 GT (470/1320 МГц). Проанализировав опубликованные там результаты, мы пришли к заключению, что производительность X1900 GT, как и предполагалось, находится как раз на уровне конкурирующего решения от компании NVIDIA – 7900 GT. К примеру, разница в показателях синтетического теста 3DMark06 составляет всего 30 очков — в разрешениях 1024х768 карты набрали 5384 и 5354 баллов соответственно. В игровых приложениях также наблюдается относительный паритет: новинка где-то быстрее карты NVIDIA, а где-то, напротив, медленнее. При этом значительного разброса показателей тестов нет. Естественно, что карту попробовали разогнать. Частоту процессора удалось поднять с 575 до 649 МГц, памяти — с 1190 до 1432 МГц. Судя по всему, эти результаты получены со штатным охлаждением.
Ознакомиться с подробными результатами теста можно здесь. Несмотря на то, что обзор писали китайцы, таблицы вполне читаемы. ;)


Последний раз редактировалось Sikambr 11:10 15.05.2006, всего редактировалось 1 раз.

Полностью поддерживается SM3.0 (DirectX 9.0c) и HDR блендинг в формате FP16. 36 блоков пиксельных шейдеров обеспечивают высочайшую вычислительную мощь и производительность.
Я бы немного отредактировал эту фразу, а то похоже на официальный прес-релиз))) высочайшая вычислительная мощь, хех... слова по стилю как раз рекламные)) более того, так ХТ и ХТХ еще более вычислительные и мощные, так что все-таки не "высочайшая"... "на уровне конкурирующего решения от компании NVIDIA – 7900 GT")))))
Mash
"Высочайшая" и "наивысшая" — чувствуете разницу? ;)
Sikambr

Radeon X1800 XT (500/1000 МГц)


Там вроде с ATi Radeon X1800XL 256MB сравнивали.
Самое интересное, это битва X1800XT 256Mb vs X1900GT 256Mb (в номинале и в разгоне) 8-)
Сейчас думаю, на чём же всётаки остановить свой выбор... Цена близка...
Ждём обзора от Jordan :up: ;)
поправил :)

Mash
"Высочайшая" и "наивысшая" — чувствуете разницу? ;)

Хм... вот сейчас кажется почувствовал, да)))
Получается, нет ни у кого такой карты и вопросов, следовательно, тоже нет. Ладно. Но если вдруг что, вот еще одно тестирование с overclockers.ru:

GT, GT или XT? Сравниваем ATI Radeon X1900 GT с NVIDIA GeForce 7900 GT и Radeon X1800 XT

Лично для себя я выяснил основной интересовавший меня вопрос. Карта горячая. GPU — 92 по цельсию при нагрузке со штатным охлаждением. Причем, говорят, достаточно шумно. Замена же на Zalman VF700-Cu уменьшила общий шум и температуру процессора (до 60). Куда лучше.

Производительность таки на уровне 7900GT. Хотя последний в два(!) раза меньше потребляет энергии и изначально холоднее. Каким-то неверным путем идет АТИ, как по мне...

--------------------------------------
Небольшой оффтоп.
Подскажите, какой прогой снимаются такие данные (это х1900GT):

Изображение

Не хотелось бы перебирать кучу программ, а то нахимичу еще что-то где-то, не разберусь потом... но проверить (не разгонять, а только посмотреть) свою карту хотелось бы.

Спасибо.
Mash

Подскажите, какой прогой снимаются такие данные

RivaTuner, модуль мониторинга.
Monsterof3D
Спасибо. Надеюсь, она автоматически не попытается мне настройки попереставлять по своему усмотрению))
Тест карты Sapphire RADEON X1900 GT 256MB PCI-E на IXBT
Тесты показали, что эта видеокарта проиграла своему конкуренту в лице GeForce 7900 GT почти по всем статьям и тестам. Поэтому этот ускоритель явно должен быть дешевле, чем 7900 GT. Плюсом является поддержка HDR+AA, а также наличие более высококачественной анизотропии. Поэтому тут выбор за пользователями. И, конечно, все будет решать цена. Не будем забывать, что тираж этих карт очень ограничен: уже скоро выйдет RV570.
Что касается самой карты, то ускоритель отработал отлично, нареканий не было, качество в 2D превосходное! Разгон был возможен до 600 МГц по ядру и 820 (1640) МГц по памяти.
© ixbt

Не радужные результаты, но очевидно, что всё определит розничная цена. Стало очевидным, что "куча конвейров" ещё не гарантирует высокую производительность видеоускорителя. Основной плюс карты в поддержке HDR+AA, чем не могут похвастаться решения от Нвидиа (либо только HDR, либо только AA).
Sikambr
Странные у них какие-то результаты получились... не в том плане, что наврали (повода не верить ixbt вроде не было пока), но в других тестах такого разрыва не было... более того, взяв цитату из другого источника, получим следующее:
Если же говорить непосредственно о сравнении Radeon X1900 GT и GeForce 7900 GT, то преимущество в скорости продукта от ATI очевидно. © overclockers.ru
Мистика)))
Наверное кто-то кого-то кормит. Или у кого-то что-то не так работало просто, мало ли. Кстати, слышал (сам не видел) на других иностранных сайтах результаты ближе все же к оверским...
Mash, я бы больше доверял IXBT. Тест проведён более профессионально.

IXBT Конфигурация тестового стенда:

* Компьютер на базе Athlon 64 (939Socket)
o процессор AMD Athlon 64 4000+ (2400MHz) (L2=1024K);
o системная плата ASUS A8N32 SLI Deluxe на чипсете NVIDIA nForce4 SLI X16;
o оперативная память 2 GB DDR SDRAM 400MHz (CAS (tCL)=2.5; RAS to CAS delay (tRCD)=3; Row Precharge (tRP)=3; tRAS=6);
o жесткий диск WD Caviar SE WD1600JD 160GB SATA.
* операционная система Windows XP SP2; DirectX 9.0c;
* монитор Mitsubishi Diamond Pro 2070sb (21").
* драйверы ATI версии CATALYST 6.5; NVIDIA версии 91.28.
VSync отключен.


Overclokers Конфигурация тестового стенда, операционная система, драйверы, бенчмарки и игры, методика тестирования

* Материнская плата: ABIT AN8 SLI (nForce 4 SLI), Socket 939, BIOS v.2.0;
* Процессор: AMD Athlon 64 3200+ 2000 MHz, 1.40 V, 512 Kb, Cool&Quiet — Disable, (Venice, E6).
* Система охлаждения процессора: Thermaltake Big Typhoon "Hands Edition", ~1600 RPM, ~16-21 dBA;
* Термоинтерфейс: Coollaboratory Liquid Pro;
* Оперативная память: 2 х 512 Mb PC3200 Corsair TWINXP1024-3200C2 (SPD: 400 MHz, 2-2-2-5_1T);
* Дисковая подсистема: SATA-II 160 Gb Seagate Barracuda 7200.9 (ST3160812AS 2AAA) 7200 RPM, 8 Mb;
* Корпус: ATX ASUS ASCOT 6AR2-B Black&Silver + на вдув 120-мм корпусный вентилятор Coolink SWiF 120 mm (~1200 RPM, ~24 dBA) + на выдув и на боковой стенке 120-мм корпусные вентиляторы Sharkoon Luminous Blue LED (~1000 RPM, ~21 dBA);
* Блок питания: MGE Magnum 500 (500 W) + 80-мм вентилятор GlacialTech SilentBlade (~1700 RPM, 19 dBA);
* Монитор: LCD DELL 1800/1FP UltraSharp (1280x1024, DVI, 60 Hz).

Для исключения процессорозависимости тестируемых сегодня видеокарт и зависимости от скорости системы в целом процессор при повышении напряжения с номинального в 1.4 V до 1.65 V был разогнан до результирующей частоты в 2800 MHz:

В качестве драйверов GeForce 7900 GT использовался ForceWare 84.21, а для видеокарт на чипах ATI – Catalyst 6.4
Sikambr
Скоро и у нас будет тест этой карты, вот тогда и посмотрим кто прав, а кто виноват :yes:


Последний раз редактировалось Tester 23:13 07.06.2006, всего редактировалось 1 раз.
Sikambr
Более профессионально это как?))) Дрова свежее? Отточеные временем бенчмарки? Система лучше? Не могу понять просто. Хотя я и не говорил, что не доверяю им. Их общее ежемесячное сравнение видеокарт всегда считал главным "пособием" по выбору. Просто привел контраргумент, не более. В общем, посмотрим, как оно будет развиваться далее. Вот еще одно тестирование проведут... снова сравнить можно будет.

З.Ы.
А Обливион могли бы и добавить в тестирование. Хоть как-то новое поколение игр отобразить...
Sikambr
Собственно, присоединяюсь к вопросу Mash.
А пока пустые слова, не более. Аргументы есть?
Jordan
Я тут подумал, видимо имелись в виду именно дрова.
В принципе, если ForceWare 84.21 (что подчеркнуто) вышли очень давно, то это, конечно, минус. Сколько там времени прошло до версии 91.28? Не моя тема, не знаю. Представим, что 7900GT тогда еще не было — вообще ж страшно))) Но если же в этом проблемы нет, то никаких нареканий.
Jordan
Я не сказал, что Ваш обзор плох, я сказал, что он выполнен менее профессионально "с точки зрения СМИ", чем на IXBT. Много лишней и побочной информации для "массового читателя", несколько некорректные сравнения, громогласные выводы (кстати, на ixbt тоже перегнул автор). Только я лично не даю "мастер-классы по написанию статей". Заглянул в тему-обсуждение Вашей публикации — в целом Вам большую часть "по содержанию" уже выдали. Не следует слишком болезненно воспринимать критику, её следует учитывать при подготовке последующих обзоров и учится на недочётах. Удачи и новых публикаций.

Если же говорить непосредственно о сравнении Radeon X1900 GT и GeForce 7900 GT, то преимущество в скорости продукта от ATI очевидно.
Кстати, это Вы можете легко перепроверить, если карта 1900GT ещё на руках. Бета драйверы NV 91.31 можно взять здесь.

Mash, на клокерах использовался последний официальный драйвер Нвидиа — там уже есть поддержка 7900GT. На IXBT использовалась "официальная бета", которые очевидно уже переработаны. Это вероятнее всего объясняет разницу в показателях. Вспомните ситуацию с 3Дмарк2006, когда смена пакета драйверов дала существенный прирост?

На IXBT использовалась "официальная бета", которые очевидно уже переработаны. Это вероятнее всего объясняет разницу в показателях. Вспомните ситуацию с 3Дмарк2006, когда смена пакета драйверов дала существенный прирост?

Ого дровишки вышли... в итоге получается, что и 7900 GTX вырвется далеко вперед по сравнению с X1900XTX (если сравнивать относительно).

Не пора ли начать сравнивать качество господа? И это касается как ATI, так и NVIDIA. :(
Только если порассуждать, то мы там ничего не увидим — оптимизации идут под приложения на которых чаще всего и тестируют, а иногда и под конкретные(официальные, часто использующиеся) демки (вы думаете почему так вес драйверов растет неимоверно???). К всему этому, оптимизации вводятся не влияющие на качество (особенно касается официальных демок). :gigi: Оптимальный вариант тестирования — примерно раз в месяц менять демки на новые.
А на счет 3DMark's, там и говорить нечего — половина возможных оптимизаций вводиться еще до официального появления тестового пакета.

В итоге получается, что при близких хардварных характеристиках выигрывает тот, у кого дровишки лучше оптимизированны/заточены.
Но и это можно опровергнуть — сегодня драва заточенны лучше у одного, а завтра второй выпустит драйвера с новой продвинутой "фишкой", и начнется все заново. :gigi:

Может начнем сравнивать видеокарты на совсем не популярных играх? :lol:

Только не подумайте что защищаю кого-то — оба производителя "хороши" ;)


Последний раз редактировалось Tester 23:44 07.06.2006, всего редактировалось 1 раз.
Tester разработчикам драйверов приходится проводить огромную работу по оптимизации "общения" ускорителей с игрулями. Многое зависит и от "дарований" самих игроделов. Чем больше игр — тем сложнее всё учесть в драйверах. И тесты это постоянно отражают. Т.е. чем больше различных движков, тем больше будет разброс результатов, отражающих иногда не столько архитектурные преимущества или недостатки графических процессоров, сколько качество проведённой работы программистов. Есть "крутые конторы", которые оттачивают свои продукты (Вальва, ИД, Крайтек и прочие "супербизоны"), а есть множество тех, кто полагает — "железо мощное, итак переварит" или "потом доделаем". Хотя есть и приятные исключения — игруля Риддик.

Кстати, этот "бардак" и приводит к росту продаж приставок и росту числа игр, созданных специально для них. Если появятся стандарты, позволяющие "апгрейдить" приставки и зпускать игрули от Хбокс на Нинтендо, то "игровой ПК" отомрёт сам собой. Например, разделение на "игровой ПК" и "офисный" фактически уже давно произошло. Если нотебуки можно будет модернизировать так же как и ПК (идею продавливает Интел), то с "домашними мультимедийными ПК" тоже можно будет попрощаться.

Вот "вопрос на засыпку" — почему на игровых приставках ничего никогда не тормозит? =)

почему на игровых приставках ничего никогда не тормозит?


Понятно и ежу, что в рамках одной приставочной платформы используется одно железо. Соответственно не надо гадать где пойдет хорошо, а где плохо.

Чем больше игр — тем сложнее всё учесть в драйверах.
Вот и приходится производителям GPU исправлять ошибки разработчиков игр, а заодно и ради конкуренции вводить заточки/оптимизации :(

На счет Ридика не согласен, PS 3.0 там что-то тормозит неимоверно, без каких либо изменений графики (возможно сейчас ошибаюсь, может уже поправили).

Sikambr
может с темой производительности/заточек/оптимизаций и прочего переместимся во флейм?
Tester
Понятно и ежу, что в рамках одной приставочной платформы используется одно железо. Соответственно не надо гадать где пойдет хорошо, а где плохо. — а теперь представим, что разработчикам надо учесть порядка 50 актуальных игровых карт со всеми их особенностями. :) По этой причине мне кажется, что карты 1900GT и 7900GT примерно одного уровня и обладатели обеих моделей не будут в проигрыше. Пока не совсем понятно — насколько "играбельно" работает HDR+AA на 1900GT? Если приемлемо, то это в плюс данному адаптеру АТИ.

PS 3.0 что-то тормозит неимоверно — "мягкие тени"? :) Это скорее "модная фишка", чем реальный эффект, — в остальном сделано всё очень здорово и высокопрофессионально.
PS 3.0 что-то тормозит неимоверно — "мягкие тени"?
"мягкие тени" и 3-5 fps на GeForce 6800 GT — это круто??? :spy: Похоже ребята опередили свое время с "мягкостью" теней

Пока не совсем понятно — насколько "играбельно" работает HDR+AA на 1900GT.
Пока не совсем понятно почему Oblivion нормально играбельно только на X1800 XT и выше.

разработчикам надо учесть порядка 50 актуальных игровых карт со всеми их особенностями
В чем особеность например 7900 GT по сравнению с 7900 GTX? C такими дровишками у NVIDIA и X1900 XTX опуститься???
Наоффтопили и хватит! :)
Jordan, Sikambr
Ваш диалог удален. При желании продолжите в личной переписке. За дополнительной информацией обращайтесь в Л.С.
Tester

Скоро и у нас будет тест этой карты, вот тогда и посмотрим кто прав, а кто виноват :yes:
Ну что, это время еще не настало? Мне аж самому неловко: малость был поумничал про разные выводы — люди начали ссориться... зато теперь еще одни результаты посмотреть хотелось бы...

Ну что, это время еще не настало?

Карта пришла с проблемным биосом, а рабочий вариант мне так и не прислали. Ждёмс...
Я купил такую карту. Подскажите подойдет ли к ней система охлаждения Ice Hammer HI-250V. А то че то шумная стандартная офигеть. И че то мало очков выдает .
3D mark 2003 — ~13500
3D mark 2005 — ~7600
3D Mark 2006 — ~2800
мож проц слабовать. И какой корпус вы мне посоветуете выбрать для всего етого дела?
Да и хотелось бы узнать максимальный темпиратурный предел етой крты а то греется сильно.
Денискин
Не только ICE HAMMER IH-250V, но и более производительный ICE HAMMER IH-300V в условиях
закрытого корпуса летом не справится с такой картой.
Насчет корпуса сюда — Корпуса и блоки питания
Недавно лазил по Price.ru и нашел вот это. Это шутка? О модификациях 512MB я ничего не слыхал, на сайте Sapphire подтверждения не нашел.
Поставил на видюху кулер Zalman Cf700 Cu Офигенно стало тишина и в игрушки комфортно играются
Кто подсакжет че за фигня. пограмма Everest Ultimate 2006 показывает что у моей крты 16 конвееров и 16 процессоров да ето точно не так а остальное все верно. Вед у этой карты 36 пиксельных конвееро и 12 процессоров. Rive tuner показывает что 12tmu
Денискин
Эвересту не верить — верить Риватюнеру ;)
Наверное у тебя не актуальная версия Эвереста и в базе просто еще нет X1900 GT.
конфиг asus m2v (am2,via k8t890, 8237, +sata2 marvell, +lan 1gb), sempron3000(1600), 2gb ram 667, sapphire 1900gt, psu tt 550. все номинал.
крутит без пробс 3dmark 03 — 13000, 05 — 7000.


... И че то мало очков выдает .
мож проц слабовать.

похоже на то

система охлаждения 120мм кулер на ребро карты — t80 при нагрузке и кулер на карте обороты не поднимает. пока собрано только на столе.
Как всем хорошо известно, видеокарты на основе Radeon X1900XTX отличаются горячим нравом, высоким энергопотреблением и, как следствие, некоторой шумностью штатной системы охлаждения. Поэтому вопрос о выборе более эффективной и главное тихой системы охлаждения является довольно актуальным. Совсем недавно, на примере Sapphire X1900XTX TOXIC мы познакомились с удачной попыткой оснастить стандартную видеокарту X1900XTX водяной системой охлаждения.

Однако здоровый "инженерный зуд" в плане подбора эффективной системы охлаждения для Radeon X1900XTX, как выяснилось, не обошел стороной и коллектив компании HIS. Сегодня мы рассмотрим видеокарту HIS X1900XTX IceQ3, которая оснащена воздушной системой охлаждения от Arctic Cooling и выясним, насколько оно эффективно справялется с охлаждением горячего X1900XTX. Итак, приступим.

Кстати у меня стоят такой же фирмы Arctic Cooling, в корпусе, тихие и безшумные вентеляторы.


http://www.3dnews.ru/video/x1900xtx-his-iceq3/
ROMANio
Здесь обсуждают только X1900 GT.
Вам сюда
Не знаю, но я купил Radeon PowerColor x1900GT и не жалею нисколько!!! Кстати. вы немного не правильно сравниваете видеокарты. Вы их сравниваете по показателем, которые выдают тесты, а надо сравнивать по возможностям, которые они могут РЕАЛЬНО использовать. Все время NVidia славилась тем. что делала видеокарты под игры, т.е. она затачивала видюху под быстродействие, жертвуя качаством. Я когда первый раз пощупал Radeon 9700 Pro — это был шедевр, NVidia рядом не стояла и не курила ))). Radeon'ы разрабатывались как профессиональные видеокарты для серьезной обработки графики, а не для игр, поэтому в большинстве игр они в скорости проигрывали NVidia, но не в качестве исполнения!!! У меня до этой видеокарты была ASUS GeForce 6600GT HDTV 128 Mb 128 Bit. Вы не представляете, что такое 16х Сглаживание и 16x Анизотропия на этой карте, смешно до слез ))) Спрашивается, зачем делать видеокарту с кучей возможностей, которые она не в состоянии хотя бы в половину потянуть???? Первый мой тест с Radeon x1900GT:
6x Сглаживание (больше не делается, а зачем больше-то?)
16х Анизотропия (ну это и так понятно)) )
все настройки по самому высокому качеству.
Oblivion — хоть бы, зараза, хоть где-то подтормозила
FarCry — вообще летает
Half-Life 2 — то же самое
Есть еще лидеры в игростроении?
Да, кстати, интересный феномен!!!....
Во время тестов видеокарта не задирает FPS выше 100, а NVidia давит на полную, скока может, спрашивается, зачем? Если человеческому глазу выше 25 FPS уже все трынь-трава?

Извините, если отвлекся от темы, птосто хотелось показать на примерах коренную разницу между NVidia и ATI

Кстати, по поводу греется сильно... А как вам AMD и Intel? Почему-то хоть AMD и сильно греется, только это мало кого заботит, так как он себя оправдывает на 200 процентов по сравнению с Intel

Устное предупреждение за нарушение пункта 2.3 правил. Так же не рекомендуется писать подряд сообщения, если они написаны в маленький промежуток времени.
student
Я тоже приобрел данный девайс, и тоже, в общем-то, не жалею... Скорость приличная, качество исполнения неплохое... Работаю в магазине по продаже компов старшим техником, поэтому сравнивал с GF 7900GT. Последняя мне показалась помедленнее, особенно в Обливион (я вообще большой разницы по сравнению с моей предыдущей GeForce 6800Ultra не заметил)...
xScorpioNx, возможно, у тебя проц значительно мощнее, в инфу лазить мне некогда, но я бы не сказал что на X1900GT Обливион нигде не подтормаживает... К примеру в торговом районе Империал Сити до 15 кадров опускается... По-моему это и называется "тормозит"... Но 7900GT в этом месте до 11-и... А впрочем, не претендую на достоверность тестирования, просто то, что сам пробовал))
Нвидиа по-моему очень неплохо делает свои карты, "душевно", я бы сказал... Но с 7900ГТ явно напортачили)))
как раз наоборот , у нвиды на данный момент 7900гт самый интересный вариант после 7600гт ,последний чуть медленнее х850хт , на стороне 7900гт отличный разгон , но кончено не возможность поддержки аа + хдр это вообще маразм ...
DooM_Schneider
не возможность поддержки аа + хдр это вообще маразм
Это как взглянуть. Попробуйте запустить 1280х1024 (всё high) с HDR да ещё и ААх4... :D
Новая тема    Ответить  [ Сообщений: 101 ]  На страницу 1, 2, 3  След.


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 3


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru