Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 1 из 8 [ Сообщений: 285 ]  Версия для печати [+] На страницу 1, 2, 3, 4, 5 ... 8  След.
Показать сообщения за  Поле сортировки  
666Kamikadze666
Понравилось? Ставьте +_ик в репу, а то меня — супер-пупер-модера — уже догоняют... :gigi:
U-Nick
Флейм не котируется :gigi:
MikeIS
Явно зря. Иногда здесь полезной информации больше чем в профильных ветках.
U-Nick
А кто вас догоняет? Давайте мы забаним этого человека! :)

Ставьте +_ик в репу.

так Вы посмотрите репу повнимательнее :) . пришлось правда по форуму полазить, чтобы плюсануть. тут же нельзя... :(

А кто вас догоняет? Давайте мы забаним этого человека!
:no: давайте ПОДДЕРЖИМ этого человека!

Ребятки, ну вы что, совсем шуток не чуете? :D

666Kamikadze666
Ага, уже увидел... :beer:
U-Nick

Ребятки, ну вы что, совсем шуток не чуете?

Понимаем. Поэтому и шутим в ответ. :)
А если серьёзнее, скоро Новый Год, в т.ч. на форуме, вы готовы?
Дело это добровольно-принудительное. :D
Думаю, Деду Морозу плюсов поставят прилично.


-- Добавлено спустя 3 ч 10 мин 32 с --
U-Nick
Вот теперь другое дело!!! :)
Поздравляю!!!!!

А если серьёзнее, скоро Новый Год, в т.ч. на форуме, вы готовы?


Да кстати, снежинки будут?
Изображение
Ну вот, опять меня запрягли... :gigi: Но это — ПОСЛЕДНИЙ РАЗ! :yes: В следующем году я уже выйду из дед-возраста... на следующую ступеньку :shuffle:

666Kamikadze666
А вот даже я не в курсе...
:oops: Эх, вот был бы классный подарок всем нам — вставка картинок прямо с наших компов
666Kamikadze666

Да кстати, снежинки будут?

Вероятно.
сюда еще пост вставлю)

стояла раньше зеленая, теперь поставил красную на эту же систему.
в программах установленных осталась PHYSX, но нужна ли она теперь или можно эту прогармму удалять смело.ну и всё, что с ней связано?
ev23
Не будут работать игры где физический движок — PhysX.
А вот кстати — вопрос. Раньше, когда ставил на Windows 8 драйвера видеокарты nvidia, то устанавливались отдельно и драйвера физикса — их было видно в программах и компонентах. Раньше я их удалял вместе с основными драйверами nvidia перед установкой новых дров. А теперь — последние 2-3 версии официальных драйверов nvidia — драйвера физикса в программах и компонентах вообще не отображаются, хотя нвидиевский установщик показывает, что драйвера физикса установлены :oops:

Это теперь у nvidia фича такая, что отдельно драйвера физикса нельзя снести через меню программы и компоненты? :confused:
Asmodeus
Отображается. В крайнем случае сносите через установщик.
Видеокарты GeForce GTX 970 не могут работать с 4 ГБ памяти эффективным образом

Изображение
Так правильнее :lol:
Изображение
Жёсткий_Чебур
У меня не 290х, но когда был синий экран в последний раз уже и не помню. :)
DigiMakc
Тоже самое, у меня и на 290x их небыло. Система молотит сутки на пролет и ничего.
Минус 290x только в шумности и горячести стандартной со, а так она даже досих пор обходит 980 кое где и особенно в 4k.
nVidia GTX 970 above and below 3.5GB usage video capture
Вроде как есть информация, что 660, 660Ти 192, 770 тоже этим страдают.

http://www.pcper.com/news/Graphics-Card ... mory-Issue

NVIDIA GeForce GTX 970 не может использовать все 4 ГБ видеопамяти
Очень интересный комментарий с Оверов: http://forums.overclockers.ru/viewtopic.php?p=12628254#p12628254
Жёсткий_Чебур
Видел.

Как проверить? Тоже писали на форуме: Переключаемся на встроенную видюху intel, и подключаем к ней монитор. А nVidia тестируем.
NVIDIA = перманентный "синяк" на 32-битном Windows 2003 Server (The driver is mismanaging system PTEs). Они в курсе уже который год, но исправлять не хотят и не будут. Даже из списка загрузки убрали, а на все вопли поддержка стандартно предлагает дрова от XP, которые не работают и они это знают, или посылают на фиг к ОЕМам. 64-битный 2003 Server как бы поддерживается, но более-менее нормально работает только в 2D, иначе валится в тот же "синяк". Так что сказки о качестве дров NVIDIA можно оставить фанатам, они всё стерпят.

Качество железа NVIDIA тоже не вызывает восхищения. Они даже в бивисы зашивают критическую температуру целых 110 градусов, поэтому через пару лет работы видяхи часто дохнут (ничего, пусть юзеры новые покупают). Поднимаются хреново, 75% уходит в разборку. Вчера жарил 7 дохлых и полудохлых карт, в том числе 6 NVIDIA от 7900GTX до 9800GX2. Одна осталась с теми же артефактами, остальные совсем трупы с внутричиповым КЗ или без признаков жизни. 7-я была HD5970 с отвалом основного камня, поднялась без проблем.
Хуанговская инженерия в действии.

Walter S. Farrell

Они даже в бивисы зашивают критическую температуру целых 110 градусов

У Радеонов такая же, если не больше. Лично у меня 6950 разлоченный хреначил 105 градусов и ничего.
На английском: http://www.pcper.com/reviews/Graphics-C ... ns-GTX-970

Это пипец Изображение

NVIDIA GeForce GTX 970 в деталях: 56 RBE и урезаный кеш
На соседнем ресурсе выложили тест скорости памяти для всех видеокарт: Тест скорости видеопамяти.

Теперь испытать батхёрт сможет каждый. :gigi:
Мой репост по этому поводу из соседнего флейма.
Проблема раздутая на пустом месте и не стоящая и выеденного яйца.
Память все равно вся доступна, только приоритет отдан первому банку из 3,5 гигов, а если там не поместится подключится еще 0,5 гига памяти. Падение производительности при этом равно статистической погрешности, но чтобы раздуть скандал используют такие большие проценты :oops:
В реале — дает игра 100 кадров, ну а могла бы 102 или иногда 105 давать, или к примеру выдает 60 кадров ( а игры стараются под это значение лочить ) — ну выдала бы 60,6 кадра.
Короче очередной вброс черного пиара, раздутого из блохи до уровня индийского слона.
Лучше прикиньте разницу в цене. Этим все объясняется, а то многие хотя купить 970 и чтоб она была как 980, тогда на кой эту 980 было бы выпускать. А пускать на 970 и карты более младшие полноценный чип и разводку всех компонентов, а затем это дело отключать блоками, дабы разграничить по производительности, это уже дебилизм. Прошли времена разлочки карт, пора бы это уже давно принять и не засирать флеймы раз от разу, не разобравшись даже в причинах, вынудивших так поступить команду инженеров.
msivano
Не не 2-5% это слишком много. Ура NVIDIA ГЭ :)
msivano

Короче очередной вброс черного пиара, раздутого из блохи до уровня индийского слона.

Хорошо хорошо, 2 банк памяти не дает занижение производительности... или дает? Не суть, все это не столько важно, сколько ложь про ROP, КЭШ и VRAM GTX970.
Жёсткий_Чебур
Дело даже не в тесте, к тесту тоже есть вопросы, и они подняты на форуме :)

Конкретно если говорить о 970, то выяснились интересные детали, которые многих оттолкнут от выбора этой карты. Т.е. по заявлению производителя — одно, а на деле, как выясняется, — другое. Но есть подозрение, что это не конец истории :)
DigiMakc

+1 вот я теперь вообще не буду брать 970, зачем мне то, что специально было урезанно и они об этом знали. Тогда надо было делать не 4 гб а 3.5гб, это было бы честно. А так я считаю, что я даром заплачу за 512 мб
DigiMakc
SevenXP
Что бы оперировать такими заявлениями:

msivano
Не не 2-5% это слишком много. Ура NVIDIA ГЭ :)


Хорошо хорошо, 2 банк памяти не дает занижение производительности... или дает?

Нужно как минимум обладать хоть какими то доказательствами, а чтобы их получить, нужно выпустить аналогичную 970 лишенную этих недочетов, что на текущем варианте архитектуры максвел не возможно.
Если сравнивать ее с полноценным чипом 980, то вариант чипа 970 соответствует заявленному уровню производительности и той нише на которую он нацелен.

DigiMakc
+1 вот я теперь вообще не буду брать 970, зачем мне то, что специально было урезанно и они об этом знали. Тогда надо было делать не 4 гб а 3.5гб, это было бы честно. А так я считаю, что я даром заплачу за 512 мб

У вас чем то подтвержденные данные, что те 512 метров памяти распаянных на плате играм не доступны, или вы утверждаете что их там нет, либо, что эти 512 метров вообще не работают???
Пардон, но вы явно заблуждаетесь, так как память доступна вся.

Не суть, все это не столько важно, сколько ложь про ROP, КЭШ

По этому параметру да, есть обоснованные претензии. Но отсутствие нескольких заявленных блоков растеризации и отсутсвие 256 килов кеша вызвало у карты какие либо технические сбои, фризы на ровном месте, обоснованно доказанное падение производительности выше того порога, указанного в инженерной спецификации, либо не функциональность второго блока памяти? Ответ нет.

и VRAM GTX970

В чем ложь??? Памяти 4 гб установленно? — 4, доступно все 4 гб? — доступно, используется ли все 4 гб по своему назначению? — используется. Повторюсь — в чем ложь??? Вы наверное считаете, что если игре допустим чтобы обработать графику на текущем разрешении достаточно 3гб памяти и подключив четвертый гиг вы получите прирост??? Если игре нужно 3 гига в текущий момент, она и будет есть 3 гига, выдавая то что выдают блоки растеризации и текстурирования ( именно их производительность в купе с поддержкой определенных инструкций и расширений графических движков) и дает вам фпс, а не одна лишь память. Другое дело если игре нужно к примеру памяти больше, чем у вас есть, тогда да, добавив еще памяти вы получите прирост, правда до тех пор, пока хватает производительности блоков растеризации и текстурирования, но а до тех пор толка не будет. И конечно немаловажно каким образом оно доступно, но если бы прежде чем начинать холивар вы поинтересовались прошлым картостороения, то могли бы заметить, что память раньше паяли банками разной плотности и объема( и о чудо, раньше, чтобы получить к примеру гиг памяти, приходилось его набирать из памяти разной плотности, а она сволочь имела разное количество контактных точек для припайки, и что немаловажно чип имел, да и сейчас имеет, ограниченное количество линий, на которые можно припаять эти чипы,набирать память плотными банками — невыгодно, так как дорого и неизбежно получится переизбыток памяти ( дружно вспоминаем карты от нв с забавным количеством памяти — 896, 1392, 1768 мегабайт ) , дабы получить нужный объем памяти, потому как распаять на подводах к ядру можно лишь определенный объем, а не то, сколь заблагорассудится. Но делав так, производительность проседала от теоретической куда более ( не поленитесь, найдете старые холивары по этому поводу в инете), нежели решение, которое применило в этот раз нв. Нв распаяла чипы одинакового объема и плотности, разграничив адресное пространство лишь за счет приоритизации доступа, первых три с половиной гига доступны сходу всему, а дополнительные пол гига только если не хватило места в основном массиве, что в свою очередь повлекло падение производительности в пределах 2 — 5% и то лишь тогда, когда используется больше чем три с половиной гига памяти, а до тех пор карта будет выдавать все, на что способна, в полной мере.
Что имеем в сухом остатке:
1) Используются ли все 4 гигабайта памяти? — ответ используются.
2) Стоит ли наказать пиар-отдел за недостоверную информацию касательно блоков растеризации и кеша? — однозначно стоит.
3) Удалось ли инженерам максимально достойно компенсировать недостаток блоков и недостающие 256 килов кеша, сохранив при этом общую производительность в допустимых пределах ? — удалось, пока не будет объективно доказано обратное, с конкретными примерами.
4) Стоит ли тем, кто купил эти карты не зная этого, бежать и сдавать их в магазин, меняя на аналоги либо старший чип? — только если их не устраивает производительность, коей поверьте хватает с избытком.
5) Соответствует ли GTX970 той плоскости рынка, на который она была нацелена? — соответствует.
6) Стоит ли нв скинуть немного цену в качестве извинений? — однозначно да, что и будет скорее всего сделано.
P.S.
Но уж если на то пошло, то пусть реально супер-пупер быстрой памяти в карте 3,5Гб, а остальные 500мб грубо говоря "медленнее", Хорошо, но вы когда карту выбираете, берете ту у которой памяти больше или шина шире, а не ту которая вам по карману и обладает достаточной вам производительностью? По тестам прекрасно видно разницу между 980-й и 970-й и эта разница была искусственно, с помощью отключения части вычислительных блоков, создана, для того что бы разделить две карты по разным сегментам и назначить им соответствующие цены. Ну так вот и скажите мне, если бы у 970-й была "идеально" быстрая 4Гб оперативка и она была бы быстрее процента на 2-5 как тут заявляется, что бы помешало нвидии, слегка понизить частоту памяти/чипа что бы эти самые 2-5% убрать и не соревноваться с топовым сегментом или новыми карами (какой-нибудь 970Ti к примеру)?

Нет, есть конечно люди принципиальные, которые скажут, мол умолчали, скрыли, обманули и т.д. Хорошо, вы правы, но тогда и не только нвидию нужно четвертовать, а начать хотя бы с производителей жестких дисков, что уже не один десяток лет считают гигабайт как 1000мб и производителей экранов заодно что измеряют быстродействие матрицы в идеальных, оторванных от реальности, условиях. Таких примеров — вагон и еще столько же будет.
msivano

Вы наверное считаете, что если игре допустим чтобы обработать графику на текущем разрешении достаточно 3гб памяти и подключив четвертый гиг вы получите прирост???

Нет, я знаю для чего нужна видеопамяти и прирост будет от дополнительной VRAM только тогда, когда VRAM будет уже мало на столько, что оставшиеся текстуры будут забиваться в ОЗУ. Вы можете провести опрос и поймете что есть люди, а их не мало, кто купил GTX970/980 только из-за 4ГБ видеопамяти.


но вы когда карту выбираете, берете ту у которой памяти больше или шина шире, а не ту которая вам по карману и обладает достаточной вам производительностью?

Когда я выбираю карту я смотрю на производительность и цену. В конце концов я что зря что ли купил R9 290X PCS+ за 4000 рублей когда тот 30к стоил, а щас все 40?
Katiphus
Я когда карту покупаю, смотрю чтобы было адекватное соотношение цена/качество/нормальные дрова — нв вне конкуренции, во всяком случае пока.

Нет, я знаю для чего нужна видеопамяти и прирост будет от дополнительной VRAM только тогда, когда VRAM будет уже мало на столько, что оставшиеся текстуры будут забиваться в ОЗУ

О чем я и написал ниже выделенного вами куска поста, приведенного для цитаты.

В конце концов я что зря что ли купил R9 290X PCS+ за 4000 рублей когда тот 30к стоил, а щас все 40?

Нет, не зря, но он у вас нормально работать не захотел, причина этого в том что амд давно пора было выпустить набор обновленной системной логики для их продуктов, с гарантированной поддержкой последнего их оборудования, дабы не заводить его танцами с бубном. Должно быть как — есть платформа, для нее выпускают железо и производитель говорит что оно совместимо и будет работать нормально, из этого железа я собрал себе стацик — он должен завестись и работать так, чтобы у меня голова не болела по принципу — включил, загрузился, пользуйся. А не так, что купил, собрал, поставил ось и понеслась кривая в кось, пока кто нибудь не выложит решение проблемы, которое может помочь, а может и не помочь. В этом плане я за нв спокоен. Как пример — есть комп, собранный еще на 754 сокете, биос не перепрошивался с момента покупки, на него была поставлена сначала HD4850, которая отпахала как часы. Затем спустя 5 лет она издохла и была приобретена hd6850 — не стартанула, 7770 — тоже самое, клиент плюнул и купил 650ти — завелась с пол оборота и нормально работает.
msivano

Нет, не зря, но он у вас нормально работать не захотел

Проблема не в нем. И не в софте.


В этом плане я за нв спокоен. Как пример — есть комп, собранный еще на 754 сокете, биос не перепрошивался с момента покупки

Есть комп, стоит в деревне с процом уровня Атлон x64 3200+ и Radeon 2600XT и без проблем все работает а ему уже больше 10 лет. Что-то не так?

-- Добавлено спустя 6 мин 22 с --

была приобретена hd6850 — не стартанула, 7770 — тоже самое, клиент плюнул и купил 650ти — завелась с пол оборота и нормально работает.

Советую вам посмотреть на ламели разьема видеокарт. Может так будет понятнее что у 650Ti их в разы меньше и скорее всего от суда надо плясать.
Katiphus

Есть комп, стоит в деревне с процом уровня Атлон x64 3200+ и Radeon 2600XT и без проблем все работает а ему уже больше 10 лет. Что-то не так?

Сравни как минимум давность железа ;) Год выпуска 2600xt и 650ти. А затем возьми 290 и вставь туда, как думаешь заведется? и о чем это говорит?? — все началось с того что амд перешла на GCN и вот тогда эти танцы с бубном и начались — проследи тенденцию возникновения проблемы ;)
Или вы хотите сказать, что ваша 970 от того что вы узнали правду как она есть стала хуже работать и превратилась в 5200титаниум? — как тянула так и тянет. У друга на его 970+ 4590 4 фаркрай выдает до 105 фпс, а видео лучше писать афтебернером — меньше (значительно ) ресурсов потребляет.


Последний раз редактировалось msivano 09:18 28.01.2015, всего редактировалось 1 раз.
msivano

А затем возьми 290 и вставь туда, как думаешь заведется?

Заведется, а потом мать сгорит потому что вряд ли рассчитана на потребление в 350Вт по линии PCI-E.


проследи тенденцию возникновения проблемы

У меня после GCN (первая видеокарта была 5850) проблем как раз стало меньше. Это вторая проблема с AMD за все это время (и то причем тут видеокарта? ну допустим виновата AMD с ее GCN а не материнская плата и южный мостик). Первая кстати заклюачалась в драйвере, номер не помню но вроде 14.2 или 14.4 при удалении которого сносились драйвера чипсета и usb-хост контроллера причем как на платформе Intel так и на AMD, при запуске системы отключались все USB, работал только PS/2 и решить проблему можно было только точкой восстановления или переустановкой системы (хотя может быть можно было и как-то еще). А так за время использования 5850, 6870, 6950, 7870 PCS+, 7950, 7970, r9 290x, кросс-сборок вроде 7950+7870 PCS+ или 7950+7970 ни каких проблем не было, у отца на 7870 тоже все пучком, а ныне на моем прошлом 7970 все без проблем. Не понимаю людей которым просто не повезло с 1 картой AMD ныть про кривизну драйверов и якобы низкую производительность в сравнении с nVidia.

Зато с GTX560Ti проблемы были, хоть и не значительно но тем не менее: с одним драйвером в БФ3 текстуры плывут (очень распространенная проблема была на этой карте в этой игре), с другим троттлинг не работает, с третьим производительность меньше. Хотя в остальном хорошо отработала и производительность не плохая.


Последний раз редактировалось Katiphus 09:29 28.01.2015, всего редактировалось 6 раз(а).
Katiphus

Заведется, а потом мать сгорит потому что вряд ли рассчитана на потребление в 350Вт по линии PCI-E.

Запитай от своего блока, в чем проблема. А мамке ничего не будет — PCI-E — разных версий обратносовместим и доп питание возмет от блока и от слота свои 75 ватт.

-- Добавлено спустя 6 мин 4 с --
Katiphus
Все модели до HD 76xx основаны на архитектуре VLIW5, модели HD 77xx-79xx основаны на архитектуре Graphics Core Next. Ну и более старшие естественно.
Не знал, думал что GCN с тех пор как DX11 появился. Но все равно 5 разных карт и кросс-сборки, а проблем нет.
Katiphus
Проблемы на которые жалуются, касаются отнюдь не игр. Первое это кривое аппаратное ускорение, которое часто приходится отключать иначе синька при просмотре потокового видео на ютьюбе считай обеспечена ( до сих пор не вылечена ). У нв когда крашится это дело просто плагин выбивает, перезапуск браузера обычно помогает. Вторая проблема на которую жалуются это дрова. У нв тоже бывают дрова косячные — когда семерка вышла, то с версии 314 прошло 6 выпусков дров, пока на моей 460 тогда была нормальная производительность и все норм заработало, на более старой версии дров все работало четко. Причем на старых картах ускорение (до HD5ххх включительно ) работает исправно.
Я бы рад попробовать топ уровня 780Ti, но никто не предлагает его за 4000. Зато артефачные 560-580 продают за 500-1000 рублей, бери — не хочу, а решение артефактов, как вы понимаете, дело минутное, когда есть технический фен или газовая горелка :D


Последний раз редактировалось Katiphus 09:54 28.01.2015, всего редактировалось 2 раз(а).
Новая тема    Ответить  [ Сообщений: 285 ]  На страницу 1, 2, 3, 4, 5 ... 8  След.


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru