Radeon.ru
https://forum.radeon.ru/

Флейм из ATI vs NVIDIA
https://forum.radeon.ru/viewtopic.php?f=14&t=47092
Страница 1 из 1

Автор:  U-Nick [ 18:23 22.12.2014 ]
Заголовок сообщения:  Флейм из ATI vs NVIDIA

666Kamikadze666
Понравилось? Ставьте +_ик в репу, а то меня — супер-пупер-модера — уже догоняют... :gigi:

Автор:  MikeIS [ 19:05 22.12.2014 ]
Заголовок сообщения: 

U-Nick
Флейм не котируется :gigi:

Автор:  Asmodeus [ 22:17 22.12.2014 ]
Заголовок сообщения: 

MikeIS
Явно зря. Иногда здесь полезной информации больше чем в профильных ветках.

Автор:  - frontier - [ 09:38 23.12.2014 ]
Заголовок сообщения: 

U-Nick
А кто вас догоняет? Давайте мы забаним этого человека! :)

Автор:  666Kamikadze666 [ 12:22 23.12.2014 ]
Заголовок сообщения:  Re:


Ставьте +_ик в репу.

так Вы посмотрите репу повнимательнее :) . пришлось правда по форуму полазить, чтобы плюсануть. тут же нельзя... :(

Автор:  U-Nick [ 15:46 23.12.2014 ]
Заголовок сообщения: 


А кто вас догоняет? Давайте мы забаним этого человека!
:no: давайте ПОДДЕРЖИМ этого человека!

Ребятки, ну вы что, совсем шуток не чуете? :D

666Kamikadze666
Ага, уже увидел... :beer:

Автор:  - frontier - [ 19:27 23.12.2014 ]
Заголовок сообщения: 

U-Nick

Ребятки, ну вы что, совсем шуток не чуете?

Понимаем. Поэтому и шутим в ответ. :)
А если серьёзнее, скоро Новый Год, в т.ч. на форуме, вы готовы?
Дело это добровольно-принудительное. :D
Думаю, Деду Морозу плюсов поставят прилично.


-- Добавлено спустя 3 ч 10 мин 32 с --
U-Nick
Вот теперь другое дело!!! :)
Поздравляю!!!!!

Автор:  666Kamikadze666 [ 08:12 24.12.2014 ]
Заголовок сообщения:  Re:


А если серьёзнее, скоро Новый Год, в т.ч. на форуме, вы готовы?


Да кстати, снежинки будут?
Изображение

Автор:  U-Nick [ 12:37 24.12.2014 ]
Заголовок сообщения: 

Ну вот, опять меня запрягли... :gigi: Но это — ПОСЛЕДНИЙ РАЗ! :yes: В следующем году я уже выйду из дед-возраста... на следующую ступеньку :shuffle:

666Kamikadze666
А вот даже я не в курсе...
:oops: Эх, вот был бы классный подарок всем нам — вставка картинок прямо с наших компов

Автор:  - frontier - [ 15:27 25.12.2014 ]
Заголовок сообщения: 

666Kamikadze666

Да кстати, снежинки будут?

Вероятно.

Автор:  ev23 [ 15:57 12.01.2015 ]
Заголовок сообщения: 

сюда еще пост вставлю)

стояла раньше зеленая, теперь поставил красную на эту же систему.
в программах установленных осталась PHYSX, но нужна ли она теперь или можно эту прогармму удалять смело.ну и всё, что с ней связано?

Автор:  Katiphus [ 19:45 12.01.2015 ]
Заголовок сообщения: 

ev23
Не будут работать игры где физический движок — PhysX.

Автор:  Asmodeus [ 22:34 12.01.2015 ]
Заголовок сообщения: 

А вот кстати — вопрос. Раньше, когда ставил на Windows 8 драйвера видеокарты nvidia, то устанавливались отдельно и драйвера физикса — их было видно в программах и компонентах. Раньше я их удалял вместе с основными драйверами nvidia перед установкой новых дров. А теперь — последние 2-3 версии официальных драйверов nvidia — драйвера физикса в программах и компонентах вообще не отображаются, хотя нвидиевский установщик показывает, что драйвера физикса установлены :oops:

Это теперь у nvidia фича такая, что отдельно драйвера физикса нельзя снести через меню программы и компоненты? :confused:

Автор:  Жёсткий_Чебур [ 11:31 14.01.2015 ]
Заголовок сообщения: 

Asmodeus
Отображается. В крайнем случае сносите через установщик.

Автор:  DigiMakc [ 15:29 24.01.2015 ]
Заголовок сообщения: 

Видеокарты GeForce GTX 970 не могут работать с 4 ГБ памяти эффективным образом

Изображение

Автор:  Жёсткий_Чебур [ 16:11 24.01.2015 ]
Заголовок сообщения: 

Так правильнее :lol:
Изображение

Автор:  DigiMakc [ 16:14 24.01.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур
У меня не 290х, но когда был синий экран в последний раз уже и не помню. :)

Автор:  S_U [ 16:44 24.01.2015 ]
Заголовок сообщения: 

DigiMakc
Тоже самое, у меня и на 290x их небыло. Система молотит сутки на пролет и ничего.
Минус 290x только в шумности и горячести стандартной со, а так она даже досих пор обходит 980 кое где и особенно в 4k.

Автор:  DigiMakc [ 04:05 25.01.2015 ]
Заголовок сообщения: 

nVidia GTX 970 above and below 3.5GB usage video capture
Вроде как есть информация, что 660, 660Ти 192, 770 тоже этим страдают.

http://www.pcper.com/news/Graphics-Card ... mory-Issue

NVIDIA GeForce GTX 970 не может использовать все 4 ГБ видеопамяти

Автор:  Жёсткий_Чебур [ 09:51 25.01.2015 ]
Заголовок сообщения: 

Очень интересный комментарий с Оверов: http://forums.overclockers.ru/viewtopic.php?p=12628254#p12628254

Автор:  DigiMakc [ 13:38 25.01.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур
Видел.

Как проверить? Тоже писали на форуме: Переключаемся на встроенную видюху intel, и подключаем к ней монитор. А nVidia тестируем.

Автор:  Walter S. Farrell [ 19:37 25.01.2015 ]
Заголовок сообщения: 

NVIDIA = перманентный "синяк" на 32-битном Windows 2003 Server (The driver is mismanaging system PTEs). Они в курсе уже который год, но исправлять не хотят и не будут. Даже из списка загрузки убрали, а на все вопли поддержка стандартно предлагает дрова от XP, которые не работают и они это знают, или посылают на фиг к ОЕМам. 64-битный 2003 Server как бы поддерживается, но более-менее нормально работает только в 2D, иначе валится в тот же "синяк". Так что сказки о качестве дров NVIDIA можно оставить фанатам, они всё стерпят.

Качество железа NVIDIA тоже не вызывает восхищения. Они даже в бивисы зашивают критическую температуру целых 110 градусов, поэтому через пару лет работы видяхи часто дохнут (ничего, пусть юзеры новые покупают). Поднимаются хреново, 75% уходит в разборку. Вчера жарил 7 дохлых и полудохлых карт, в том числе 6 NVIDIA от 7900GTX до 9800GX2. Одна осталась с теми же артефактами, остальные совсем трупы с внутричиповым КЗ или без признаков жизни. 7-я была HD5970 с отвалом основного камня, поднялась без проблем.

Автор:  Katiphus [ 23:08 26.01.2015 ]
Заголовок сообщения: 

Хуанговская инженерия в действии.

Walter S. Farrell

Они даже в бивисы зашивают критическую температуру целых 110 градусов

У Радеонов такая же, если не больше. Лично у меня 6950 разлоченный хреначил 105 градусов и ничего.

Автор:  DigiMakc [ 23:39 26.01.2015 ]
Заголовок сообщения: 

На английском: http://www.pcper.com/reviews/Graphics-C ... ns-GTX-970

Это пипец Изображение

NVIDIA GeForce GTX 970 в деталях: 56 RBE и урезаный кеш

Автор:  Жёсткий_Чебур [ 16:35 27.01.2015 ]
Заголовок сообщения: 

На соседнем ресурсе выложили тест скорости памяти для всех видеокарт: Тест скорости видеопамяти.

Теперь испытать батхёрт сможет каждый. :gigi:

Автор:  msivano [ 18:00 27.01.2015 ]
Заголовок сообщения: 

Мой репост по этому поводу из соседнего флейма.
Проблема раздутая на пустом месте и не стоящая и выеденного яйца.
Память все равно вся доступна, только приоритет отдан первому банку из 3,5 гигов, а если там не поместится подключится еще 0,5 гига памяти. Падение производительности при этом равно статистической погрешности, но чтобы раздуть скандал используют такие большие проценты :oops:
В реале — дает игра 100 кадров, ну а могла бы 102 или иногда 105 давать, или к примеру выдает 60 кадров ( а игры стараются под это значение лочить ) — ну выдала бы 60,6 кадра.
Короче очередной вброс черного пиара, раздутого из блохи до уровня индийского слона.
Лучше прикиньте разницу в цене. Этим все объясняется, а то многие хотя купить 970 и чтоб она была как 980, тогда на кой эту 980 было бы выпускать. А пускать на 970 и карты более младшие полноценный чип и разводку всех компонентов, а затем это дело отключать блоками, дабы разграничить по производительности, это уже дебилизм. Прошли времена разлочки карт, пора бы это уже давно принять и не засирать флеймы раз от разу, не разобравшись даже в причинах, вынудивших так поступить команду инженеров.

Автор:  SevenXP [ 19:55 27.01.2015 ]
Заголовок сообщения: 

msivano
Не не 2-5% это слишком много. Ура NVIDIA ГЭ :)

Автор:  Katiphus [ 19:59 27.01.2015 ]
Заголовок сообщения: 

msivano

Короче очередной вброс черного пиара, раздутого из блохи до уровня индийского слона.

Хорошо хорошо, 2 банк памяти не дает занижение производительности... или дает? Не суть, все это не столько важно, сколько ложь про ROP, КЭШ и VRAM GTX970.

Автор:  DigiMakc [ 20:51 27.01.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур
Дело даже не в тесте, к тесту тоже есть вопросы, и они подняты на форуме :)

Конкретно если говорить о 970, то выяснились интересные детали, которые многих оттолкнут от выбора этой карты. Т.е. по заявлению производителя — одно, а на деле, как выясняется, — другое. Но есть подозрение, что это не конец истории :)

Автор:  SevenXP [ 21:54 27.01.2015 ]
Заголовок сообщения: 

DigiMakc

+1 вот я теперь вообще не буду брать 970, зачем мне то, что специально было урезанно и они об этом знали. Тогда надо было делать не 4 гб а 3.5гб, это было бы честно. А так я считаю, что я даром заплачу за 512 мб

Автор:  msivano [ 04:43 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
SevenXP
Что бы оперировать такими заявлениями:

msivano
Не не 2-5% это слишком много. Ура NVIDIA ГЭ :)


Хорошо хорошо, 2 банк памяти не дает занижение производительности... или дает?

Нужно как минимум обладать хоть какими то доказательствами, а чтобы их получить, нужно выпустить аналогичную 970 лишенную этих недочетов, что на текущем варианте архитектуры максвел не возможно.
Если сравнивать ее с полноценным чипом 980, то вариант чипа 970 соответствует заявленному уровню производительности и той нише на которую он нацелен.

DigiMakc
+1 вот я теперь вообще не буду брать 970, зачем мне то, что специально было урезанно и они об этом знали. Тогда надо было делать не 4 гб а 3.5гб, это было бы честно. А так я считаю, что я даром заплачу за 512 мб

У вас чем то подтвержденные данные, что те 512 метров памяти распаянных на плате играм не доступны, или вы утверждаете что их там нет, либо, что эти 512 метров вообще не работают???
Пардон, но вы явно заблуждаетесь, так как память доступна вся.

Не суть, все это не столько важно, сколько ложь про ROP, КЭШ

По этому параметру да, есть обоснованные претензии. Но отсутствие нескольких заявленных блоков растеризации и отсутсвие 256 килов кеша вызвало у карты какие либо технические сбои, фризы на ровном месте, обоснованно доказанное падение производительности выше того порога, указанного в инженерной спецификации, либо не функциональность второго блока памяти? Ответ нет.

и VRAM GTX970

В чем ложь??? Памяти 4 гб установленно? — 4, доступно все 4 гб? — доступно, используется ли все 4 гб по своему назначению? — используется. Повторюсь — в чем ложь??? Вы наверное считаете, что если игре допустим чтобы обработать графику на текущем разрешении достаточно 3гб памяти и подключив четвертый гиг вы получите прирост??? Если игре нужно 3 гига в текущий момент, она и будет есть 3 гига, выдавая то что выдают блоки растеризации и текстурирования ( именно их производительность в купе с поддержкой определенных инструкций и расширений графических движков) и дает вам фпс, а не одна лишь память. Другое дело если игре нужно к примеру памяти больше, чем у вас есть, тогда да, добавив еще памяти вы получите прирост, правда до тех пор, пока хватает производительности блоков растеризации и текстурирования, но а до тех пор толка не будет. И конечно немаловажно каким образом оно доступно, но если бы прежде чем начинать холивар вы поинтересовались прошлым картостороения, то могли бы заметить, что память раньше паяли банками разной плотности и объема( и о чудо, раньше, чтобы получить к примеру гиг памяти, приходилось его набирать из памяти разной плотности, а она сволочь имела разное количество контактных точек для припайки, и что немаловажно чип имел, да и сейчас имеет, ограниченное количество линий, на которые можно припаять эти чипы,набирать память плотными банками — невыгодно, так как дорого и неизбежно получится переизбыток памяти ( дружно вспоминаем карты от нв с забавным количеством памяти — 896, 1392, 1768 мегабайт ) , дабы получить нужный объем памяти, потому как распаять на подводах к ядру можно лишь определенный объем, а не то, сколь заблагорассудится. Но делав так, производительность проседала от теоретической куда более ( не поленитесь, найдете старые холивары по этому поводу в инете), нежели решение, которое применило в этот раз нв. Нв распаяла чипы одинакового объема и плотности, разграничив адресное пространство лишь за счет приоритизации доступа, первых три с половиной гига доступны сходу всему, а дополнительные пол гига только если не хватило места в основном массиве, что в свою очередь повлекло падение производительности в пределах 2 — 5% и то лишь тогда, когда используется больше чем три с половиной гига памяти, а до тех пор карта будет выдавать все, на что способна, в полной мере.
Что имеем в сухом остатке:
1) Используются ли все 4 гигабайта памяти? — ответ используются.
2) Стоит ли наказать пиар-отдел за недостоверную информацию касательно блоков растеризации и кеша? — однозначно стоит.
3) Удалось ли инженерам максимально достойно компенсировать недостаток блоков и недостающие 256 килов кеша, сохранив при этом общую производительность в допустимых пределах ? — удалось, пока не будет объективно доказано обратное, с конкретными примерами.
4) Стоит ли тем, кто купил эти карты не зная этого, бежать и сдавать их в магазин, меняя на аналоги либо старший чип? — только если их не устраивает производительность, коей поверьте хватает с избытком.
5) Соответствует ли GTX970 той плоскости рынка, на который она была нацелена? — соответствует.
6) Стоит ли нв скинуть немного цену в качестве извинений? — однозначно да, что и будет скорее всего сделано.
P.S.
Но уж если на то пошло, то пусть реально супер-пупер быстрой памяти в карте 3,5Гб, а остальные 500мб грубо говоря "медленнее", Хорошо, но вы когда карту выбираете, берете ту у которой памяти больше или шина шире, а не ту которая вам по карману и обладает достаточной вам производительностью? По тестам прекрасно видно разницу между 980-й и 970-й и эта разница была искусственно, с помощью отключения части вычислительных блоков, создана, для того что бы разделить две карты по разным сегментам и назначить им соответствующие цены. Ну так вот и скажите мне, если бы у 970-й была "идеально" быстрая 4Гб оперативка и она была бы быстрее процента на 2-5 как тут заявляется, что бы помешало нвидии, слегка понизить частоту памяти/чипа что бы эти самые 2-5% убрать и не соревноваться с топовым сегментом или новыми карами (какой-нибудь 970Ti к примеру)?

Нет, есть конечно люди принципиальные, которые скажут, мол умолчали, скрыли, обманули и т.д. Хорошо, вы правы, но тогда и не только нвидию нужно четвертовать, а начать хотя бы с производителей жестких дисков, что уже не один десяток лет считают гигабайт как 1000мб и производителей экранов заодно что измеряют быстродействие матрицы в идеальных, оторванных от реальности, условиях. Таких примеров — вагон и еще столько же будет.

Автор:  Katiphus [ 08:06 28.01.2015 ]
Заголовок сообщения: 

msivano

Вы наверное считаете, что если игре допустим чтобы обработать графику на текущем разрешении достаточно 3гб памяти и подключив четвертый гиг вы получите прирост???

Нет, я знаю для чего нужна видеопамяти и прирост будет от дополнительной VRAM только тогда, когда VRAM будет уже мало на столько, что оставшиеся текстуры будут забиваться в ОЗУ. Вы можете провести опрос и поймете что есть люди, а их не мало, кто купил GTX970/980 только из-за 4ГБ видеопамяти.


но вы когда карту выбираете, берете ту у которой памяти больше или шина шире, а не ту которая вам по карману и обладает достаточной вам производительностью?

Когда я выбираю карту я смотрю на производительность и цену. В конце концов я что зря что ли купил R9 290X PCS+ за 4000 рублей когда тот 30к стоил, а щас все 40?

Автор:  msivano [ 08:35 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Я когда карту покупаю, смотрю чтобы было адекватное соотношение цена/качество/нормальные дрова — нв вне конкуренции, во всяком случае пока.

Нет, я знаю для чего нужна видеопамяти и прирост будет от дополнительной VRAM только тогда, когда VRAM будет уже мало на столько, что оставшиеся текстуры будут забиваться в ОЗУ

О чем я и написал ниже выделенного вами куска поста, приведенного для цитаты.

В конце концов я что зря что ли купил R9 290X PCS+ за 4000 рублей когда тот 30к стоил, а щас все 40?

Нет, не зря, но он у вас нормально работать не захотел, причина этого в том что амд давно пора было выпустить набор обновленной системной логики для их продуктов, с гарантированной поддержкой последнего их оборудования, дабы не заводить его танцами с бубном. Должно быть как — есть платформа, для нее выпускают железо и производитель говорит что оно совместимо и будет работать нормально, из этого железа я собрал себе стацик — он должен завестись и работать так, чтобы у меня голова не болела по принципу — включил, загрузился, пользуйся. А не так, что купил, собрал, поставил ось и понеслась кривая в кось, пока кто нибудь не выложит решение проблемы, которое может помочь, а может и не помочь. В этом плане я за нв спокоен. Как пример — есть комп, собранный еще на 754 сокете, биос не перепрошивался с момента покупки, на него была поставлена сначала HD4850, которая отпахала как часы. Затем спустя 5 лет она издохла и была приобретена hd6850 — не стартанула, 7770 — тоже самое, клиент плюнул и купил 650ти — завелась с пол оборота и нормально работает.

Автор:  Katiphus [ 08:58 28.01.2015 ]
Заголовок сообщения: 

msivano

Нет, не зря, но он у вас нормально работать не захотел

Проблема не в нем. И не в софте.


В этом плане я за нв спокоен. Как пример — есть комп, собранный еще на 754 сокете, биос не перепрошивался с момента покупки

Есть комп, стоит в деревне с процом уровня Атлон x64 3200+ и Radeon 2600XT и без проблем все работает а ему уже больше 10 лет. Что-то не так?

-- Добавлено спустя 6 мин 22 с --

была приобретена hd6850 — не стартанула, 7770 — тоже самое, клиент плюнул и купил 650ти — завелась с пол оборота и нормально работает.

Советую вам посмотреть на ламели разьема видеокарт. Может так будет понятнее что у 650Ti их в разы меньше и скорее всего от суда надо плясать.

Автор:  msivano [ 09:16 28.01.2015 ]
Заголовок сообщения: 

Katiphus

Есть комп, стоит в деревне с процом уровня Атлон x64 3200+ и Radeon 2600XT и без проблем все работает а ему уже больше 10 лет. Что-то не так?

Сравни как минимум давность железа ;) Год выпуска 2600xt и 650ти. А затем возьми 290 и вставь туда, как думаешь заведется? и о чем это говорит?? — все началось с того что амд перешла на GCN и вот тогда эти танцы с бубном и начались — проследи тенденцию возникновения проблемы ;)
Или вы хотите сказать, что ваша 970 от того что вы узнали правду как она есть стала хуже работать и превратилась в 5200титаниум? — как тянула так и тянет. У друга на его 970+ 4590 4 фаркрай выдает до 105 фпс, а видео лучше писать афтебернером — меньше (значительно ) ресурсов потребляет.

Автор:  Katiphus [ 09:17 28.01.2015 ]
Заголовок сообщения: 

msivano

А затем возьми 290 и вставь туда, как думаешь заведется?

Заведется, а потом мать сгорит потому что вряд ли рассчитана на потребление в 350Вт по линии PCI-E.


проследи тенденцию возникновения проблемы

У меня после GCN (первая видеокарта была 5850) проблем как раз стало меньше. Это вторая проблема с AMD за все это время (и то причем тут видеокарта? ну допустим виновата AMD с ее GCN а не материнская плата и южный мостик). Первая кстати заклюачалась в драйвере, номер не помню но вроде 14.2 или 14.4 при удалении которого сносились драйвера чипсета и usb-хост контроллера причем как на платформе Intel так и на AMD, при запуске системы отключались все USB, работал только PS/2 и решить проблему можно было только точкой восстановления или переустановкой системы (хотя может быть можно было и как-то еще). А так за время использования 5850, 6870, 6950, 7870 PCS+, 7950, 7970, r9 290x, кросс-сборок вроде 7950+7870 PCS+ или 7950+7970 ни каких проблем не было, у отца на 7870 тоже все пучком, а ныне на моем прошлом 7970 все без проблем. Не понимаю людей которым просто не повезло с 1 картой AMD ныть про кривизну драйверов и якобы низкую производительность в сравнении с nVidia.

Зато с GTX560Ti проблемы были, хоть и не значительно но тем не менее: с одним драйвером в БФ3 текстуры плывут (очень распространенная проблема была на этой карте в этой игре), с другим троттлинг не работает, с третьим производительность меньше. Хотя в остальном хорошо отработала и производительность не плохая.

Автор:  msivano [ 09:22 28.01.2015 ]
Заголовок сообщения: 

Katiphus

Заведется, а потом мать сгорит потому что вряд ли рассчитана на потребление в 350Вт по линии PCI-E.

Запитай от своего блока, в чем проблема. А мамке ничего не будет — PCI-E — разных версий обратносовместим и доп питание возмет от блока и от слота свои 75 ватт.

-- Добавлено спустя 6 мин 4 с --
Katiphus
Все модели до HD 76xx основаны на архитектуре VLIW5, модели HD 77xx-79xx основаны на архитектуре Graphics Core Next. Ну и более старшие естественно.

Автор:  Katiphus [ 09:31 28.01.2015 ]
Заголовок сообщения: 

Не знал, думал что GCN с тех пор как DX11 появился. Но все равно 5 разных карт и кросс-сборки, а проблем нет.

Автор:  msivano [ 09:37 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Проблемы на которые жалуются, касаются отнюдь не игр. Первое это кривое аппаратное ускорение, которое часто приходится отключать иначе синька при просмотре потокового видео на ютьюбе считай обеспечена ( до сих пор не вылечена ). У нв когда крашится это дело просто плагин выбивает, перезапуск браузера обычно помогает. Вторая проблема на которую жалуются это дрова. У нв тоже бывают дрова косячные — когда семерка вышла, то с версии 314 прошло 6 выпусков дров, пока на моей 460 тогда была нормальная производительность и все норм заработало, на более старой версии дров все работало четко. Причем на старых картах ускорение (до HD5ххх включительно ) работает исправно.

Автор:  Katiphus [ 09:48 28.01.2015 ]
Заголовок сообщения: 

Я бы рад попробовать топ уровня 780Ti, но никто не предлагает его за 4000. Зато артефачные 560-580 продают за 500-1000 рублей, бери — не хочу, а решение артефактов, как вы понимаете, дело минутное, когда есть технический фен или газовая горелка :D

Автор:  msivano [ 09:51 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Кто же ее предложит за такие деньги — если только дохлую...

Автор:  Katiphus [ 10:01 28.01.2015 ]
Заголовок сообщения: 

Но 290Х предложили же. На момент актуальности 500 серии кое-кто продавал 560Ti на гарантии даже не распакованную за 2300 рублей, я ее потом за 4к загнал.

Автор:  msivano [ 10:16 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Повезло :D
Я свою 680 выиграл. Теперь вот жду то, что будет за 9 серией. Там такое нв удумало, что аж слюнки текут.

Автор:  Жёсткий_Чебур [ 10:26 28.01.2015 ]
Заголовок сообщения: 


вот я теперь вообще не буду брать 970, зачем мне то, что специально было урезанно и они об этом знали. А так я считаю, что я даром заплачу за 512 мб

Так все косяки уже заложены в стоимость карты. Сейчас 980 лежат по ~37 кило₽, причём в ассортименте, а 970 по ~22 кило₽ и поди ещё найди — расхватали всё. Разница в 15 тысяч. Где вы тут переплачиваете за пол гига? Это вы в 980-й доплачиваете стоимость не соразмерную увеличению производительности.
Апгрейд сегодня выглядит так:
Прицениваемся к 980-й.
Добавляем стоимость хорошего водоблока (фуллкавер).
ВНЕЗАПНО собираем SLI из 970. :eek:
????? :confused:
PROFIT 8-)
Если нужна вода, карты отлично охлаждаются универсальными ВБ, коих в Китае валом. Для эстетов есть и фуллкаверы.


Что имеем в сухом остатке:

Хорошо расписали. :up2:

Автор:  msivano [ 10:30 28.01.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур
Да оно и на воздухе очень тихая, а в 2д так вообще куллера стоят.

Автор:  Katiphus [ 11:05 28.01.2015 ]
Заголовок сообщения: 

Мне кажется можно найти дешевый GTX780Ti которая на одинаковых частотах еще и с 980ой потягаться может.
Например этот вариант, да на чип не 1Ггц, но думаю она легко его возьмет.

Автор:  DigiMakc [ 14:01 28.01.2015 ]
Заголовок сообщения: 


Нужно как минимум обладать хоть какими то доказательствами, а чтобы их получить, нужно выпустить аналогичную 970 лишенную этих недочетов, что на текущем варианте архитектуры максвел не возможно.
Если выпустить видёху без указанных недочётов, то это будет как раз GTX 980 :)

У вас чем то подтвержденные данные, что те 512 метров памяти распаянных на плате играм не доступны, или вы утверждаете что их там нет, либо, что эти 512 метров вообще не работают???
Пардон, но вы явно заблуждаетесь, так как память доступна вся.
Память то доступна, но поделена на 2 сегмента, один из которых имеет скорость в 7 раз меньше :) Об этом раньше не было заявлено производителем. Когда пользователь покупает железо, он то думает что вся память работает как надо, а не через одно место, как у 970.

Но отсутствие нескольких заявленных блоков растеризации и отсутсвие 256 килов кеша вызвало у карты какие либо технические сбои, фризы на ровном месте, обоснованно доказанное падение производительности выше того порога, указанного в инженерной спецификации, либо не функциональность второго блока памяти? Ответ нет.
Дело не в производительности, а в факте, что заявленные характеристики не соответствуют действительности.

4) Стоит ли тем, кто купил эти карты не зная этого, бежать и сдавать их в магазин, меняя на аналоги либо старший чип? — только если их не устраивает производительность, коей поверьте хватает с избытком.
Стоит, потому что товар не соответствует заявленным характеристикам.

Заведется, а потом мать сгорит потому что вряд ли рассчитана на потребление в 350Вт по линии PCI-E.
Не сгорит, потому что карта питается доп.питанием.

Все модели до HD 76xx основаны на архитектуре VLIW5, модели HD 77xx-79xx основаны на архитектуре Graphics Core Next. Ну и более старшие естественно.
Вообще-то Radeon 5000 основан на VLIW5, а R.. 6000 на VLIW4.
Ну меня 7850 и что? Всё работает, ничего не глючит.

-- Добавлено спустя 22 мин 20 с --

Первое это кривое аппаратное ускорение, которое часто приходится отключать иначе синька при просмотре потокового видео на ютьюбе считай обеспечена ( до сих пор не вылечена )
Подскажите ка, как мне этот самый глук словить? Что мне нужно для этого сделать ? :)

Автор:  msivano [ 14:35 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
Мне ток интересно, чем автор той статьи замерял скорость той памяти. Если бы она работала в 7 раз медленнее, то потеря производительности в сводной диаграмме на которую ссылается автор была бы куда как больше, чем 2 — 5%, которые в итоге и намерили местами.

-- Добавлено спустя 12 мин 53 с --
DigiMakc
Это мне напоминает анекдот советских времен:
консилиум хирургов — выступает американец — вот мы провели операцию нашему пациенту, он слепой был от рождения, так мы ему деревянные глаза пересадили! Теперь он видит как все!!! — Аудитория — Браво, поздравляем!!!— это же прорыв!!! — Тут русские думают, чем бы то так ответить??? — Встает значит наш и начинает рассказ — Значит давеча попал к нам пациент, когда он косил сено, то устал и прилег в траве отдохнуть на бережку. На ту беду там девахи местные купались. Он это дело увидал и у него встал, а трава высокая, его не видно. Тут его друг окашивая берег ему хозяйство то под самый корень и того... Ну мы думали что делать и в итоге пересадили ему вымя!!! — теперь он с утра и по доится успевает, и баб четверых за раз обслужить! — встает американец — Все это есть большой Русский пиздешь! — какие ваши доказательства! — кто это видел!!! — русский ему и отвечает — да вот ваш хер, с деревянными глазами и видел.
И дабы прекратить бесполезный холивар вот Пруфф на оригинал статьи.
Как видите ни слова о 1/7 скорости работы нет, есть только сводная диаграмма на примере разницы 980/970 где и видна потеря в 2 — 5% от теоретического максимума 970 без данной сегментации памяти.
С таким успехом можно нести и сдавать обратно все вени с компа, ведь там не 2 тб а 1,81 — не 3тб, а 2,72 — деньги берут как за три.И вот на этот обман ( как пример ) глаза закрывают и гордо говорят я купил 3 тб вень, а не 2,72. И таких примеров на целый состав наберется.

-- Добавлено спустя 49 мин 10 с --

Подскажите ка, как мне этот самый глук словить? Что мне нужно для этого сделать ?

Включить аппаратное ускорение в флеш плеере и смотреть потоковое видео. Многие ловят, о чем свидетельствует тот срач на офф сапорте адобе и амд, а так же неоднократно возникающие темы на форумах в частности (наш не исключение).
P.S.
Движок форума что ли барахлит?

Добавлено спустя 49 мин 10 с

Хотя прошло от силы 4 минуты???

Автор:  DigiMakc [ 15:36 28.01.2015 ]
Заголовок сообщения: 


Если бы она работала в 7 раз медленнее, то потеря производительности в сводной диаграмме на которую ссылается автор была бы куда как больше, чем 2 — 5%, которые в итоге и намерили местами.
Ну игрухи то грузят память не полностью, и приоритет отдаётся основрому разделу, который 3,5 ГБ.

А этот пруф Вам не нравится? http://www.pcper.com/reviews/Graphics-C ... ns-GTX-970
И тут всё по полочкам раскладывается.

С таким успехом можно нести и сдавать обратно все вени с компа, ведь там не 2 тб а 1,81 — не 3тб, а 2,72 — деньги берут как за три.
Ну это уже давно так, и пользователи в общем-то знают, что памяти всегда меньше чем пишется. К тому же, производители, например WD указывает кол-во LBA, по которому можно посчитать реальную ёмкость.

Изображение

312581808 LBA * 512 Б/сектор = 160041885696 / 1024 /1024 / 1024 = 149.0506210327148 ГБайт.
А то, что Seagate не пишет на своих дисках подобной инфы — чести им не делает. На фуфло-дисках — фуфло-информация, всё сходится :)

А в данном случае с видеокартой. Кто знал, что память двухсегментаня и что РОПов с кэшем меньше?


И таких примеров на целый состав наберется.
Например?

-- Добавлено спустя 4 мин 49 с --

Включить аппаратное ускорение в флеш плеере и смотреть потоковое видео. Многие ловят, о чем свидетельствует тот срач на офф сапорте адобе и амд, а так же неоднократно возникающие темы на форумах в частности (наш не исключение).
у меня там HTML5 плеер, я без понятия пользуется он аппаратным ускорением или нет :) Но БСОДов нет.
Переключился на flash, аппаратное ускорение включено. Не БСОДит что-то. Но с этим плеером 4k и 60FPS не воспроизводятся, а с HTML5 всё пашет.

Автор:  Walter S. Farrell [ 15:52 28.01.2015 ]
Заголовок сообщения:  Re:


Как пример — есть комп, собранный еще на 754 сокете, биос не перепрошивался с момента покупки, на него была поставлена сначала HD4850, которая отпахала как часы. Затем спустя 5 лет она издохла и была приобретена hd6850 — не стартанула, 7770 — тоже самое, клиент плюнул и купил 650ти — завелась с пол оборота и нормально работает.

Это проблема в совместимости новых карт с PCI Express 1.0 северниками былых времён. Например, в моей древней Abit AT8 32X на ATI Xpress 3200 чипсете (1-й с полноценным Кроссфайром благодаря 40 PCIe линиям в севернике, делался ещё для X1800XT) работают все карты вплоть до HD48x0 включая HD4870 X2, но HD3870 X2 не стартует (то ли мост PLX кривой, то ли вся карта такая). HD5870 и прочие HD5xx0 не работают вообще, хотя некоторые HD5970 всё-таки работают (видимо, которые с обновлённой ревизией моста). HD69x0 работают все и с HD7970 тоже проблем не было.

Автор:  msivano [ 16:03 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
Даже не смотря на это падение производительности чисто символическое.
Мне что реально на состав накапать таких примеров?
Легко — для начала на маленькую тележку — Скорость матриц меряют по переходу от серого к серому, а должны по нормальному мерить по реакции перехода цвета в цвет. Скорость инета указывают, как пример, 100 мегабит, а качаешь со скоростью 10, хотя платишь за 100 ( я знаю про то, что ответишь по этому поводу, не трудись) — я сторонник того чтобы в договорах указывалась та скорость, которая клиенту доходит и платить именно за нее. Покупаешь смарт с 16 гигами своей памяти, а доступно от силы 12, Скорость на винчестерах — сата 6гб/сек — в лучшем случае 600 метров в сек скорость обмена данными, скорость усб 3,0 в 5 гб в сек — от силы, в лучший день 340 — 420 удавалось достичь при копировании и записи с ссд по порту, хотя в компе честных 570 через сата есть, еще можно продолжать и продолжать. Короче маркетинг правит миром, а в мире реальность редко сходится с маркетингом.

Автор:  Katiphus [ 16:35 28.01.2015 ]
Заголовок сообщения: 

msivano

ведь там не 2 тб а 1,81 — не 3тб, а 2,72 — деньги берут как за три.

Да только в случае с дисками там место изымается потому что туда записывается служебная информация, а в случае с 970 Хуанг нагло наврал — это раз, у видеокарт доступна вся память — это два.


Включить аппаратное ускорение в флеш плеере и смотреть потоковое видео. Многие ловят, о чем свидетельствует тот срач на офф сапорте адобе и амд, а так же неоднократно возникающие темы на форумах в частности (наш не исключение).

Даже мой 290X, который вы обвиняете в том что именно он корень моих Блэк Скринов, так не умеет при просмотре флеш видео как на твиче так и на ютубе.


Скорость на винчестерах — сата 6гб/сек — в лучшем случае 600 метров в сек скорость обмена данными

Ммм? Это интерфейс SATA у которого максимальная пропускная способность 6ГБ/с. Он не имеет отношения конкретно к скорости работы HDD/SSD дисков.


Скорость инета указывают, как пример, 100 мегабит, а качаешь со скоростью 10, хотя платишь за 100

Ну это либо провайдер уродский что не в состоянии поддерживать скорость в вашем городе без перебоев, либо вы не в состоянии реализовать скорость вашего канала на всю. У меня получается нагружать каждый день свой канал на все 80Мбит/с.


Покупаешь смарт с 16 гигами своей памяти, а доступно от силы 12

А операционной системе где располагаться? Считай ситуация как с жесткими дисками.


Короче маркетинг правит миром, а в мире реальность редко сходится с маркетингом.

Маркетинг маркетингом, но вы же не бежите покупать компьютер из эльдорадо потому что в рекламе сказали 2 ядра 2 гига игровая видеокарта? А все почему, а потому что стоит поставить ряд вопросов: что за процессор? что за память? что за игровая видеокарта такая? какая фактическая мощность системы и ее стоимость? после ответа на эти вопросы и рационального вывода вы уже решаете покупать или нет. Тоже самое и здесь SATA это всего-лишь интерфейс, с дисков всегда съедалась часть пространства, скорость интернета всегда зависила от тарифного плана а не от появляющегося снизу справа окошечка в котором написано >подключение к сети на скорости 100Мбит.
И опять же в случае с GTX970 был не маркетинг а ложь. Разные вещи совершенно.

Автор:  msivano [ 16:41 28.01.2015 ]
Заголовок сообщения: 

Katiphus
В случае с дисками там место изымается потому, что по краям блинов очень велик риск иметь бэды, от того и обрезают програмно по кусочку. В случае с флешками потому, что нужны ячейки под перезапись отработавших свое ячеек.
Везет что не умеет, но я по мойму и не утверждал что проблема поголовная, я лишь отметил что достаточно распространенная. Не приписывайте мне того , чего я не писал.
Ты не понял, юзаешь ты канал свой на 80 мегабит, но скорость скачки то всего 8 ( простая математика 80 делим на 10 ) — то есть эффективно имеем десятую часть, и я сторонник того чтобы это оговариловась контракте. Пример — иду к провайдеру и беру тариф в 10 мегабит — прихожу и качаю со скоростью в 10 мегабит. А провайдер у нас и на самом деле уродский, оптику ложит по окраине, а мой дом от их головного офиса и датацентра в пардон километре с небольшим, и щиток стоит — бери да прокладывай. Ответ один — нет технической возможности, ожидайте очереди, причем очередь эта не известно когда. Вот за 4 года подключили 300 тыс абонентов по оптике, но а за этот год планируют еще 255 тыс, причем оборудование убого дают ( бывал у них в сц — стоит в мешках из под картошки, китайское говно ) нормальное не купить. Телефон работает только пока включен воип шлюз, выключи или свет пропади и привет каменный век. Альтернативы нет.

Автор:  Katiphus [ 16:54 28.01.2015 ]
Заголовок сообщения: 

msivano

Ты не понял, юзаешь ты канал свой на 80 мегабит, но скорость скачки то всего 8 ( простая математика 80 делим на 10 )

Или вы не поняли. В тарифном плане указывается скорость в мегаБИТах — и это важно, потому что большинство приложений указывают скорость при скачивании в мегаБАЙТах. По этому качая на скорости в 80Мбит/с я могу получить на выходу 80/8=10МБ/с
И еще Мб и МБ — разные обозначения.


оптику ложит по окраине

Это не важно будет ли длинна кабеля от сервера до вас 10 метров или 1км ибо скорость света. Разница будет разве что в 0.01мс которую вы не заметите никак.

Автор:  msivano [ 16:57 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Нет не поняли именно вы. Скорость скачки и соединения меряется в мегабитах. Это место рапределяется в мегабайтах. Учите матчасть.

-- Добавлено спустя 1 мин 47 с --
Katiphus
Важно, если до сих пор прихоодится сидеть на АДСЛ

Автор:  Katiphus [ 17:00 28.01.2015 ]
Заголовок сообщения: 

msivano
Я достаточно осведомлен в плане сетей. И то что я прочитал выше для меня свидетельствует о том что либо вы не шарите, либо не правильно формируете мысль.

Автор:  msivano [ 17:00 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Не смеши мои тапки.
1 мегабит эффективной скорости скачки способен давать мегабайт получаемой информации в секунду, так как скорость скачки будет равно 1024 килобитам, что равно 1 мегабайту . При скорости в 100 мегабит мы имеем 10 мегабит активной скачки, и получает 10 метров в секунду ( показатели усреденены ), это значит что на получение одно гигабайта информации у нас уйдет около 10 минут в среднем. Учите специфику протокола обмена данными, спецура... То что тебе спид тест намерял это лишь ширина канала, но эффективная его часть всегда в среднем делится на 10. Иссправить эту ситуацию обещают в скором будущем, так как был разработан новый алгоритм компресии/декомпресии служебной информации, которая используется для установления связи между абонентами, что обещает поднять эффективную часть канала до 5 раз, то есть теперь при 100 мегабитах мы реально будем иметь скачку равную 50 мегабит и получать по 50 мегабайт информации в секунду. Минус усовершенствования протокола лишь в одном — пока его теоритически полезная длинна не может привысить 10 километров.

Автор:  Katiphus [ 17:03 28.01.2015 ]
Заголовок сообщения: 

msivano
А что не так? Вы пишете >Скорость скачки и соединения меряется в мегабитах. — Хорошо, я правильно понимаю что при 80Мбит/с по тарифному плану я имею право качать со скорость 80Мбит/с файлы из интернета? В таком случае если перевести 80Мбит/с в Мегабайты (80/8=10Мегабайт/с) то получается что я качаю может не 10 (такое действительно редко бывает), но 9МБ/с у меня набирает 100%

И да, как я могу смешить ваши тапки если вы получаете Байты деля Биты на 10, а не на 8. Сами бы не позорились.:(

Автор:  msivano [ 17:12 28.01.2015 ]
Заголовок сообщения: 

Katiphus
я усредняю показатель, так как параметры сети редко бывают идеальными.
По этому поводу есть анекдот: Молодой программист знает что в мегабайте 1000 килобайт, но уже начинает в этом сомневаться. Опытный программист знает что в мегабайте 1024 килобайта, и потому абсолютно спокоен.
пойду пока почитаю ману про дебиан 7.8 — а вы пишите, если что, отвечу позже.

Автор:  Katiphus [ 17:23 28.01.2015 ]
Заголовок сообщения: 


теперь при 100 мегабитах мы реально будем иметь скачку равную 50 мегабит и получать по 50 мегабайт информации в секунду.

Я все равно не понимаю о чем речь.
Почему при 100 мы будем иметь лишь 50?
Почему при скачке 50Мбит/с мы будем получать 50МБ/с (больше чем имеем) если 50Мбит/с =/= 50МБ/с. Как вы вообще собираете получать БОЛЬШЕ информации при МЕНЬШЕМ значении скорости?

Автор:  msivano [ 17:26 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Потому, что служебная информация, которая занимает 90% кана связи будет сжиматся более эфективно, что позволит поднять реально входящую скорость почти в 5 раз, то есть вы к примеру будете не 9 метров получать, а 45, при той же скорости подключения. Это позволит разгрузить и без того перегруженные магистрали оптволоконной связи.

Автор:  Katiphus [ 17:30 28.01.2015 ]
Заголовок сообщения: 

msivano
А случайно не будет проблемы с задержкой? Одно дело передать информацию весом пару килобайт, а другое дело передать пару килобайт и декодировать в мегабайт.

Автор:  msivano [ 17:35 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Не будет. Пока информация кране скудная, но проект финансирует гугл и какой то там институт ( проскакивало в инете ), прикол в том что не трнебуется нового оборудования, лишь обновляются спецификации протокола, но тестовые испытания показали что при существующих 100 мегабитах можно комфортно смотреть 4к видео без пережатия, но исследования носят полузакрытый характер. Пока решают вопрос увеличения длинны кабеля.
Началось все с проекта Zopfli, пару лет назад.

Автор:  DigiMakc [ 17:41 28.01.2015 ]
Заголовок сообщения: 


Скорость матриц меряют по переходу от серого к серому, а должны по нормальному мерить по реакции перехода цвета в цвет.
Серый — это совкокупность цветов. Какая разница какой цвет?

Скорость инета указывают, как пример, 100 мегабит, а качаешь со скоростью 10, хотя платишь за 100 ( я знаю про то, что ответишь по этому поводу, не трудись) — я сторонник того чтобы в договорах указывалась та скорость, которая клиенту доходит и платить именно за нее.
У меня в договоре тарифный план Альфа серии бесконечность, когда я его заключал то скорость была 0,1 Мбит/сек, сейчас честно говорят: "до 55 мбит/сек" и ещё платить теперь не 600 руб, а 500. Причём эти 55 Мбит/сек не какие-то мифические, а реальные, юторрент качает 6 с лишним МБайт/сек.

Покупаешь смарт с 16 гигами своей памяти, а доступно от силы 12
Потому, что часть занимает ОС. Производитель не говорит, что они свободны и не говорит, что они заняты.

Скорость на винчестерах — сата 6гб/сек — в лучшем случае 600 метров в сек скорость обмена данными, скорость усб 3,0 в 5 гб в сек — от силы, в лучший день 340 — 420 удавалось достичь при копировании и записи с ссд по порту, хотя в компе честных 570 через сата есть, еще можно продолжать и продолжать.
Сата 6 гб/с — это скорость канала которым соединяется хард с мамкой, а не скорость работы харда. Тоже самое и к ЮСБ относится.

Скорость скачки и соединения меряется в мегабитах. Это место рапределяется в мегабайтах. Учите матчасть.
Это Вы не поняли. Скорость канала/подключения указывается в Битах, а скорость закачки — в байтах.

1 мегабит эффективной скорости скачки способен давать мегабайт получаемой информации в секунду, так как скорость скачки будет равно 1024 килобитам, что равно 1 мегабайту .
Что за бред? Уж простите.
1 Мбайт = 8 Мбит, чтобы получать 1 МБайт/сек, надо чтоб скорость была 8 Мбит/сек. А 1 Мбит/сек даст всего 0.125 МБайт/сек.

При скорости в 100 мегабит мы имеем 10 мегабит активной скачки, и получает 10 метров в секунду ( показатели усреденены ), это значит что на получение одно гигабайта информации у нас уйдет около 10 минут в среднем.
:eek:
При скорости 100 Мбит мы имеет 100 Мбит, = 12.5 МБайт/сек. Что бы скачать 1 Гбайт надо 1024/12,5 = 81 сек Ну пусть в реале будет не 12,5, а 10 МБайт/сек. Итого скачается не за 81 сек, а за 102 сек.


пойду пока почитаю ману про дебиан 7.8 — а вы пишите, если что, отвечу позже.
Почитайте лучше про биты и байты ;)

Потому, что служебная информация, которая занимает 90% кана связи будет сжиматся более эфективно, что позволит поднять реально входящую скорость почти в 5 раз, то есть вы к примеру будете не 9 метров получать, а 45, при той же скорости подключения. Это позволит разгрузить и без того перегруженные магистрали оптволоконной связи.
Вот это жесть... Кто же Вам такую чушь в мозг загрузил?

-- Добавлено спустя 3 мин 7 с --
Katiphus
Фильтруйте то, что пишет msivano, там половина информации забита "каким-то служебным трафиком" далёкого от реального положения дел :)

Автор:  msivano [ 17:48 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
Серый к серому, номы ведь не серое на нем смотрим. Как минимум цветное что то.
А я и не говорил что скорость винчестера 6 гиг в секунду, я указал что скорость порта, такая, а скорость обмена данными достигает гдет о 600 мегабайт в секунду при копировании с ссд на ссд, в моем случае.
Ну со временем малость обсчитался — у меня ж адсл, по себе мерил. Мне оптику с 100 или хаб аналогичный проложат еще фиг знает когда — страдаем :(

-- Добавлено спустя 2 мин 59 с --
DigiMakc
Ищите инфу о проекте Zopfli. Это только основа, которую применяют для разработки новой версии протокола.

Автор:  DigiMakc [ 17:55 28.01.2015 ]
Заголовок сообщения: 

msivano
Ещё раз. Серый — это совокупность красный+зелёный+синий. Если иметь какой-то другой цвет в виду, то меняется лишь соотношения яркости красного, зелёного и синего. Любой цвет — это соотношение яркости красного, зелёного и синего.

Ну а к чему Вы тогда про скорость порта заговорили?)
600 МБайт/сек с SSD на SSD — это очень даже норм. Производители примерно такую скорость и заявляют.
Ну удачи Вам в решении проблем со скоростью инета.

Автор:  msivano [ 18:11 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
К тому говорил, что потребители в основном ведутся на цифру 6гб в сек и думают что это вень с такой скоростью работает. Как пример возьмите коробку от материнки — правда красивая — какие цифры и показатели, только вот большинство глядя на них понимают под ними не то что нужно знать и понимать. Сколько раз говорил, что в сата 6 можно ткнуть сата 3 и сата 2 вень , и если вень нормальный то разницы не увидишь.
Касательно Матрицы скажу проще — пользуясь тем, что нет единого приказного стандарта измерений, они меряют как хотят. В основном по скорости перехода от серого к серому. Некоторые указывают скорость реакции матрицы. Как пример — 14мсGtoG/7мс. Или в телевизорах количество герц 100 — 200 — 400 — 800 — 1000 и приходится им объяснять что это не развертки частота, а так называемая скорость регенерации, то бишь восстановления состояния пикселя к исходному, что позволяет смотреть очень динамичные сцены с максимальной детализированностью в мелких деталях ( по сути видишь много мелочи, которая просто смазывается на медленных матрицах), но при этом свое аналоговое они как видели в 50 герц так и будут видеть. От того вот такие маркетинговые уловки расчитаные на лохов и позволяют вводить в заблуждение.

Автор:  Katiphus [ 18:11 28.01.2015 ]
Заголовок сообщения: 

msivano

что при существующих 100 мегабитах можно комфортно смотреть 4к видео без пережатия

Раскрою один секрет но кодек H.265 уже позволяет на текущем интернете средней скоростью 30Мбит/с смотреть без труда 4к.


Пока решают вопрос увеличения длинны кабеля.

Оптоволокно может быть любой длины. Дальше 100 метрами витой пары можно что угодно подключить. Не вижу проблем.

Автор:  msivano [ 18:18 28.01.2015 ]
Заголовок сообщения: 

Katiphus
Это я и так знаю, сам занимаюсь бетатестом этого кодека — исходники в сети лежат свободно. Пока тестируем конвертер на его основе и дорабатываем алгоритм компрессии. Рекорд 35 гиговый непержатый бд дик ужался до 565 метров с качеством картинки на уровне 7 гиговых торрентовских рипов.
Минус только один — считает пока только процессором при перекодировании, ну и малость его нагружает при воспроизведении. Но это так любительское баловство. Ну ивремя ну очень много надо. На работу ушло 32 часа почти.

-- Добавлено спустя 4 мин 57 с --
Katiphus
Волокно да, но его еще хотят и для лановской сети тоже, чтобы обмен данными в датацентрах тек быстре, а агоритм компресии пока не совершенен — очень времязатратен. Гугл для начала его в смартфоны хочет пустить, дабы расход мобильного трафика уменьшить.
Конвертер называется Hybrid, можешь по тестировать на досуге.
Для оптики и так за последние несколько лет переписывали алгоритмы работы, что очень прилично смогли повысит скорость передачи данных, а наш провайдер ( сцуко он эдакий ) абонету дает оборудование совместимое шестой версией протокола, а в цод покупал оборудование рассчитанное только на 4 версию протокола. Как итог теперь закупает новое. Про потерю пакетов вообще молчу, иной раз у отдельных абонентов доходило до 38%, при том что уже при 3% сеть мертвая. У всех в нормальных странах в договоре пишут скорость от, а у нас до. А до это ведь понятие растяжимое :abuse: , случись что и фиг чего добъешься.

Автор:  DigiMakc [ 18:54 28.01.2015 ]
Заголовок сообщения: 


К тому говорил, что потребители в основном ведутся на цифру 6гб в сек и думают что это вень с такой скоростью работает
Как пример возьмите коробку от материнки — правда красивая — какие цифры и показатели, только вот большинство глядя на них понимают под ними не то что нужно знать и понимать. Сколько раз говорил, что в сата 6 можно ткнуть сата 3 и сата 2 вень , и если вень нормальный то разницы не увидишь.
Кто ведётся? В первый раз слышу. Да и какая разница... Призводитель указывает скорость работы порта, а не скорость работы устройства. Если потребитель не шарит нифига, то причём тут производитель? Производитель в данном случае никого не обманул.

Или в телевизорах количество герц 100 — 200 — 400 — 800 — 1000 и приходится им объяснять что это не развертки частота, а так называемая скорость регенерации, то бишь восстановления состояния пикселя к исходному, что позволяет смотреть очень динамичные сцены с максимальной детализированностью в мелких деталях ( по сути видишь много мелочи, которая просто смазывается на медленных матрицах), но при этом свое аналоговое они как видели в 50 герц так и будут видеть. От того вот такие маркетинговые уловки расчитаные на лохов и позволяют вводить в заблуждение.
Это не просто частота регенерации. Сама по себе высокая частота картинку не сгладит. Там стоит специальный "блок", который "делает средние кадры" между основными, этим самым сглаживая картинку. А так же, высокая частота нужна для для более качественного 3D, и расширения функционала 3D.
Но то, что пользователь понимает под этим что-то другое — опять же не вина производителя.

Вот враньё производителя было, например когда Samsung писал что LED телевизор. В то время, как это ЖК с LED подсветкой. И в своё время по этому поводу тоже была некоторая шумиха.

Автор:  msivano [ 19:05 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
Заедите к нам, покажу много таких олухов.
Касательно опорных кадров я знаю.
Я и не говорю что производитель обманывает, я как раз говорю про невнимательность при понимании написанного. Это как в старой поговорке, ты мне так сказал, что я тебя так понял :gigi:
Я просто привык выражаться при общении простым, абстрактным языком, потому меня трудно понять иногда.
Который день копаю линеводческие форумы. Хоть бы одна сволочь толково объяснила как примонтировать несколько веней к одному месту HOME. В винде подобное можно символическими ссылками оформить, но там :confused: Так зашел в домашнюю папку — а там папка видео, под нее один вень — музыка другой — документы и всякое — третий. А так просто объясняют как примонтировать к точке, но при этом такое решение жутко неудобно выглядит.

Автор:  DigiMakc [ 19:58 28.01.2015 ]
Заголовок сообщения: 

msivano
Но касательно данной темы, говоря о GXT 970, производитель не просто скрыл какие-то особенности, но ещё и обманул :)

Автор:  msivano [ 20:02 28.01.2015 ]
Заголовок сообщения: 

DigiMakc
Я этого и не отрицал, читай на первой странице мой пост касательно — Что имеем в сухом остатке. Я писал что не обманул в количестве памяти, которая доступна. Скорее всего это толкнет нв сбросить цены. И да подтверждено официально — 12 директ доступен всем картам с поддержкой 11, 11.1 директа, правда ни одна контора полной поддержки не получит, но обещают что сильно это не скажется, так как все основное будет доступно и работать.

Автор:  Walter S. Farrell [ 21:01 28.01.2015 ]
Заголовок сообщения:  Re:


Katiphus
Потому, что служебная информация, которая занимает 90% кана связи будет сжиматся более эфективно, что позволит поднять реально входящую скорость почти в 5 раз, то есть вы к примеру будете не 9 метров получать, а 45, при той же скорости подключения. Это позволит разгрузить и без того перегруженные магистрали оптволоконной связи.

Это что за служебная информация, на которую уходит 90% полосы канала? Заголовки IP — пустяк для проводных сетей, 60 байт максимум на пакет, обычно 20 байт. QoS может отожрать, допустим, 10%. Fast Ethernet, который 100МБит/с, на кроссовом соединении или через один быстрый свич (магазинный ширпотреб идёт мимо) пропускает до 9,1МБ/с полезной информации по FTP. Это 9,1 / 12,5 = 73%. Чем больше сеть, тем хуже масштабируется Ethernet, впрочем, у магистральных провайдеров другие игрушки, но чтоб 90% полосы потерять в исправной сети, это перебор.

Автор:  SrID [ 21:21 28.01.2015 ]
Заголовок сообщения:  Re:


Хоть бы одна сволочь толково объяснила как примонтировать несколько веней к одному месту HOME. В винде подобное можно символическими ссылками оформить, но там :confused: Так зашел в домашнюю папку — а там папка видео, под нее один вень — музыка другой — документы и всякое — третий.

Чего-чего-чего ты хочешь? Я ничего не понял... Нарисуй.

Автор:  msivano [ 21:24 28.01.2015 ]
Заголовок сообщения: 

Walter S. Farrell
Скажите это наШему провайдеру, будь он не ладен. Поскольку сами мы трафик почти не производим, мы его покупаем и перепродаем. И дошло до того , мощности цода распроданы всем поставщикам интернета у нас в стране. То есть по сути, при большом количестве провайдеров, трафик все равно идет через белтелеком. А в добавок, чтобы было совсем хорошо в каждом роутере зашито 2 точки бесроводного доступа, одна из которых общественная и не удаляемая никак, даже под рутом через телнет. Мало того еще и услуги айп тв + домашний телефон за счет воип, а тот шлюз, который дают абоненту говно, а аналогов не достать.
Вот и получается — имеется H208N воип шлюз, который юзают и как роутер, и как публичную точку доступа, и как воип телефонию, и как передатчик иптв на приставку к тв, и все это через обычную медь в моем случае, причем юзается одновременно.

-- Добавлено спустя 4 мин 8 с --
SrID
Хочу следующее — Как мы знаем у линя есть такая домашняя папка пользователя, где ему рекомендуется по умолчанию хранить свои докуметы, видео, музыку. В случае когда один винчестер проблем никаких. Но я хочу на каждую папку подмонтировать отдельный винчестер. Получится что войдя в своей домашней папке в подпаку видео, музыка, документы, я получу доступ сразу на отдельный раздел, закрепленный за каждой папкой. Именно в таком виде хочу получить результат.

Автор:  SrID [ 21:31 28.01.2015 ]
Заголовок сообщения: 

msivano
Тогда еще два вопроса: сколько у тебя пользователей, и в чем заключались методы, которые тебя не устраивали?

Автор:  msivano [ 21:34 28.01.2015 ]
Заголовок сообщения: 

SrID
Один — я. Не устраивает тем, что конкретно на папку по умолчанию не монтируется, но вот создай папку отдельно, тогда. Но вот при этом открыть права доступа к папке не дает. Получается — папку вижу, а пользоваться не могу.
С каталогами в NTFS такой фигни нет, только с ext4.
В винде это реализовать можно символической ссылкой на каталог.
Это бы позволяло в случае переустановки системы просто перемонтировать каждый вень на свой каталог обратно и пользоваться как привык.

Автор:  SrID [ 21:48 28.01.2015 ]
Заголовок сообщения: 

msivano
А что за папка по-умолчанию? Не монтируется в не пустые папки (как и в windows), если эта какая-то хитрая папка с особым значком, то внутри может быть скрытый файл, проверь. То, что прав на запись нету, это от настоек файловой системы зависит. Попробуй по рутом права проверить когда файловая система смонтирована, возможно там root:root на корене фс установлено.

Автор:  msivano [ 21:55 28.01.2015 ]
Заголовок сообщения: 

SrID
Папка по умолчанию это точка монтрования каталога хоум, а в ней система автоматом создает поддиректории для документов и файлов пользователя по умолчанию. Аналог папки мои документы в винде. Пробывал под рутом проверять, да дествительно такое установлено. Права я на запись получал, но желаемого результата это не дало. Эти стандартные методы я испробывал сразу — не подходит. Файловая система лочится и все, хотя пишет что права получены, но стоит туда что либо записать попробывать, или каталог создать, то от ворот поворот. В случае когда винчестер только один такая проблема отсутствует.

Автор:  DigiMakc [ 22:11 28.01.2015 ]
Заголовок сообщения: 


Fast Ethernet, который 100МБит/с, на кроссовом соединении или через один быстрый свич (магазинный ширпотреб идёт мимо) пропускает до 9,1МБ/с полезной информации по FTP. Это 9,1 / 12,5 = 73%.
Ну не знаю как по FTP, а по обычной домашней LAN и больше даёт. А если вручную на сетевухах 100 МБит/сек полный дуплекс поставить, то в совокупной скорости приём+отдача вообще красота.
Но мне пофиг, у меня гигабитный роутер :)

Автор:  SrID [ 22:25 28.01.2015 ]
Заголовок сообщения: 

msivano
Ошибка именно permission denied или какая-то другая? Не могу повторить. Смонтировал, сделал "chown -R srid:users folder && chmod -R u+rwx folder" и все заработало.
Как именно смонтирована хоум? Обычно отдельно выносят сам /home, но я так понял у тебя на отдельном разделе /home/${USER}?

Автор:  msivano [ 22:29 28.01.2015 ]
Заголовок сообщения: 


permission denied


-- Добавлено спустя 4 мин 55 с --
SrID
Основной диск разбит стандартно — / и /home — своп отсутствует так как памяти 16 гиг оперативной — и вот папкам в этой /home я пытался за монтировать по венику — отдельно на папку видео , отдельно на папку музыка, отдельно на папку документы

Автор:  SrID [ 22:50 28.01.2015 ]
Заголовок сообщения: 

msivano
Короче, у меня получилось. Не понимаю, почему не получилось у тебя.
Сделал так: сначала от рута смонтировал диск в желаемую папку, условно назовем ее /home/user/Video. У меня это были обычные папки без всяких хитростей, но это может зависеть от оболочки, которая создавала профиль.
У новеньких, только что созданных фс права на корень всегда стоят root:root, по этому под пользователем, конечно ничего не записывалось. Чтобы это исправить, я от рута выполнил "chown -R user:users /home/user/Video", после чего пользователь user стал владельцем всех файлов на фс, смонтированной в /home/user/Video.
После этого все работало, даже если размонтировать и смонтировать диск заново. Можно добавлять запись в /etc/fstab.

Автор:  msivano [ 12:20 29.01.2015 ]
Заголовок сообщения: 

SrID
Будет время попробую так.

-- Добавлено спустя 3 ч 41 мин 34 с --
Касательно проблемы 970 — нв вроде бы сказала, что в ближайшем релизе дров несколько выправит ситуацию с адресацией и скоростью работы памяти карты, а так же повысит немного общую производительность.

Автор:  SevenXP [ 00:42 30.01.2015 ]
Заголовок сообщения: 

msivano
Понимаешь они сделали GTX970 специально с дифектом. И в пихнули 512 мб памяти, которая этой видеокарте выходит что и даром не нужна. А ты за это платишь.
А доказывать тут нечего, NVIDIA уже все подтвердила. + Сам факт, что они знали о косяки и пока не тыкнули их, они драйверами получается, занижают мощность GPU. По тому что пишут, что мы добавим вам FPS. Ну и разве это нормально? Про цены ваши не знаю у нас в среднем от 400$ GTX 970 а GTX980 от 600$ понятно что от Palit.
+ Мне даже не нравится что у GTX 980 всего 4гб, по тому что у меня уже 2-ве игры в этом году, съели все 4 гб ОЗУ. А с новой Фичей DSR будет куда больше игр.
Да и большинство игр подтягиваются к 3 гб и запас в 512 мб меня не устраивает.

И еще момент GTX 970 проигрывает GTX 980 примерно 15-25% в среднем 20% в нагрузки до 3.5 гб. А когда загрузка больше 3.5гб ( предположительно, помню игры, большое разрешение) и разница доходит до 30%+ А это уже серьезно. (То откуда я выводы делаю, смотрел стандартную карту от NVIDIA 970 vs 980 2-ве GPU стандарт без разгона)
И по мне 30% это не слабо.

+ Очень интересно стало, недавно увидел, что сейчас видеокарты не полностью поддерживают DirectX и надо аппаратная поддержка. Встал вопрос поддерживает ли 900 серия все API DirectX 12.
По тому что я хочу взять GPU на 2-3 года и этот момент уже важен. Как и про память на 512мб

Автор:  Asmodeus [ 01:10 30.01.2015 ]
Заголовок сообщения: 

NVIDIA пока не готова к массовому возврату видеокарт GeForce GTX 970
Изображение
AMD намекает, что у её видеокарт работают "все четыре" гигабайта памяти
Изображение
"Скандалы, интриги, расследования"@ :D

Автор:  DigiMakc [ 01:18 30.01.2015 ]
Заголовок сообщения: 

:D
Хороший урок для производителей =)

Автор:  Inversion [ 04:24 30.01.2015 ]
Заголовок сообщения: 

нвидия всегда разводила на далары. тут следует какой вывод — дело не в нвидии, а...

Автор:  msivano [ 06:46 30.01.2015 ]
Заголовок сообщения: 

SevenXP
Тут ты не до конца прав. Все производители занижают производительность карт, амд не исключение ни разу. Затем постепенно код дров отлаживают и производительность по тиху растет. Это нормально, так как движков игровых не один два, да и не только играми приходится заниматься картам. Касательно разницы в производительности ты опять не прав до конца, сравни техническую часть, прежде чем включать эмоции — 970 — 104 текстурных блока + 56 блоков растеризации, в то время как у 980 — 128 текстурных блоков и 64 блока растеризации. От сюда в основном разница и растет, а не от количества только лишь памяти. Как пример у моей карты 32 текстурных блока и 128 блоков растеризации.Чем больше этих блоков, тем лучше. Если бы у 970 было все 64 текстурных блока, то она сливала бы 980 только в высоких разрешениях, а тогда и смысла выпускать 980 не было бы, а так 970 находиться там, где и надо по ценовому фактору и по производительности. А все фичи 12 директа не доступны и текущим амд тоже, держат его карты как и нв софтово, причем новые аппаратно от части, а старые карты только софтово. Так что у амд еще есть время на добавления всех инструкций директа, если подождет финальной десятки, а значит задержит выпуск карт до осени. А пока еще игры получат патчи, пока новые проекты выйдут, то карты с поддержкой 12 директа смысл брать появится только в 16 году.
А касательно отъедаемой памяти играми, то если крутить настройки бездумно, в надежде на то что производитель идеально отполировал код игры в плане потребления ресурсов, а затем обвинять производителя железа что тебе не хватает памяти, чтобы в это играть, то это уже намек на неадекватность. Вы когда в игру играете, вы в игру играете? или пиписьками меряетесь, мол у меня не длиннее, пока я не упру все в потолок и у меня на моем корче не полетит все в облака... то будет короче? Я из этого возраста уже давно выжил. Сам был оверклокером со стажем, бегал за железом новым чуть ли не по 5 раз на год, гнал его, мерился попугаями, фпс, и прочей фигней, пока не заметил одну важнуюю вещь, которая приходит с возрастом и мозгами, если игра говно, то на каком бы ты железе ее не пытался запустить, говном она и останется. А вот если игра нормальная, и она меня заинтересовала, то я ее и при 30 фпс нормально пройду, и плакаться по этому поводу не стану — я играю в игру, а не игра играет мною. А касательно цен, я от вас всего в 200 км живу, цены у нас такие же + — 20 — 50 уе от ваших.8
И еще один маленький совет — если хотите карту с нормальной поддержкой 12 директа, исправлением всех косяков с его поддержкой и реализацией, то ждите 16 года. Именно в 16 году смысл брать карту есть, а пока копите на новую мат плату + ддр4 с высокой частотой памяти и цп на 8 нормальных ядер, которых вам хватит лет на 7 потом и 2 смены карт.

Автор:  Katiphus [ 07:32 30.01.2015 ]
Заголовок сообщения: 

msivano

А касательно отъедаемой памяти играми, то если крутить настройки бездумно, в надежде на то что производитель идеально отполировал код игры в плане потребления ресурсов

Dying Light сжирает на максималочках все 4ГБ, да и на минималочках тоже. Там от настроек мало что зависит. Вы только купили карту с расчетом на объемную VRAM, а ее уже можно выкидывать.

Автор:  msivano [ 07:44 30.01.2015 ]
Заголовок сообщения: 

Katiphus
Про что я чуть ниже и написал — код игры не отполирован, продукт сырой, но график на сдачу горит. Инвесторы уже ждут отдачу, а на проблемы игроков им на срать с высокой колокольни. Вот сейчас пойдут патчи, и глядишь через пол годика — годик, все заработает нормально. Первый раз что ли.
И на последок, прежде чем бездумно, на эмоциях вырывать слова из контекста, прочтите все до конца пожалуйста, возможно там уже аргументировали свою позицию, чтобы не превращать флейм во флудильню ;)

Автор:  SevenXP [ 09:40 30.01.2015 ]
Заголовок сообщения: 

msivano
Вы о чем вообще. Мне до фени код. Я прихожу домой с новой игрой выставляю максимально качество и сглаживания FXAA и чаще всего у меня 40-45 fps. И мне хватает. Но как я уже написал. С таким FPS было уже 2-ве игры которые съели 4 гб.
+ От GTX980 я ожидаю, что выставлю полную максималку по сглаживанию. А это еще нагрузку на память.
Опять же. Это вам по ходу надо отключить эмоции:
1) HD5000 вышла довольно быстро с DX11 и полная совместимость. Как минимум в играх
2) То что вы пишете а если да обы у GTX 970 было бы то то, то тогда бы цена была бы другая!!!

Я говорю о том что, заведомо в архитектуре был косяк в GTX 970 не исключено, что он же на GTX 960. В течении полу года, NVIDIA положила болт и не чего не изменила и молчала в тряпочку. И по сути видеокарта нормально работает только с 3.5 гб. Так накой мне платить за 512 мб. Память для видеокарт достаточно дорогая. 1-гб в среднем 50-70$ если судить по ценникам.

Автор:  msivano [ 10:08 30.01.2015 ]
Заголовок сообщения: 

SevenXP
Вот по этому я и говорю что нужно отключать эмоции и включать мозг. Что вы походу и не собираетесь делать. Где я хоть словом обмолвился о HD5000. Изменить в архитектуре чипа ничего нельзя — она едина для всех карт разных ценовых категорий, в данном поколении.И не сама архитектура чипа тому виной, а то что изначально были выбраны чипы памяти не подходящей плотности и объема — 512 метровые банки в количестве 8 штук. Исправить это можно с легкостью, правда придется в новой ревизии карт использовать комбинированные чипы памяти либо чипы большей плотности ( выпустили их совсем недавно, и месяца еще не прошло ), то есть либо взять один чип на гиг и добавить к нему 6 чипов по пол гига, либо 4 чипа по гигу, что приведет к еще одному косяку, если посмотрите внимательно на рисунок ниже поста прикрепленный, то поймете что в случае номер два и номер один, придется отсекать лишние блоки растеризации + лишние блоки текстурирования + еще 256 килов кеша, либо добрую его половину, только потому что их не зачто будет зацепить. Другое дело, что второй вариант ( спасибо самсунгу ) стал доступен только считай сейчас, да и нельзя его применить , а первый вреда принесет больше чем сейчас ( в старых вариантах карт это уже проходили ) В итоге нв поступила единственно возможным способом на тот момент — дополнительные пол гига прикрутила вторым блоком. А вынужденны они были так поступить потому, что больше 8 чипов распаять на этой архитектуре нельзя, зато скоро выйдут 8 гиговые карты, лишенные этих недостатков,имеются в виду старшие модели, причем по вкусной цене, ведь новые чипы получились недорогими, — это уже тоже проходили пару раз, вспомним 2 варианта GTX260, 2 варианта GTX 560, да и амд с разными версиями ядра в одной серии карт, когда люди охотились именно за второй версией, а не перелицованной старой, покупали ведь кота в мешке и никто не жаловался. Я не пишу что если бы, да кабы — это вы пишете. Я констатирую факт, а именно почему 980 быстрее, чем 970. Я не говорю что нв поступила правильно, об этом можно прочитать на первой странице форума. Я сторонник того, чтобы она понесла наказание, и как минимум сбросила цены на 970 и прочие, если и там выявится дефект.
Изображение

Автор:  DigiMakc [ 17:33 30.01.2015 ]
Заголовок сообщения: 

Тесты проблем с пропускной способностью памяти GeForce GTX 970


А вынужденны они были так поступить потому, что больше 8 чипов распаять на этой архитектуре нельзя, зато скоро выйдут 8 гиговые карты, лишенные этих недостатков
Неа, будет у GTX 970 7+1 Гб, с точно такой же проблемой как и сейчас.
Сомневаюсь, что они будут перерабатывать ядро ГПУ. А дрова тут мало чем помогут

И не сама архитектура чипа тому виной, а то что изначально были выбраны чипы памяти не подходящей плотности и объема — 512 метровые банки в количестве 8 штук.
Именно архитектура и является виной в данном случае.

50 уе
Это 2500 руб, на эти деньги можно неделю жить :)

Автор:  SevenXP [ 18:13 30.01.2015 ]
Заголовок сообщения: 

msivano
Ты опять не понимаешь и лично я смотрю без всяких эмоций, что не скажешь по вам. Тем более у меня GTX 970 нету:
1) Факт что и за этого производительность ниже ( по сути она походу такая же, когда памяти и не хватает и лезет в ОЗУ) — есть такой шанс
2) Для этой архитектуре, выходит 512 мб как 5-тое колесо машине.
3) Я просто потребитель, меня не интересует как и почему, меня интересует за что я плачу. А по сути я плачу за высокую производительность на 3.5 гб но не за 4гб.
+ Меня в магазине об этих проблемах, не кто не предупредит и не предупреждал. А это на самом деле важный момент.

Я как потребитель, если куплю себе этот товар. Я буду чувствовать что меня обманули. Я плачу за то, чего по сути и нету.
За скорость работы памяти, которая описана в характеристике видеокарты, которая не выполняется, при загрузки памяти больше 3.5 гб.
Это проблемы NVIDIA что ей тяжело делать более мощные GPU и по этому она режет. Что бы следующие GPU были более производительными и бежали покупать GPU.

Автор:  msivano [ 18:51 30.01.2015 ]
Заголовок сообщения: 

DigiMakc
Неа. 7 гигов памяти ей не вперлось, мало блоков растеризации, и еще меньше текстурирования — на фулке, ну и может 4 к этомогло бы от части помочь, но не поможет. А в 980 тоже профиту будет мало. Вот увеличь количество блоков в двое и дай ей столько памяти, то может свои 60 кадров в 8к, при не сильно высоких настройках и дало бы. А так архитектура не приделах. Чип способен дать возможность распаять 8 гиг, что вполне достаточно, и даже не сомневаюсь, что такие карты появятся, но толку будет маловато.
SevenXP
Тут проблема не в том что она не может, может она и следующее поколение ( на котором она сейчас и зациклилась ) тому доказательство. А 9 серию выпустили как тестовый вариант, подрядчики в добавок все никак не могут освоить 20 нм и потому сразу переходят на 16 ( че с них взять ), потому нв и исходило из того что было на тот момент. Зато мы увидели приличное снижение энергопотребления, что не может не радовать, что подвигло амд тоже ( наконец!!! ) спроектировать энергоэффективный чип, что не может не радовать, правда он еще официально не выпущен, но подождем.
Не 512 мегабайт ей как пятое колесо, а то, что если распаять больше памяти и не отсечь еще 256 килов кеша + еще 8 блоков текстурированния + еще 16 блоков растеризации, то мы получим как раз то о чем упомянул выше и я и DigiMakc Тогда карта будет иметь свои 4 гига без проблем, но лишится еще части блоков. А если распаять всего 4 микрухи по гигу, то это уже 960 получитя, потому как еще приличней обрезать придется. Увы нв пошла по единственно логичному пути — распаять те злосчастных пол гига отдельным блоком и запараллелить его на соседний блок, отключив часть кеша, что в итоге дало нам приличный уровень производительности, с нормальным для 970 уровнем производительности, но вот потребителя предупредить забыла об от косяке, или не хотела, это уже пускай суд разбирается. Потребителю конечно осадок не приятный, но в целом карта работает вполне отлично — прошел у друга на ней фаркрай 4 — ни тормозов, ни лагов замечено не было.

-- Добавлено спустя 6 мин 11 с --
DigiMakc
Я имел в виду 980 серию, там это сделать можно, хотя блоков текстурирования маловато для такого объема памяти.

Автор:  Katiphus [ 21:22 30.01.2015 ]
Заголовок сообщения: 

msivano

Касательно проблемы 970 — нв сказала, что в ближайшем релизе дров несколько выправит ситуацию с адресацией и скоростью работы памяти карты, а так же повысит немного общую производительность.

КОНТРАТАКУЮ!!1!11!


NVIDIA отозвала своё обещание увеличить производительность GeForce GTX 970 выпуском новых драйверов. По сообщению компании, один из её представителей сделал неверное заявление и новых драйверов, которые решат проблему с работой памяти на графической карте, не планируется.

«[Драйвер, улучшающий производительность GeForce GTX 970] это не то, что мы официально анонсировали», — сказал представитель NVIDIA в заявлении, полученном по электронной почте.


Источник: http://www.3dnews.ru/908856

Парировать будете? :D

Автор:  msivano [ 21:41 30.01.2015 ]
Заголовок сообщения: 

Katiphus
Я ж говорил что это были слухи, или мне еще за слухи отвечать? — в ваших намеках нет логики — слухи были, они не подтвердились. Нв сама не отрицает того, что это были слухи, на фоне того что перехваченное сообщение было воспринято неверно.

Автор:  Katiphus [ 21:44 30.01.2015 ]
Заголовок сообщения: 

msivano

Я ж говорил что это были слухи, или мне еще за слухи отвечать?

Где? Не вижу что-то.

Автор:  msivano [ 21:45 30.01.2015 ]
Заголовок сообщения: 

Katiphus
А проследи выше тролль ушастый ;)

-- Добавлено спустя 1 мин 20 с --

Касательно проблемы 970 — нв вроде бы сказала, что в ближайшем релизе дров несколько выправит ситуацию с адресацией и скоростью работы памяти карты, а так же повысит немного общую производительность.

Взято было на том же ресурсе которым вы парируете.

NVIDIA отозвала своё обещание увеличить производительность GeForce GTX 970 выпуском новых драйверов. По сообщению компании, один из её представителей сделал неверное заявление и новых драйверов, которые решат проблему с работой памяти на графической карте, не планируется.

В добавок нв не отрицает того, что подобное было распространено в сети.

Автор:  Katiphus [ 21:47 30.01.2015 ]
Заголовок сообщения: 

msivano

А проследи выше тролль ушастый ;)

Я прочитал все что вы написали начиная от Касательно проблемы 970 — нв сказала и до последнего, но не увидел даже намека про то что вы писали что это слух. Я даже пытался искать на странице слово >слух, но кроме как в последнем камменте после моего это слово больше нигде не встречается.

Автор:  msivano [ 21:52 30.01.2015 ]
Заголовок сообщения: 

Katiphus
Пока нет офф подтверждения с конкретным пруфом на заявление, которое было, но в последствии не подтвердилось, чем вы мне в лицо тычите, то отсутсвие слова — слух в цитате не опровергает тот факт, что заявление существовало.

Автор:  Katiphus [ 21:53 30.01.2015 ]
Заголовок сообщения: 

Тем не менее вы им (этим заявлением) пытаетесь аргументировать свою точку зрения/использовать как довод/оправдание, хотя на мой взгляд это откровенное беливерство, а может даже и фанбойство по нВидии (освовываюсь на ваших рассказах по поводу GCN, BSOD'ов от Flash Player'а, и прочем нехорошем что АМД "не умеет делать"). Как там можно вообще фиксануть драйверами аппаратную проблему я даже не представляю.

Автор:  msivano [ 21:58 30.01.2015 ]
Заголовок сообщения: 

Katiphus

Вот оригинал, там как раз то, о чем я написал, и как раз то что нвидиа опровергла, но на тот момент это являлось неподтвержденной правдой, или слухом в сети, коим я и поделился.
Но вы же тролль, цепляетесь к словам и извращаете сказанное, чем и служит доказательство якобы моей лжи, которое из Опроверженияна статью указанную сейчас мною и следует.
А вот с чего вообще этот слух в сети родился, то самое перехваченное сообщение.
Но я же вру, правда? и от фанбойства ( по вашей же версии ) скоренько сайты взломал и задним числом новость сварганил и пропечатал.

Автор:  Katiphus [ 22:16 30.01.2015 ]
Заголовок сообщения: 

msivano
Значит все что вы пишете является слухом и не подтвержденной правдой ибо не подкреплено никаким пруфом.
Я умываю руки и ретируюсь.
Изображение


Но я же вру, правда?

Нет, вы сначала сообщаете о чем то, а потом прикрываетесь тем что это лишь слух. Хотя мне кажется что вам было очень удобно использовать информацию о драйверах на тот момент, потому что все были явно настроены отрицательно на GTX970 кроме вас, вы ее всячески оправдывали.

Автор:  msivano [ 22:20 30.01.2015 ]
Заголовок сообщения: 

Katiphus
В сообщении выше пруфы на все есть, а руки да, умывайте — гигена она нужна...
И сетевые слухи публиковать никто не запрещает — новость есть, почему бы ей не поделится, вдруг оправдаются надежды, а если не оправдаются, то и фиг с ними — это интернет батенька.

-- Добавлено спустя 5 мин 8 с --
Katiphus
Я не оправдываю 970, а лишь описал причину для тех кто все же ее купил, по которой те 512 метров памяти так работают. А так же объяснил, для особо тугих на голову, почему исправленной 970 скорее всего не будет.
Я и на первой странице не оправдывал, и на второй, и на третьей. На каждой есть мое порицание сей проблемы, а так же возможного пути разрешения оной со стороны нв, которое скорее всего выльется в снижение цены на карту и новой ревизии ее с исправленными обозначениями.
И да для особо слепых:
Страница 1

Что имеем в сухом остатке:
1) Используются ли все 4 гигабайта памяти? — ответ используются.
2) Стоит ли наказать пиар-отдел за недостоверную информацию касательно блоков растеризации и кеша? — однозначно стоит.
3) Удалось ли инженерам максимально достойно компенсировать недостаток блоков и недостающие 256 килов кеша, сохранив при этом общую производительность в допустимых пределах ? — удалось, пока не будет объективно доказано обратное, с конкретными примерами.
4) Стоит ли тем, кто купил эти карты не зная этого, бежать и сдавать их в магазин, меняя на аналоги либо старший чип? — только если их не устраивает производительность, коей поверьте хватает с избытком.
5) Соответствует ли GTX970 той плоскости рынка, на который она была нацелена? — соответствует.
6) Стоит ли нв скинуть немного цену в качестве извинений? — однозначно да, что и будет скорее всего сделано.

Страница 2 — отсыл на страницу 1
Страница 3

Я не говорю что нв поступила правильно, об этом можно прочитать на первой странице форума. Я сторонник того, чтобы она понесла наказание, и как минимум сбросила цены на 970 и прочие, если и там выявится дефект.

Только на третьей странице расписано все более подробною для тех кто схематический рисунок не понимает, который вставлен ниже поста.
Что бы те кто купил, себе карту имели наглядное представление проблемы.

Автор:  DigiMakc [ 23:53 30.01.2015 ]
Заголовок сообщения: 

msivano
7 Гигов ей как раз-таки впёрлось. Если учесть что уже сегодня 4 ГБ под завязку.
Архитектура при делах, как раз из-за архитектуры у 970-ой проблемы.

что подвигло амд тоже ( наконец!!! ) спроектировать энергоэффективный чип
Не это подвигло АМД на разработку нового чипа ;)

Не 512 мегабайт ей как пятое колесо, а то, что если распаять больше памяти и не отсечь еще 256 килов кеша + еще 8 блоков текстурированния + еще 16 блоков растеризации, то мы получим как раз то о чем упомянул выше и я и DigiMakc
Не, я ничего такого не говорил, и не подразумевал. Вот ей просто нужно распаять гиговые модули, сделать карту 7+1, и тогда будет норм. (если не считать, что блоков и кэша меньше чем заявлено.)

Я имел в виду 980 серию, там это сделать можно, хотя блоков текстурирования маловато для такого объема памяти.
Нормально.

Автор:  msivano [ 00:19 31.01.2015 ]
Заголовок сообщения: 

DigiMakc
Ну хз, нафиг паять 7+1 и напороться на те же грабли. Если усечь еще на 256 килов кеш, то можно получить полно скоростную память без этого придатка. Но вот не отсечь еще блоки не выйдет. А вот для 980 8 гиг сойдет, но я остаюсь при своем мнении, хотябы количество блоков текстурирования нужно бы добавить на энное значение. Просто складывается впечатление, что когда чип обрезали под 970, то сделали это по принципу — авось прокатит. Как выяснилось не совсем прокатило, но и не все так плохо получилось. Не смотря на этот недостаток, карта в целом удалась, но цену нужно скидывать — объективно долларов на 50, а купившим карты до исправленной ревизии ( ну вероятной исправленной модели в плане описания и уточнения количества блоков, памяти и кеша ) предоставить по купону на игру в стим или ориджин. Ведь чтего греха таить, у нас сдать карты вряд ли получится, а так хоть какое то утешение.

Неа, будет у GTX 970 7+1 Гб, с точно такой же проблемой как и сейчас.

Я имел в виду вот эти ваши слова.
А ниже, ака и в этом посте, я повторил почему лучше так не делать.

Автор:  DigiMakc [ 00:45 31.01.2015 ]
Заголовок сообщения: 

msivano
Какие грабли? Сейчас проблема в том, что игрухи готовы грузить 4 ГБ памяти. А она у 970 "хитрая", лучше больше 3,5 ГБ не загружать. Если выпустить 8 ГБ 970, то будет по-сути 7 гиговая, и тогда памяти в игрушках будет хватать.
Если же, как Вы говорите, усечь ещё кэша, то это только хуже сделает, да и проблему памяти всё равно не решит.

Да прокатило бы, если бы они сразу об этом заявили, всё как есть бы рассказали. А так, получается обманули.

Автор:  msivano [ 01:03 31.01.2015 ]
Заголовок сообщения: 

DigiMakc
а эти 512 метров медленной памяти, к которым доступ вторичен по приоритету не грабли разве? Вот я и говорю что 7 гиговая 970 получится с полноскоростной памятью без одного гига тормозной памяти, но вот на слайд выше под одним из моих постов вы походу не смотрели, там ясно виден косяк, а так же как от него избавится в принципе можно, но пойти на это не пойдут. Потому что тогда не за что будет зацепить часть кеша и часть блоков растеризации и тексурирования не к чему будет привязать, получится что нужно или грабли делать повторно, чтобы их сохранить, либо этого не делать, оставив только полноскоростную память, припаяв вместо 8 банков памяти 7. Хотя есть вариант распаять банки памяти разной емкости, чтобы в целом собрать нужное количество, но последнюю микруху паять максимально меньшего объема, чтобы на цен не сказывалась.

Автор:  Asmodeus [ 01:52 31.01.2015 ]
Заголовок сообщения: 



Тесты проблем с пропускной способностью памяти GeForce GTX 970 (обновление)

Автор:  DigiMakc [ 06:36 31.01.2015 ]
Заголовок сообщения: 

msivano
Я видел все слайды, им уже несколько дней.
Пусть лучше 7 гигов + 1 гиг костыль, чем 7 или 8 гигов но с ещё больше отключенными блоками.

Автор:  76FX [ 08:57 31.01.2015 ]
Заголовок сообщения: 

Asmodeus
:gigi: Неплохо троллят .

Автор:  msivano [ 09:22 31.01.2015 ]
Заголовок сообщения: 

DigiMakc
Вот и я про то же, пусть лучше этот костыль из 512 метров будет, чем нежели его отсутствие. Так карта сохраняет полезное количество блоков текстурирования, который завязан с кешем, и приемлемое количество блоков растеризации. А не лишив карты этих злосчастных 256 килов кеша, то у нее было бы все 64 блока текстурирования, благо блоки растеризации можно отключать без таких последствий, но это была бы уже 980 с которая проигрывала бы полноценной 980 только в высоких разрешениях, стоила бы она соответствующе. Хотя за умолчание подобных фактов, нв должна понести наказание и ответить как говорится долларом.

-- Добавлено спустя 43 мин 26 с --
Немного не в тему, но ЭТО просто отличная новость.
Это тоже радует, если подтвердится.
Походу повторяется То самое, через что в свое время прошла нв. Дай бог, чтобы это было не так.

Автор:  Asmodeus [ 13:54 31.01.2015 ]
Заголовок сообщения: 


Походу повторяется То самое, через что в свое время прошла нв. Дай бог, чтобы это было не так.

Эту Лизу надо гнать из AMD по одному месту мешалкой.... :mad:

Автор:  msivano [ 14:03 31.01.2015 ]
Заголовок сообщения: 

Asmodeus
Тут не спорю, что то она не в ту степь компанию ведет...

Автор:  DigiMakc [ 14:11 31.01.2015 ]
Заголовок сообщения: 

SHOCKING interview with Nvidia engineer about the 970 fiasco :D

Автор:  Katiphus [ 14:40 31.01.2015 ]
Заголовок сообщения: 

DigiMakc
:lol:

Автор:  Walter S. Farrell [ 14:58 31.01.2015 ]
Заголовок сообщения: 

AMD мало что светит во встраиваемых решениях, там ARM окопался, даже MIPS вытеснил и Атом скоро подохнет (Mobile and Communications подразделение у Интела единственное убыточное). В серверных решениях Интел не подвинуть, а на одних камнях для приставок далеко не уедешь. Лучше бы дальше GPU и APU развивали, раз уж CPU загнали в тупик и все фабрики распродали.

Автор:  DigiMakc [ 15:10 31.01.2015 ]
Заголовок сообщения: 

Walter S. Farrell
Ну на серверные процы у Интел ценники серьёзные, АМД может по цена/производительность выгоднее. Вон в десктопе, бульдозер в некоторых задачах почти как i7, а ценник почти в 2 раза отличается.
Думаю, что APU они не будут забрасывать. Они актуальны в ноутах. Для настольных систем слабоваты...
А что фабрики.. Заказать проц не очень проблемно.
Я считаю, что архитектура Бульдозер загнала в компанию в эту проблему. А упорное нежелание компании сойти с этого пути (пути бульдозеростроении) ещё больше усугубляет положение. Лучше бы K-10 свои и дальше пилили.

Автор:  Asmodeus [ 19:01 31.01.2015 ]
Заголовок сообщения: 


Автор:  SevenXP [ 20:26 31.01.2015 ]
Заголовок сообщения: 

Кто слышал, когда там первый R9 300 начнут выходить? я слышал середина февраля?

А издевательские видосы над NVIDIA прикалывают.

-- Добавлено спустя 1 мин 43 с --
Кто слышал, когда там первый R9 300 начнут выходить? я слышал середина февраля?
А издевательские видосы над NVIDIA прикалывают.

msivano
все больше и больше игр подбираются к отметке 4 gb. Еще пол года и все ААА игры будут забивать 4 гб. + DSR поможет в этом.

Автор:  Katiphus [ 21:48 31.01.2015 ]
Заголовок сообщения: 

DigiMakc
Уже и на русском есть.
http://youtu.be/gWhuGkCEJAY

Автор:  DigiMakc [ 01:05 01.02.2015 ]
Заголовок сообщения: 

Katiphus
:up2: :D

Автор:  Asmodeus [ 02:51 01.02.2015 ]
Заголовок сообщения: 

Katiphus
:up2: :lol:

Автор:  msivano [ 10:34 01.02.2015 ]
Заголовок сообщения: 

SevenXP

Так это было ясно еще на старте новых консолей, там уже была видна тенденция. Вообще, из личного опыта, стараюсь брать карты чрез поколение от новых тенденций. Как пример — выходит GTX 4xx серии, намек в карте был виден сразу — минус один — горячие были, затем выходит 5хх и сразу видно что менять не стоит — это работа над ошибками. Зато 6хх серия уже была исправлением первых двух, хороший финальный продукт. Теперь 7хх + 9хх два варианта доработки, чтобы родить новое поколение карт для 4к — амд тут движется увереннее, но могут быть задержки в свете тяжелого финансового положения ( чипы для консолей и неумелое руководство тому причина, нв тоже через это прошла ), нв тоже движется в этом направлении, и тоже применит стековую память, но более интересно — чтобы избавится от бутылочного горлышка в виде шины обмена данными с ядром и памятью, они хотят распаять всю память непосредственно на подложке ядра, интегрировав ее прямо в ядро — получится или нет — увидим, но преимуществ у этого метода много — карты получатся компактнее, обмен данными будет происходить на скоростях в разы выше чем сейчас, производительность должна возрасти на первых этапах до 4 раз от текущей позиции. Так что обе компании попытаются удивить новыми картами, посмотрим что же у них выйдет в итоге.

Автор:  SevenXP [ 11:24 01.02.2015 ]
Заголовок сообщения: 

msivano
С AMD там другая фича на сколько я знаю. Они хотели выпустить GPU на 20нм и где то я читал, что они писали — Что слепки выходят очень плохого качества и годных к применению слишком мало.
Вот там я и читал что 1-вые видеокарты должны выйти в конце февраля — март.
+ Там писали что возможно по 20 нм технологии будут R9 x390 а R9 x380 уже по 28 нм.

Автор:  msivano [ 12:22 01.02.2015 ]
Заголовок сообщения: 

SevenXP

А я еще читал, что подрядчики в связи с фиговым 20 нм техпроцессом сходу уходят на 16 нм, так как его освоили до этого для финфет трансов. Так что нв точно выпустит на 16 нм чипы, амд скорее всего более поздние модели R3xx .

Автор:  DigiMakc [ 16:18 01.02.2015 ]
Заголовок сообщения: 


но более интересно — чтобы избавится от бутылочного горлышка в виде шины обмена данными с ядром и памятью, они хотят распаять всю память непосредственно на подложке ядра, интегрировав ее прямо в ядро — получится или нет — увидим
1. Размещение на подожке рядом с ядром и интегрирование в ядро — это разные вещи.
2. От шины не избавиться. Любое соединение одного с другим — есть шина. Даже кеш память процессора соединена шиной :)

Автор:  Katiphus [ 16:30 01.02.2015 ]
Заголовок сообщения: 

Не знаю кто и на чем у вас собирается выпускать видеокарты, но у меня есть такая картинка.

Изображение

Автор:  DigiMakc [ 16:55 01.02.2015 ]
Заголовок сообщения: 

Katiphus
Я могу ошибаться, но сомневаюсь что видюхи 360-380 будут на 28 нм.

Автор:  msivano [ 17:34 01.02.2015 ]
Заголовок сообщения: 

DigiMakc

Ну там хотят сделать гибрид из этих двух изображений схематических
ИзображениеИзображение
Насколько я понял получится некий симбиот из стандартной карты и тегры, просто у них есть мечта залепить эту стековую память непосредственно в ядро, тогда обещают скорость обмена данными с ядром в 1ТБ в секунду. Получится или нет — покажет время.

Автор:  SevenXP [ 18:08 01.02.2015 ]
Заголовок сообщения: 

Katiphus
Вот очень интересно сколько будет стоить R9 x380 с 8 гб памяти если 700-750$ буду брать.

Автор:  Katiphus [ 18:30 01.02.2015 ]
Заголовок сообщения: 

SevenXP
Карты скорее всего будут на 15-20% мощнее чем 980. А есть ли смысл?

Автор:  SevenXP [ 19:16 01.02.2015 ]
Заголовок сообщения: 

Katiphus
Я пока в свете последних событий, решил подождать решение от AMD :)

Автор:  DigiMakc [ 19:37 01.02.2015 ]
Заголовок сообщения: 

msivano
И чем же отличается чип на этих двух картинках? :)

Автор:  msivano [ 19:43 01.02.2015 ]
Заголовок сообщения: 

DigiMakc
Да ничем и не отличается, просто на первой картинке приблизительный вариант готовой карты с чипом из второго рисунка. Второй рисунок макет чипа, по заверениям вроде бы действующий ( сомневаюсь в этом, но всякое бывает ), во всяком случае демонстрация его была. Почему сомневаюсь, ну просто не вижу как его к карте то крепить, кроме разве что бга вариант.

Автор:  DigiMakc [ 21:50 01.02.2015 ]
Заголовок сообщения: 

msivano
Ну дык и понятно, что видюха будет примерно как на первом рисунке.
А на втором, возможно инженерный образец какой-то. У него могут быть пятаки с обратной стороны платы как у процессоров с разъёмом LGA. И он просто прикручивается на стенд для испытания инженерников.

-- Добавлено спустя 3 ч 3 мин 52 с --
Тесты проблем с пропускной способностью памяти GeForce GTX 970 (обновление)

Автор:  Asmodeus [ 01:55 02.02.2015 ]
Заголовок сообщения: 

DigiMakc Изображение
Уже было ;)

Автор:  DigiMakc [ 02:04 02.02.2015 ]
Заголовок сообщения: 

Asmodeus
Вроде бы без обновления было.. :spy:

Автор:  SrID [ 08:15 02.02.2015 ]
Заголовок сообщения: 

Надо подождать, пока кто-нибудь родит тест, который видеопамять в обход драйвера тестирует. До загрузки ОС или еще как-нибудь. Жаль NVidia документацию по регистрам чипов не предоставляет, иначе бы уже сделали, наверное.

Автор:  Asmodeus [ 15:04 02.02.2015 ]
Заголовок сообщения: 

DigiMakc
Не... я запостил уже с обновлением.

Автор:  DigiMakc [ 15:45 02.02.2015 ]
Заголовок сообщения: 

Asmodeus, Ну фз, возможно я с других мест на этот источник попадал, и то, что видел, было без обновления. :shuffle:
Ну боян, так боян.. Что уж теперь.

Автор:  Asmodeus [ 21:48 02.02.2015 ]
Заголовок сообщения: 

DigiMakc
Так и ничего страшного :beer:
Такую полезную информацию не грех и в шапку темы опредилить :yes:

Автор:  Katiphus [ 22:01 04.02.2015 ]
Заголовок сообщения: 

Есть информация мол на OpenGL GTX 970 легко использует 4ГБ VRAM.
http://www.geeks3d.com/20150127/opengl- ... mitations/

Автор:  Asmodeus [ 02:23 05.02.2015 ]
Заголовок сообщения: 


DigiMakc
Так и ничего страшного
Такую полезную информацию не грех и в шапку темы опредилить
Использовать-то он использует, но на какой скорости? Не приведёт ли это к фризам в отличие от работы в DX?

Автор:  Жёсткий_Чебур [ 00:08 06.02.2015 ]
Заголовок сообщения: 

Большинство пользователей не взволнованы скандалом с GeForce GTX 970
Особенно доставляют комментарии:

Красные не могут выпустить нормальную карту, вот и подкидывают дровишек раз за разом. Большинству, у кого есть эта карта, ни жарко, ни холодно (лёгкий осадок разве что), медленнее карта от этого не стала. Когда перестанет хватать этих самых 0.5гб, хозяйствовать будут совсем уже другие карты. Альтернатив как не было, так и не должно появиться в ближайшее время. Кому совсем невтерпёж, меняйте на 290/290х, вопрос десятый, что они выиграют в этой случае и выиграют ли вообще (учитывая сплошные проблемы, обсуждаемые в теме, посвящённой этим картам).


Ну беспокоятся и волнуются только фанаты АМДшных карт(а что еще остается делать)))), их ведь всегда больше всего в теме про ЖеФорсы и они всегда знают почему хуанг негодник и карты от красных вечнозеленые.

:oops: :-p

Автор:  Walter S. Farrell [ 00:21 06.02.2015 ]
Заголовок сообщения:  Re:


Walter S. Farrell
Ну на серверные процы у Интел ценники серьёзные, АМД может по цена/производительность выгоднее. Вон в десктопе, бульдозер в некоторых задачах почти как i7, а ценник почти в 2 раза отличается.
Думаю, что APU они не будут забрасывать. Они актуальны в ноутах. Для настольных систем слабоваты...
А что фабрики.. Заказать проц не очень проблемно.
Я считаю, что архитектура Бульдозер загнала в компанию в эту проблему. А упорное нежелание компании сойти с этого пути (пути бульдозеростроении) ещё больше усугубляет положение. Лучше бы K-10 свои и дальше пилили.

Рынок десктопов с каждым годом сокращается, так что уже не столь важно, будет AMD ковырять Бульдозер или похоронит. Дешёвые x86 ноуты постепенно вытесняются ARM планшетами. Сегодняшняя рыночная капитализация AMD — 2,6 гигабакса, ARM Holdings — 23,5 гигабакса, Intel — 164 гигабакса. При том, что AMD купила ATI в 2006 за 5,4 гигабакса (я считал, что переплатила). В общем, товарищи идут по пути VIA в никуда.

Автор:  DigiMakc [ 00:51 06.02.2015 ]
Заголовок сообщения: 

Walter S. Farrell
Ну учитывая рыночную капитализацию AMD, они ещё очень не плохо держатся на фоне остальных гигантов :)
Хз, что там вытесняется.. Может нетбуки вытесняются планшетами ARM. А вот ноуты — хз хз. Всё-таки ARM планшет — это скорее игрушка, чем рабочий инструмент. За цену нефуфельного планшета, можно взять неплохой ноут. Народ планшетники берёт, чтоб книжки читать, в играть (от нефиг делать), в инете сидеть.. Когда дело доходит до какой ни-ть более менее серьёзной задачи, тут x86 по-любому. Либо х86 планшет, либо ноут, либо стационар. Так что направление AMD APU в этом плане очень верное и удачное.
Видюхи AMD вполне конкурентноспособны. И активность в данном направлении вроде как имеется.

Автор:  Katiphus [ 20:40 08.02.2015 ]
Заголовок сообщения: 


Репортерам немецкого сайта Heise.de удалось взять анонимное интервью у представителей Nvidia. В ходе беседы выяснилось, что компания не видит своей вины в скандале вокруг видеокарты GeForce GTX 970. Точнее, Nvidia признает, что не сообщила публике об особенностях данного ускорителя, но проблемой они якобы не являются, и поэтому никакого рода компенсаций не планируется.

Более того, после выяснения нюансов работы адаптеров GTX 970 партнеры Nvidia столкнулись с дилеммой, какие цифры печатать на коробках. Напомним, количество блоков растеризации (ROP) в паспортных характеристиках было недавно уменьшено с 64 ед. до 56 ед., объем кэш-памяти второго уровня исправлен с 2048 КБ на 1792 КБ, а память было бы логично указывать не как 4 ГБ, а «3,5+0,5» ГБ.

В тоже время в магазины было возвращено лишь около 5% вышеописанных видеоадаптеров. Цифра невысока и вряд ли создаст экономические проблемы как ритейлерам, так и самой Nvidia. Ближайший квартальный отчет «зеленой» компании прояснит ситуацию.

http://www.overclockers.ua/news/hardwar ... 08/115194/

Автор:  Inversion [ 11:22 09.02.2015 ]
Заголовок сообщения: 

толстый банкрот им в одно место надо вставить

Автор:  76FX [ 20:32 10.02.2015 ]
Заголовок сообщения: 

API DirectX 12 против Mantle: результаты тестирования
" Источник подчеркнул, что для DX12 обязательно требуется Windows 10, поскольку next-gen API нуждается в поддержке WDDM 2.0 со стороны операционной системы. Также было отмечено, что испытание новым API прошли все DX11-видеоускорители, однако при взаимодействии с картами GeForce 400/500 (Fermi) и Radeon HD 7000/Rx 200 (GCN 1.0) проявлялись отдельные «баги». "
Тихо подводят-мол не пойдут DX-11 карты для нового API,ну и Вин 10 "онли" . =)

Автор:  DigiMakc [ 21:03 10.02.2015 ]
Заголовок сообщения: 

76FX
Ну если переход с win7/8 будет бесплатный, то без проблем)
А так, не плохо)

Автор:  76FX [ 21:11 10.02.2015 ]
Заголовок сообщения: 

DigiMakc
Да обещают,что будет, утилиты уже для перехода с Вин 7 и Вин 8 есть . Но с картами видимо не всем повезёт,что при нынешних ценах как-то... Не радует.

Автор:  SevenXP [ 01:44 11.02.2015 ]
Заголовок сообщения: 

А интересно и правда такая скорость будет у AMD

76FX
Я всегда за конкуренцию! хоть она парой противная, но заставляет нас быть лучше. И желаю, что бы Mantle потеснил DX

Автор:  DigiMakc [ 03:05 11.02.2015 ]
Заголовок сообщения: 

SevenXP
Учитывая, что мантия пашет только на радеонах, а производительность примерно как у DX12, скорее всего мантия будет всё реже и реже появляться.
Но заслуга АМД в этом, что показали как надо :beer:

Автор:  SevenXP [ 10:43 11.02.2015 ]
Заголовок сообщения: 

DigiMakc
ТАк Nvidia не хочет делать не чего под Mantle, AMD дает, а нвидия не хочет. + PS4 может переехать на Mantle.

К стати, вот такой вот заголовок увидел Nvidia обещает представить продукт, который находится в разработке более 5 лет

Автор:  DigiMakc [ 11:43 11.02.2015 ]
Заголовок сообщения: 

SevenXP
Ну PS4 грех на мантию не переехать.

Автор:  Asmodeus [ 18:23 11.02.2015 ]
Заголовок сообщения: 


К стати, вот такой вот заголовок увидел Nvidia обещает представить продукт, который находится в разработке более 5 лет
Скорей всего имели в виду — это.

Автор:  - frontier - [ 21:23 11.02.2015 ]
Заголовок сообщения: 

Asmodeus

Скорей всего имели в виду — это.

На большинстве ресурсов придерживаются того же мнения.
Интересная, кстати, вещица.

-- Добавлено спустя 13 ч 20 мин 53 с --
Графический процессор NVIDIA GM200 будет слаб при выполнении операций с двойной точностью

Кто бы сомневался! Когда у них было хорошо с математикой?!

Автор:  Katiphus [ 18:27 12.02.2015 ]
Заголовок сообщения: 

— frontier —
Ну она типа ненужна и типа так карта потреблять меньше будет хотя мне не ясно, разве блок потребляет электричество даже когда не используется?

Автор:  - frontier - [ 20:16 12.02.2015 ]
Заголовок сообщения: 

Katiphus

разве блок потребляет электричество даже когда не используется?

Не потребляет. Ваша карта это доказывает. Сколько она в простое потребляет, ватта 3? То-то и оно.

Ну она типа ненужна

Ну так. Некоторым проще придумать отговорку, чем расписаться в собственном бессилии(хотя бы на настоящий момент).
Клепать древние архитектуры начала 2000 годов, пусть и модернизированные и на новых техпроцессах-это дело не очень хитрое.

Автор:  U-Nick [ 16:12 13.02.2015 ]
Заголовок сообщения: 

Katiphus
Пока сеть 220В подключена, современные компы, как и ТВ, потребляют! Намного, но таки едят. Это называется "спящий режим".

Автор:  Katiphus [ 16:49 13.02.2015 ]
Заголовок сообщения: 

U-Nick
Я имел ввиду FPU-блок. Ведь нВидия аргументирует его ослабление тем что видеокарты станут менее энергозатратными. Так вот разве этот FPU-блок потребляет пока не нагружен?

Автор:  U-Nick [ 17:56 13.02.2015 ]
Заголовок сообщения: 


разве этот FPU-блок потребляет пока не нагружен?
Скорее всего нет... раз обрабатывать нечего. КМОП жрет _только при переключении транзисторов.

Автор:  Walter S. Farrell [ 20:17 13.02.2015 ]
Заголовок сообщения: 

Там только токи утечки, но при современных техпроцессах их не стоит игнорировать. Вопрос больше производственно-денежный, так как можно неплохо сэкономить.

Автор:  76FX [ 19:17 17.02.2015 ]
Заголовок сообщения: 

Valve представит новый OpenGL в марте

Автор:  proffy [ 22:13 17.02.2015 ]
Заголовок сообщения: 

Если посмотреть новость, то не новый OpenGL, а новый API представляющий переосмысленный, перереработанный с нуля :) OpenGL. В AMD старый никак по-человечески осилить не могут... Mantle ещё ресурсы отбирает... сотрудников сокращают. Кто с этим новым API заморачиваться будет?

Автор:  SrID [ 22:46 17.02.2015 ]
Заголовок сообщения: 

proffy
В AMD вполне нормально осилили OpenGL, это в NVidia изобрели свой собственный, расширенный "nvGL", и подталкивают разработчиков использовать именно его, нарушая совместимость.

Автор:  x[x]x [ 23:07 17.02.2015 ]
Заголовок сообщения: 


В AMD старый никак по-человечески осилить не могут

осилили вполне!

Автор:  Katiphus [ 23:54 17.02.2015 ]
Заголовок сообщения: 

proffy

В AMD старый никак по-человечески осилить не могут

Конечно. То-то на OGL в Wolfenstein нвидия обосралась знатно и только нвдия-владельцы жалуются на подгрузки текстур при поворотах (вспоминая историю с Rage которую пофиксили буквально за пару недель, эти проблемы просто драйверами и патчами не пофиксить, как это было в случае с AMD)

Изображение

Автор:  proffy [ 00:21 18.02.2015 ]
Заголовок сообщения: 

Я не скорость в конкретной игре имел ввиду, а то, что на каждом выпуске Каталист какие-нибудь OpenGL программы или игры, да глючат. Буквально на каждом.

Katiphus, подгрузки есть у всех, особенность движка. А вспоминая историю с Rage, "пофиксили буквально за пару недель": так Rage performance driver и последующие беты 11.10, в OpenGL глючили вообще во всем, кроме Rage. :) А WHQL выпуски в RAGE: 11.9 — мерцание элементов, 11.10 — "фиолетовая ярость", 11.11 — мерцание элементов, 11.12, 12.1 — более менее но отсутствие оптимизации Crossfire, 12.2 — не рабочий vsync в Rage, 12.3 — вот оно чудо, наконец-то спустя полгода, когда игра уже никому неинтересна всё починили.

Про до сих пор появляющиеся и так же ниожиданно исчезающие от выпуска к выпуску глюки во всяких Ил-2 Штурмовик, KOTOR, DOOM3... в Фотошопе то и дело чего-нибудь всплывает... о чём, чего они осилили?

Но да, по крайней мере один, последний OpenGL игровой движок, в состоянии поддерживать в рабочести. Молодцы.

Автор:  x[x]x [ 00:32 18.02.2015 ]
Заголовок сообщения: 


о чём, чего они осилили?

видимо я в какой-то иной реальности живу. именно с опенГЛ на косяки не нарывался...
ладно, я верю, что такое может быть.


Буквально на каждом

ой ли

Автор:  proffy [ 00:48 18.02.2015 ]
Заголовок сообщения: 

Вот и ой ли. Ну, чисто, как пример для 14.9.2 — 14.12.

С XP ещё веселее, там в 12.10 как поломали OGL очень конкретно и фотошоп и игры — сплошные артефакты, так в 13.1, 13.4, 13.9, 13.12, 14.4 — ничего не поправили. А так как на 14.4 поддержка XP прекращена, то теперь навсегда предлагаемый к скачке последний драйвер имеет проблемный OpenGL.

Автор:  Asmodeus [ 01:33 18.02.2015 ]
Заголовок сообщения:  Re:


Конечно. То-то на OGL в Wolfenstein нвидия обосралась знатно и только нвдия-владельцы жалуются на подгрузки текстур при поворотах
Ничего такого на своей профильной GTX 760 не замечал :oops:

Автор:  Katiphus [ 07:35 18.02.2015 ]
Заголовок сообщения: 

proffy

в Фотошопе то и дело чего-нибудь всплывает...

Пользуюсь им почти каждый день. Что там не так? Вот ни разу там проблем не было.


подгрузки есть у всех, особенность движка.

Ммм, нет. Он максимум что делает 1 раз LODы прогружает до максимального качества один раз и все (как UnrealEngine). Но люди жалуются что там постоянно при поворотах текстурки грузятся — у них же стоит нВидия. Могу запруфать, мне то не сложно скачать 40ГБ (или сколько он там весит).

Asmodeus
После пары патчей на нВидии стало получше, да.

Автор:  SrID [ 10:15 18.02.2015 ]
Заголовок сообщения: 

proffy
Проблема в том, что почти все игры и программы пишутся и отлаживаются на nvidia, а у них свое "видение" стандарта OpenGL: во-первых, куча стандартных фунций имеют недокументированное поведение, типа того вроде бы согласно стандарту должна возникать критическая ошибка, но на nvidia происходит что-то другое. Во-вторых, nvidia ввела огромное количество проприетарных расширений GL_NV_*, которых нет у других производителей.
Набор тестов piglit для проверки драйвера на соответствие спецификации OpenGL находит более трех тысяч случаев отклонения от спецификации. И это при том, что пока тестами покрыт далеко не весь стандарт. Для сравнения, у amd только около двух тысяч проблем.

Автор:  proffy [ 10:59 18.02.2015 ]
Заголовок сообщения:  Re:


Пользуюсь им почти каждый день. Что там не так? Вот ни разу там проблем не было.
Вот такая красота, например, при размазывании "пальцем" в Photoshop CS 5.1 и вышеупомянутых Каталистах 12.10-14.4 на XP, на 12.8 — нет проблем. Совершенно нерабочепригодными были выпуски 10.7-11.5 (был пост и со скрином в этом промежутке, но чего-то найти не могу). Не XP-шные Catalyst 12.4, и Catalyst 12.10-13.1 тоже не отличались дружбой с Фотошопом.


proffy
Проблема в том, что почти все игры и программы пишутся и отлаживаются на nvidia...
Вот гарантирую, что с Rage проблема была не в этом, так как проблемы возникли на WHQL 11.9 и новее, вышедших уже после выхода Rage, но самое-то смешное, что на выпусках до выхода игры: Catalyst 11.5b — 11.8 Rage работал без артефактов! Несколько медленнее, чем в более поздних оптимизированных, но нормально! Могу представить, как id пилили-пилили игру в том числе и под Radeon, но аккурат к выходу в AMD решили заоптимизировать OpenGL... и заоптимизировали до неиграбельности, чем подложили нехилую такую свинью и себе и id Tech и пользователям.

Более 3000 отклонений у NV, и всего лишь около 2000 у AMD... да AMD невинные овечки. :)

Автор:  Asmodeus [ 13:04 18.02.2015 ]
Заголовок сообщения:  Re:


Asmodeus
После пары патчей на нВидии стало получше, да.

Вот этого не скажу. Возможно я приобрел игру уже после выхода этих патчей...., точно не помню.... :oops:

Автор:  SrID [ 14:06 18.02.2015 ]
Заголовок сообщения: 


Более 3000 отклонений у NV, и всего лишь около 2000 у AMD... да AMD невинные овечки.

AMD вставляет костыли для игр написаных под нвидию :( Буквально недавно на гитхабе в баг-трекере какой-то инди-макаки был эпичный срач по этому поводу. Суть в том, что игра работает с драйверами nvidia и amd, но не корретно рендерит на всех остальных реализациях opengl, в т.ч. и программных. Приводились пруфы, что баг в игре, со ссылками на документацию, но разработчик ответил: мне пофиг, на двух главных производителях работает, остальные пусть идут лесом.

Автор:  DigiMakc [ 13:47 23.02.2015 ]
Заголовок сообщения: 

NVIDIA придётся ответить за искажение характеристик GeForce GTX 970 в суде

Автор:  - frontier - [ 15:11 23.02.2015 ]
Заголовок сообщения: 

DigiMakc

NVIDIA придётся ответить за искажение характеристик GeForce GTX 970 в суде

В сша.
Наши фанаты после истории с 3,5 гб стали только сильнее нахваливать хуанга.

Автор:  Asmodeus [ 00:54 24.02.2015 ]
Заголовок сообщения: 

DigiMakc
Молодец — тот, кто подал иск! Я давно ждал этого логичного шага :beer: Хуанга к ответу! :up2:

Автор:  Жёсткий_Чебур [ 10:44 24.02.2015 ]
Заголовок сообщения: 

Кто бы ещё на AMD в суд подал за спецбиосы для обзорщиков и недержание буста у серийных 290-х. =)

Автор:  DigiMakc [ 12:01 24.02.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур
Ну про спецбиос еще доказать надо. Да и если правда, то NV тоже этим может грешить.

Автор:  Katiphus [ 20:48 24.02.2015 ]
Заголовок сообщения: 

Жёсткий_Чебур

и недержание буста у серийных 290-х

Вшмышле? :oops: Они наоборот говорили что сделают в Омеге динамическую частоту, мол так потребление ниже.

Автор:  SevenXP [ 23:32 24.02.2015 ]
Заголовок сообщения: 

Пара ускорителей, которая получит новый GPU, будет называться Radeon R9 390X и Radeon R9 390. Также, по слухам, архитектуру Fiji получит и двухчиповое решение Radeon R9 395X2.
Новая карта Radeon R9 390X будет иметь 4096 ядер, 4 ГБ памяти HBM шириной 4096 бит, а также новую архитектуру GCN 1.3. Таким образом, главное изменение в новой линейке карт AMD, получат только топовые ускорители. В то время как остальные, более дешёвые модели, будут обладать незначительным повышением производительности, достигаемым исключительно за счёт оптимизаций.

полная статья.

Автор:  DigiMakc [ 03:13 25.02.2015 ]
Заголовок сообщения: 

Хочется уже на тестики взглянуть.

Автор:  Katiphus [ 07:49 25.02.2015 ]
Заголовок сообщения: 

DigiMakc
Тестики видеокарты которая, судя по увиденному мной роадмапу, выходит где-то в районе октября месяца? :D

Автор:  76FX [ 20:24 25.02.2015 ]
Заголовок сообщения: 

DirectX 12 позволит работать в тандеме Radeon и GeForce

Автор:  DigiMakc [ 23:47 25.02.2015 ]
Заголовок сообщения: 

Глава NVIDIA устал молчать о проблеме GeForce GTX 970
Коменты — огонь))

Автор:  Volodimir [ 00:36 26.02.2015 ]
Заголовок сообщения: 

Интересно, это мне кажется, или с появлением нового драйвера nVidia 347.52 (у меня карточка GTX580) на Windows 8.1 x64 выдача "на гора" попугаев кардинально увеличилась? Правда в сложных сценах FPS так же примерно проседает как и ранее, но в среднем полный шок. А если поставить этот драйвер на Windows 10 x64, то получаем вообще фонтан! Любопытно, что в драйвере такого поменяли, ведь видяшка-то старая.

Автор:  x[x]x [ 01:28 26.02.2015 ]
Заголовок сообщения: 


Любопытно, что в драйвере такого поменяли

упростили математику

Автор:  - frontier - [ 09:28 26.02.2015 ]
Заголовок сообщения: 


Любопытно, что в драйвере такого поменяли

Подправили сжатие текстур, чтобы ещё хужемыльнее была картинка.

Автор:  SevenXP [ 19:33 27.02.2015 ]
Заголовок сообщения: 

DigiMakc
Да сразу прикольные комменты, а дальше бэ.
то довод, что AMD хуже и за того что собрал жене комп, а он шумит :)
То то что, все окей подвоха не видят.

Поклонники NVidia они такие. Я только 1-но не понял, почему 1-гб, почему не 512. Если бы было 3.5 гб. Им бы вообще не кто не чего, не написал. А так получился обман.
Все дапер, там парный, контроллер или как его там, даже если поставить на /2 памяти меньше в чипах, проблема останется.

Хотя вот этот факт, сделал то, что не буду покупать GTX 970. Буду Ждать R9 390x

Автор:  U-Nick [ 23:05 27.02.2015 ]
Заголовок сообщения: 

DigiMakc

При этом Дженсен Хуан (Jen-Hsun Huang) признаёт, что меньший сегмент памяти объёмом 512 МБ работает медленнее, но удержать видеокарту от частого обращения к нему – это уже задача разработчиков драйверов.
:eek:
Ситуация как с памятью в µ$-DOS с точностью до наоборот :lol:

Автор:  76FX [ 16:04 03.03.2015 ]
Заголовок сообщения: 

GDC 2015: жизненный цикл Mantle подходит к концу :spy:

Автор:  - frontier - [ 11:03 04.03.2015 ]
Заголовок сообщения: 

То, о чём так много говорили, чего так ждали в этой теме, свершилось.
Самое ожидаемое событие Нвидии в этом году:
NVIDIA представила Android-консоль SHIELD на базе Tegra X1

NVIDIA SHIELD, устройство, сочетающее в себе ТВ-приставку, суперкомпьютер и игровую консоль.


В её основу легла новая однокристальная платформа Tegra X1

Трепещи power 8! А уж интел и вовсе загнётся сегодня же.

Объём оперативной памяти составляет 3 ГБ, а ёмкость встроенного накопителя – 16 ГБ.


Память можно расширить при помощи слота для карты MicroSD.

Да это не просто суперкомпьютер. Это просто сказка! Дёшево и запросто посоревнуется с другими смартфонами\планшетами и прочими бесполезными тормозилками суперкомпьютерами.
Меняем свои устаревшие железки на эти суперкомпьютеры!
Что-что, а так нагло и дёшево врать успешно продвигать, как хуанги, не умеет никто.

Автор:  SevenXP [ 19:37 04.03.2015 ]
Заголовок сообщения: 

76FX
Я бы не стал так кретичен, когда на рынок выходит, что то абсолютно новое, то это не новый iPhone За которым будет большая очередь. Я думаю Mantle вскоре займет свою нишу.
Это же и движки надо в поддержку мантле переделать.
+ Сейчас посмотрим, что получится у valve с openGl next. И у mantle есть площадки, которая она сможет занять, но тут надо усилия не только от AMD. К примеру, что бы Linux спокойно работал с Mantle и на нем запускал thief и BF4 для старта. И что бы производительность была либо лучше, либо такая же как и на Windows 8

+ Как я уже думал, что Mantle лучше всего начинать свой путь с PS4. потом он будет доработан и более менее нормальном виде переходить на PC. А затем возможно на мобильные устройства. Тем более Nvidia пока не заинтересованна в поддержки Mantle.

— frontier —
Облачный стрим на самом деле мне понравился. Но во Многих странах СНГ не у многих есть интернет со скорость минимум 10 мбит.

Кто что думает о GTX 960 у них осталась та же проблема с памятью? И кстати заметили что GTX 980 упал в цене, у нас почти на 100$

Автор:  SrID [ 19:45 04.03.2015 ]
Заголовок сообщения:  Re:


+ Сейчас посмотрим, что получится у valve с openGl next.

Скорее всего, это будет API Vulkan, который Khronos Group представили во вторник.
Оригинальный анонс (англ.)
Pdf с картинками (англ.)
Новость на Opennet (на русском)
На этом сайте новости почему-то нет :(

Автор:  76FX [ 20:24 04.03.2015 ]
Заголовок сообщения: 

SevenXP
Да Мантле в любом случае сыграл свою положительную роль-подстегнул к развитию DirectX 12,да и OpenGL Next. А то,возможно нас бы и дальше кормили никчёмными "развитиями" DirectX 11-11.1,11.2,11.3-11.35. Жаль,но я думаю,что разрабам будет проще одна версия DX 12,дающая практически то же,что и Мантле подо всё(Интел,АМД,Нвидия),чем Мантле лишь под АМД. Хочу ошибаться конечно. Но-посмотрим.

Автор:  SevenXP [ 01:15 05.03.2015 ]
Заголовок сообщения: 

76FX
А дела не в том что проще. DX режит по OS, OpenGL нету ограничений в OS ( но былую мощь OpenGL потерял где то в 2007-2008 не помню какая конференция прошла не так хорошо и не было сделано то, что бы запланировано и в этот момент DX 10 выглядел куда лучше OpenGL). У Mantle тоже нету ограничений (или не было) но есть ограничитель Nvidia, которая просто не хочет помогать конкуренту.

Но я уверен что Mantle поможет Xbox one и PS4 игры будут разрабатывать на 1-ном SDK, а не так что PS4 OpenGL а Xbox one DX. + Тогда будет нормальные порты на PC ( по крайне мере, я на это очень сильно надеюсь)

Автор:  DigiMakc [ 00:26 06.03.2015 ]
Заголовок сообщения: 


Я думаю Mantle вскоре займет свою нишу.
Ну как в новости написали, так скорее всего и будет.

Это же и движки надо в поддержку мантле переделать.
Видимо это не так уж и сложно, если учесть что игрухи с поддержкой Mantle появились довольно быстро.

К примеру, что бы Linux спокойно работал с Mantle и на нем запускал thief и BF4 для старта. И что бы производительность была либо лучше, либо такая же как и на Windows 8
Думается мне, что это мало кому интересно.

+ Как я уже думал, что Mantle лучше всего начинать свой путь с PS4. потом он будет доработан и более менее нормальном виде переходить на PC.
Да он и так на PC неплохо стартонул :) а на PS4 и ONE (в виде DX12) ему просто суждено быть.76FX, Согласен.

Автор:  SevenXP [ 01:56 06.03.2015 ]
Заголовок сообщения: 

DigiMakc
К примеру, что бы Linux спокойно работал... Зря вы так думаете, мне лично не нравится, что сейчас выпускает Micrsoft и я бы попробовал для себя другую OS но у меня нет выбора, по сколько я не смогу играть в свои игры. Хотя мои профессиональные программы на Linux пойдут на ура.
Таких как я, у которых Windows стоит, только и за DX, достаточно много и с выходом Mantle Microsoft это поняла и сразу начала продвигать тему игры и на xbox one и на PC, только ставте Windows 10

Да и сложность перевода движка на Mantle или просто начать использовать Mantle достаточно тяжело. Вы просто это не понимаете. Даже если вы досконально за 10 лет изучили DX то в Mantle вы будете полным 0, да и за опыта вы будете изучать быстрее, примерно будете понимать, как что работает, но важные моменты, нюансы на это нужно приличное количество времени.

Автор:  Asmodeus [ 03:16 08.03.2015 ]
Заголовок сообщения: 

Nvidia опубликовала исходники PhysX

Автор:  S_U [ 11:29 09.03.2015 ]
Заголовок сообщения: 

AMD наводит финальный лоск на Radeon R9 300

Автор:  SevenXP [ 20:20 09.03.2015 ]
Заголовок сообщения: 

Asmodeus
На сколько я читал и у нас в новостях, это на обработку на уровне CPU но не GPU. А CPU как то не ахти обрабатывает.

S_U
Да сам жду R9 390 (x). Надеюсь выйдут до ведьмака 3

Автор:  - frontier - [ 20:58 09.03.2015 ]
Заголовок сообщения: 

SevenXP
Без разницы, чем обрабатывать. Но да, CPU для физики подходит больше.

Автор:  Asmodeus [ 22:28 09.03.2015 ]
Заголовок сообщения: 

SevenXP
В оригинальной новости об этом ничего не сказано, вроде... :oops:

Автор:  Katiphus [ 00:12 10.03.2015 ]
Заголовок сообщения: 

SevenXP

На сколько я читал и у нас в новостях, это на обработку на уровне CPU но не GPU. А CPU как то не ахти обрабатывает.

Опять двадцать пять. PhysX 3.0 и выше на процах работает замечательно. Пруфы вы найдете в Metro Redux.

Автор:  SevenXP [ 02:20 10.03.2015 ]
Заголовок сообщения: 

Katiphus
Не знаю Redux ставить ради того что бы посмотреть как то не хочется. До вашей приведенной игры, во всех играх где стоит обработка PhysX на CPU просто отвратительно, по производительности.
Даже все так то, поставил на скачивание, правда не лицуху но пиратку с последними патчами и как обладатель NVIDIA я детально опишу разницу.

Автор:  Asmodeus [ 13:44 10.03.2015 ]
Заголовок сообщения: 

SevenXP
А вот есть ли смысл для физики поставить в пару с моей GTX 760 ещё, чисто для физики, GTX 460, которая у меня завалялась без дела? Новый БП на киловатт вроде это позволяет. Или от этого будет мало толку?

-- Добавлено спустя 11 мин 11 с --
Katiphus
SevenXP
Да откуда информация, что они раскрыли код только для обработки на CPU? Имхо, у нас на главной странице новость не совсем точна. В оригинале ничего про это нет.
Лично я считаю, что данный шаг со стороны nVidia свидельствует лишь о том, что они решили забить на физикс и поддержать OpenCL и DirectCompute по причине недовольства разработчиков, делающих порты с новых консолей, которым приходится допиливать их ещё и под физикс. Физикс себя изжил, как труформ от ATI в своё время.

Автор:  - frontier - [ 16:13 10.03.2015 ]
Заголовок сообщения: 

SevenXP

Не знаю Redux ставить ради того что бы посмотреть как то не хочется.

А в каких ещё играх, вышедших в пошлом или этом году, есть физикс?
Мне кроме метро ничего и не попадалось.

До вашей приведенной игры, во всех играх где стоит обработка PhysX на CPU просто отвратительно, по производительности.

Потому что игра и физикс(спасибо нвидии) висели на одном ядре. Вам же привели пример метро: вкл\выкл физикса вообще не влияет на фпс(в т.ч. лично по моим замерам фпс).
Где ещё это можно наблюдать... видимо, в играх с физиксом, вышедших в 2014+ году.

Автор:  SevenXP [ 18:38 10.03.2015 ]
Заголовок сообщения: 

— frontier —
А причем тут прошлый или этот год. Я то говорю в общем о PhysX. Часть эффектов в Metro 2033 LL просто были тормазнуты, где я в упор не видел PhysX. Сейчас играл в Метро 2033 лл редукт. FPS тот же, хотя на SSAO 0.5 стало по выше. В нвидиа панели переключал CPU и на GPU разницы в FPS не заметил. Но эта игра не лучшая для проверке PhysX.
Может конечно все изменилось, но я очень сомневаюсь, что основная концепция — хочешь быстрый PhysX покупай GPU от NVidia, что она поменяется.
Вот в Batman там по бельше мест, где виден PhysX а в Метро 2033 LL поискать нужно :)

Автор:  - frontier - [ 19:53 10.03.2015 ]
Заголовок сообщения: 

SevenXP
Как при чём год? На сколько мне известно, занимать отдельное ядро процессора физикс научили лишь в 2014 году. Какой смысл смотреть старьё, где CPU физикс умышленно тормозили.

Но эта игра не лучшая для проверке PhysX.

Ну.... А какая лучшая?

Может конечно все изменилось, но я очень сомневаюсь, что основная концепция — хочешь быстрый PhysX покупай GPU от NVidia, что она поменяется.

Да, поменялось. Зачем мне покупать какой-то особый гпу, когда ни одна игра не использует все процессорные ядра моего процессора. Проще отдать под физикс одно из неиспользуемых играми ядер. Всё равно физикс его нагрузить не осилит.
И не нужны никакие железки. Даже на владельцев нвидии так удобнее. Ничто не будет "отжирать" фпс.

Вот в Batman там по бельше мест, где виден PhysX а в Метро 2033 LL поискать нужно

Ну... в бэтмене и раньше работало, не тормозило вроде. А вот в метро просаживало раза в 3. И что там искать физикс, стрельните хоть в пол, тут же увидите.

Автор:  Katiphus [ 22:42 10.03.2015 ]
Заголовок сообщения: 

SevenXP

До вашей приведенной игры, во всех играх где стоит обработка PhysX на CPU просто отвратительно

Во всех предыдущих играх PhysX не 3.0. Версия 3.0 вышла не за долго до Metro Redux и впервые была использована в нём.

Но эта игра не лучшая для проверке PhysX.

Я даже пример приводил: Но тут не все так просто — лайфтайм частиц снижен, количество ограничено. Но это лучше чем ничего.
Изображение
Asmodeus

Да откуда информация, что они раскрыли код только для обработки на CPU?

Мне пофигу. Я говорю что они обещали оптимизировать PhysX 3.0 под CPU и они это сделали. Он отлично работает на моем проце отжирая ~10FPS.

Автор:  Asmodeus [ 23:29 10.03.2015 ]
Заголовок сообщения: 

Статья явно попахивает проплатой:
Исследуем проблему с памятью видеокарты Nvidia GeForce GTX 970

В статье нет ни одной игры, которая сильно нагружает память. Да и те, что есть — древние как окаменелости динозавра.
Предлагаю дружно отписаться об этом в комментариях.

Автор:  Katiphus [ 23:32 10.03.2015 ]
Заголовок сообщения: 

Asmodeus
Dying Light при длительной игре жрет больше 3.5ГБ так то.

Автор:  DigiMakc [ 02:46 11.03.2015 ]
Заголовок сообщения: 


количество ограничено.
Судя по кол-ву частиц, этого более чем достаточно))
Asmodeus, Одна игра есть, Фар Край 3, если верить тесту.

Автор:  Asmodeus [ 03:12 11.03.2015 ]
Заголовок сообщения: 


Dying Light при длительной игре жрет больше 3.5ГБ так то.
Его в той статье то же нет. И прочих то же нет.

Одна игра есть, Фар Край 3, если верить тесту.
Если верить тесту, то сильно жрёт там память только карточка от AMD :D


Свершилось! :up2: Мне там бан на две недели выдали за это. Впервые за всю жизнь мне кто-то выдал бан. Это надо отметить :beer:

Автор:  msivano [ 09:36 11.03.2015 ]
Заголовок сообщения: 

Похоже, что жизнь графического API Mantle подходит к своему завершению — ха, я сразу сказал что так будет, но все говорили, что я неправ и ни черта не понимаю — не выстрелило господа...
Тоже, но на русском

Автор:  proffy [ 09:59 11.03.2015 ]
Заголовок сообщения: 


AMD Radeon R9 390(X) Fiji GCN 1.3; ~4k-3.5k Cores; 4096-bit HBM
AMD Radeon R9 380(X) Grenada (Hawaii?) GCN 1.2; 2816 Cores; 512-bit GDDR5
AMD Radeon R9 375(X) Tonga GCN 1.2; 2048 Cores; 256-bit GDDR5
AMD Radeon R9 370(X) Trinidad GCN 1.3; ~1.5k Cores; 256-bit GDDR5
AMD Radeon R7 360(X) Bermuda (Bonaire?) GCN 1.1; 896 Cores; 128-bit GDDR5
AMD Radeon R7 350(X)/340(X) Oland GCN 1.0; 320 Cores; 128-bit DDR3/GDDR5
AMD Radeon R5 300 Caicos TS2; 160 Cores; 64-bit DDR3

VLIW, GCN 1.0, GCN 1.1, GCN 1.2, GCN 1.3 — в одной серии! :eek: Учитывая продолжение поддержки VLIW и GCN 1.0, WHQL драйверы, похоже, так и будут выходить раз в полгода, и с обязательным наличием глюков хотя бы для кого-то из линейки.

Автор:  msivano [ 10:10 11.03.2015 ]
Заголовок сообщения: 

proffy
Я всегда говорил — амд нужно сосредоточится на чем то одном, но они идут по пути — у семи нянек дитя без глаза.

Автор:  DigiMakc [ 14:00 11.03.2015 ]
Заголовок сообщения: 


Если верить тесту, то сильно жрёт там память только карточка от AMD
При этом не лагает, а 970-ая до нескольких к/с скачет.

Автор:  SevenXP [ 18:52 11.03.2015 ]
Заголовок сообщения: 

Печальный позыв о Mantle

Автор:  msivano [ 21:39 11.03.2015 ]
Заголовок сообщения: 

SevenXP

Печальный позыв о Mantle

Баян. Выше уже написано.

Автор:  Asmodeus [ 14:59 12.03.2015 ]
Заголовок сообщения: 

Очередные муляжи от Хуанга. Он как всегда в своём репертуаре.
Изображение

Автор:  SevenXP [ 13:13 13.03.2015 ]
Заголовок сообщения: 

Asmodeus

А по чему муляж или у Nvidia нету денег на ~ 27 Titan X ? :gigi:

Автор:  msivano [ 13:21 13.03.2015 ]
Заголовок сообщения: 

SevenXP
Это он к тому, что коробки пустые. Скорее всего это так, так как для выставки тянуть столько карт нет смысла. Достаточно одного серийного, либо прототип серийной.

Автор:  Asmodeus [ 15:27 13.03.2015 ]
Заголовок сообщения: 

msivano
Это я к тому, что Хуанга уже раньше уличали в показе муляжа видеокарты серии "Ферми". А здесь просто пирамида из коробок с сомнительным содержимым. Делайте выводы ;)
Ну и то, что вы выше сказали — совершенно верно :up:

Коробки по какому техпроцессу изготовлены?
:lol:
Комменты как всегда неподражаемы :up2:

Автор:  msivano [ 16:00 13.03.2015 ]
Заголовок сообщения: 

Asmodeus
Карту то хуанг показал, только вот демонстрации ее работы нет. Хотя по инету ходят уже результаты бенчей, настоящие? — нет? — хз. Хотя если она будет стоить косарь на старте, и не будет чего-то типа mem+mem, то среди гиков разойдется неплохо.

Автор:  Katiphus [ 17:41 13.03.2015 ]
Заголовок сообщения: 

Титан Z в свое время за 100к рублей тоже "разошелся неплохо".

Автор:  Пришелец [ 03:58 14.03.2015 ]
Заголовок сообщения: 

Другими словами Нвидиа ставит Х на прошлых видяхах и готовится к паскалю. Скоро Титаны станут неактуальны. Ведь новая архитектура будет быстрее в 5-12 раз. :oops:

Автор:  msivano [ 05:22 14.03.2015 ]
Заголовок сообщения: 

Пришелец
Прирост по пропускной способности шины в 2 — 3 раза не гарантия прироста фпс в столько же, а то и больше раз. Не питайте по поводу первых чипов на HBM таких надежд. А вот то, что количество блоков растровых операций в карте увеличено в двое, в купе с удвоенным количеством памяти, это уже хорошо.

Автор:  Katiphus [ 12:06 14.03.2015 ]
Заголовок сообщения: 

msivano

Прирост по пропускной способности шины в 2 — 3 раза не гарантия прироста фпс в столько же, а то и больше раз.

То-то у 970 когда забивается последний банк памяти фпс дропается в 3 раза, и дело точно не в пропускной способности, нет.

Автор:  msivano [ 12:51 14.03.2015 ]
Заголовок сообщения: 

Katiphus
Если верить бенчам, на которых как уверяют тестировали реальные карты, в том числе и новый 390х и новый титан, то разница между старыми и новыми технологиями, с той колоссоальной на фоне титана пропускной способностью памяти и шириной шины обмена данных, разница в фпс выглядит ничтожной, но в пользу 390х, но ничтожной, хотя все явно ожидали куда большей разницы, примерно в разы.
ИзображениеИзображениеИзображение

Автор:  MikeIS [ 12:56 14.03.2015 ]
Заголовок сообщения: 

msivano
А можно историческую справку: когда это смена поколения видеокарт приводила в возрастанию фпс в разы?

Автор:  msivano [ 13:00 14.03.2015 ]
Заголовок сообщения: 

MikeIS
А я, что утверждаю что такое было? — если да, то где :spy:
Я лишь ответил на вот это

Другими словами Нвидиа ставит Х на прошлых видяхах и готовится к паскалю. Скоро Титаны станут неактуальны. Ведь новая архитектура будет быстрее в 5-12 раз.

А в архитектуре паскаль тоже будет память HBM.

Автор:  MikeIS [ 13:09 14.03.2015 ]
Заголовок сообщения: 

msivano
Извиняюсь, пропустил посты чутка :oops:

Автор:  msivano [ 13:12 14.03.2015 ]
Заголовок сообщения: 

MikeIS
Бывает... Все мы Люди.

Автор:  SevenXP [ 22:03 14.03.2015 ]
Заголовок сообщения: 

msivano
Да и даже если это реальные данные, то все равно нету нормальных драверов. что для Titan X что для R9 390 тем более. Но там же еще будут R9 390x да и количество памяти там разные будут.

Автор:  msivano [ 10:02 15.03.2015 ]
Заголовок сообщения: 

SevenXP
Как минимум по объему памяти титан в этот раз выглядит привлекательнее, 390 с увеличенным объемом если и ждать то далеко не сразу, да и стоимоть разводки дополнительной на плате под дополнительные чипы будет не дешевым. Так что если это будет за 4 гига 500 или 600, то за 8 можно ожидать 800 — 900, а с учетом барыг что 390, что титан будут стоить на 200 дороже.

Автор:  Katiphus [ 12:15 15.03.2015 ]
Заголовок сообщения: 

msivano

Как минимум по объему памяти титан в этот раз выглядит привлекательнее

И куда вам 12ГБ памяти на такой чип? 4к столько не сожрет, а через пару лет от силы может потребоваться 5-6ГБ, а лишние 6ГБ куда? А там уже карты среднего сегмента будут по мощи как Titan X.
Очевидно что если Титан не проф.карта, то 12ГБ сделаны для лоха.

Автор:  msivano [ 12:27 15.03.2015 ]
Заголовок сообщения: 

Katiphus
Мне и моих двух хватает. А геймеров не понять — то кричат дайте больше памяти, и вот когда у амд было 3 в у нв 2, все кричали амд крута, когда у нв стало 4 (недоразумение в лице 970 не в счет ) — все стали кричать что нв крута, когда у амд стало 4 ( 8 будет, но заметно позже и дороже), а у нв 12, то почему то нв стало уг. Двойные стандарты?
А вот многомониторные конфиги на 12 гигах в 4к или 8к то мастерить куда как лучше, с учетом нв сорраунд — 3 монитора в ряд — как раз каждому по 4 гига и достанется. А одновременная работа нескольких CUDA приложений, благо карта теперь это может и память для этого не лишняя будет, ведь карта то полупрофи.

Автор:  S_U [ 14:44 15.03.2015 ]
Заголовок сообщения: 

Katiphus
Титаны это видимо полупрофессиональные решения с повышенной производительностью в двойной точности и тому подобном на то наверное и 12 гигабайт, на firepro w9100 например 16 гигабайт.

Автор:  Katiphus [ 15:14 15.03.2015 ]
Заголовок сообщения: 

msivano

А геймеров не понять — то кричат дайте больше памяти, и вот когда у амд было 3 в у нв 2, все кричали амд крута

Потому что 7950\7970 вышли хрен знает когда, но их и сейчас хватает из-за 3ГБ VRAM, а вот GTX670/80 с таким заделом на будущее не получились благодаря 2ГБ VRAM, а уже после драйвера 14.1 мой 7950 смог настигнуть по производительности в 3ДМарке 11 аж GTX 680.


когда у нв стало 4 (недоразумение в лице 970 не в счет ) — все стали кричать что нв крута

Ну естественно, карта вышедшая через 10 месяцев после R9 290X и обошедшая её ещё бы не была лучшей. Пока АМД не выпустила альтернативу GTX900 — лучшие.


когда у амд стало 4 ( 8 будет, но заметно позже и дороже), а у нв 12, то почему то нв стало уг. Двойные стандарты?

12ГБ во-первых лишь на 1 карте, не понятной линейки (не то профессиональная, не то игровая)
Во-вторых никто не говорит что это плохо, это ЧУДНО и явно сделано с упором на ЛОХА, как я уже написал выше.


А вот многомониторные конфиги на 12 гигах в 4к или 8к то мастерить куда как лучше

:lol: И чем вы будете тащить эти многомониторные конфиги в 4к? Если GTX980 SLI кое как справляется с 4К, то Titan X, который слабее, сможет? Памяти хватит, а ROP и TMU — нет.


с учетом нв сорраунд — 3 монитора в ряд — как раз каждому по 4 гига и достанется.

Ах, даже так :lol: :lol: :lol: Вот если бы было не 96ROP блоков, а 200ROP — тогда бы я согласился. 96ROP блоков это Ryse в FullHD на ультрах с SSAAx2 = 60FPS стабильно, при этом потребуется 4ГБ видеопамяти. :) Остальные 8ГБ можете засунуть куда-нибудь еще :shuffle:

S_U
Но кто пойдет покупать Firepro для игр? Так то он конечно потянет, но где-то я видел тесты что самый топовой (на тот момент, а это было года 1.5 назад) имеет в играх уровень 7970.

Автор:  msivano [ 16:19 15.03.2015 ]
Заголовок сообщения: 

Katiphus
Если бы все следовали подобным бредовым мыслям как у вас то человечество до сих пор ходило бы в набедренной повязке из шкур с кремневым наконечником на конце палки, а не спустя миллионы лет эволюции старалась бы до выжать последние соки из кремниевой технологии распаивая по 8 миллиардов трансов на одной подложке чипа.
Многомониторные конфиги можно не только для игр юзать( о чем я говорю? — ограниченное мышление больного на голову сообщества геймеров), для сапр проектирования к примеру, или параллельного использования нескольких программ требующих большого количества видеопамяти, можно и в игры играть если вы на них зациклены. К примеру чаще на таких конфигах играют в автосимуляторы либо опенворлд игры, ммо неплохо идет. И что за больная тяга крутнуть все на ультра, там где оно не вперлось — при 4к слово сглаживание нужно забывать потихоньку, если конечно количество пикселей на дюйм достаточно. Что б вы знали в слае видеопамять не объединяется в картах ( во всяком случае для игр точно, а вот для вычислений в CUDA программах да, но и то с большими ограничениями), так же как и в кросе — только вычислительная часть, поэтому иметь больше памяти на одной карте выгоднее чем по чуть чуть, но на двух.
А касательно прошных карт для игр — вы не поверите, но таких мазахистов хватет — помнится заходил тут один на форум и даже совета спрашивал.
А титан сделан не столько для лохов, сколько для тех кто понимают для чего им нужен такой объем ( это семейство всегда шло и позиционировалось как ПОЛУПРОФЕССИОНАЛЬНАЯ серия карт), но на полноценный проф агрегат денег нет, или не хватает. Все кто берут такое только для игр — лохи, но лохи с пунктиком — абы стояла самая крутая железка.
Кстати — производительность в марках ни разу не показатель аналогичной производительности в играх — марки это просто пиписькомерялки и не более. Так было, есть и будет. Как пример последний марк ( куплен в стиме и обновлен до последней версии ) ни разу не смог ни на одном тесте выше 815 мегагерц поднять частоту по ядру, зато предыдущая версия легко это делала, и были версии которые были более лояльными для того или иного лагеря. А для любителей совсем подлиннее есть virtu, которая баллов нарисует чуть ли не в два раза больше — проверенно лично, только эти баллы ни разу не показательны будут — зато длиннее.
Помнится на игромании много лет назад, еще во времена расцвета 8800, шел видеоролик, с кратко приблизительно следующим содержанием — чел сидит дома, ему звонят в дверь — он открывает а тут ему курьер мать отдает ( к каждой железке там еще ценник был, какой точно не помню но не суть, ведь я передаю смысл ) — с вас 500$, потом опять звонок — вот ваш цп, с вас 1000$, потом вот ваш бп, с вас 300$, вот ваша память, с вас 400$, вот ваши две видеокарты, с вас 1200$, вот ваша цистерна жидкого азота, прокат в сутки 2500$ — побить рекорд 3Dmark — бесценно, и таких идиотов хватает, и не только в пк сфере, и почки за девайс продадут, и неделю в палатке под офисом торчать, и по пол года на одном концентрате сидеть с водой , абы накопить на вожделенное железо, которое ему нах не упало.
Но это, как модно в инете писать, мое личное ИМХО, имеете полное право быть несогласным.
Как там говорилось — если звезды зажигают, значит это кому нибудь нужно...

Автор:  Katiphus [ 17:42 15.03.2015 ]
Заголовок сообщения: 

msivano

для сапр проектирования к примеру, или параллельного использования нескольких программ требующих большого количества видеопамяти

Для этого есть Квадро-серия, а GeForce — исключительно для игр. К последним относится и Титан.


К примеру чаще на таких конфигах играют в автосимуляторы либо опенворлд игры, ммо неплохо идет.

В ваших симулятора на столько оцталый графон что объедени хоть 50 мониторов память не забьется больше чем на 6-7ГБ, а мощности чипа уже явно не хватит чтобы отрисовывать столь большие кадры.


Что б вы знали в слае видеопамять не объединяется в картах

Это я и без вас знаю. Может я еще по больше вашего осведомлен в видеокартах и вообще IT-сфере. Только к чему всё это? Я веду речь про то что количество видеопамяти как для геймерской карты здесь несоразмерно с мощностью чипа и на этой видеокарте никогда не получится забить все 12ГБ памяти при этом получая 60ФПС, а вы мне тут втираете о том как это выгодно иметь на 1 чип 12Гигов. Все равно что использовать микроконтроллеры для плёвой задачи с внутренней памятью под пару гигов, вместо пары килобайт.


( это семейство всегда шло и позиционировалось как ПОЛУПРОФЕССИОНАЛЬНАЯ серия карт)

Когда лозунг у видеокарты из линейки GeForce GTX гласит >Мощнейшая видеокарта — невольно задумываешься что речь о ФПСах в играх. Может AMD тоже взять такую политику на вооружение? А что, R9 295x2 просто пинка под сраку даст даже Titan Z ибо его вычислительная мощность переваливает за 11ТФлопс.


но на полноценный проф агрегат денег нет, или не хватает.

Зато хватает на Титан за 60-100к рублей.


марки это просто пиписькомерялки и не более.

Марки отображают фактическую мощность.


ни разу не смог ни на одном тесте выше 815 мегагерц поднять частоту по ядру, зато предыдущая версия легко это делала

Это уже ваши проблемы и проблемы вашего GTX680.


и были версии которые были более лояльными для того или иного лагеря.

Ага, стоит вспомнить как нВидия точила дравишки под марки чтобы типа показывать какие у них мощные карты. В играх всё было совсем по другому.
Ну и стоит отметить что последний марк самый равнозначный для обеих фирм.

Автор:  msivano [ 18:25 15.03.2015 ]
Заголовок сообщения: 

Katiphus
Это проблемы ваших не верных умозаключений и узколобого мышления.
Если человек работает на CUDA, то ему не вперлась R295. Титан, повторюсь еще раз для особо СЛЕПЫХ и ТУГИХ — Полупрофессиональная карта, на которой можно и поиграть. И она пока мощнейшая в мире одночиповая — так дошло, "Знаток IT сферы".

Марки отображают фактическую мощность.

После этого даже можно не читать.
Показатель мощности для таких карт, это показатель вычислительной способности в fp32/fp64. А вот для для Знатоков IT сферы", показатель это фпс в игрульках.
Так что на фоне двухчиповых решений, этот одночип пока внушает уважение, при его смехотворном тпд, на фоне той же R295.
О чем вы задумываетесь, при слове мощь, относящихся к титану это уже как говорите вы

ваши проблемы

И на последок, те же Тени мордора, с легкостью на обычном Full HD, на всем максимуме отъедают около 6 гиг видеопамяти ( по словам разработчика ), точно проверить не удалось, но все 4 отъела на 980 и явно просила еще — вопрос дня — сколько она отъест при 4к, когда оно в 4 раза больше Full HD? Да и примеров хватает и без этой игры, где игровой движок, после криворуких игроделов, начинает жрать видеопамять выше всякой меры на ровном месте, не имея к этому явных предпосылов в лице той картинки, что выдается на монитор.

Автор:  Katiphus [ 20:26 15.03.2015 ]
Заголовок сообщения: 

msivano

Титан, повторюсь еще раз для особо СЛЕПЫХ и ТУГИХ — Полупрофессиональная карта, на которой можно и поиграть.

Где написано что это полупрофессиональная карта? И она пока даже на прилавки не вышла (если речь о Titan X, остальные — давно слиты, да и тот же Titan X по всей видимости слит R9 390X).


это показатель вычислительной способности в fp32/fp64.

Так то любой Radeon HD, не FirePro/FireGL, а именно HD — игровая серия, как и GeForce GTX — ставит раком аналоги от нВидии в вычислениях + ко всему ставит раком и некоторые профессиональные решения, и это не говоря о FirePro. У Titan Z который стоит 100000 рублей щас вычислительная мощность около 8ТФлопс, как я уже писал ранее у R9 295x2 вычислительная мощность аж 11ТФлопс. Я уж и не представляю на что будет способен R9 390X, вангую минимум 14ТФлопс вычислительной мощности, в то время как Titan X будет иметь порядка 11ТФлопс. Ну и как то я отвлекся от темы, так к чему это я, Radeon HD не позиционирует себя как проф. карта или полупроф. карта, а именно как игровая серия ну или мультимедийная, при этом умудряется работать везде и нагибать проф. карты нВидии. Но вы ищите какие-то оправдания для Титана который у вас является полупроф. картой не смотря на то что он находится в линейке GeForce GTX.


И на последок, те же Тени мордора, с легкостью на обычном Full HD, на всем максимуме отъедают около 6 гиг видеопамяти

Тени Чернобыля сделаны на Лихтехе, движке 10 летней давности, который явно не может в компрессию текстур, в итоге игра выглядит хуже Crysis 1 аж 2007 года, жрет как три запущенных Крайзиса 3 на ультрах, лагает как хер знает что из-за постоянного трансфера текстур RAM<—>VRAM и вообще не является хорошим примером, т.к. игры надо делать умной головой и прямыми руками. Вы бы еще вспомнили Lada Racing Club, хоть i7-5960X + GTX980 поставь, а она все равно лагать будет, ну а вы в свою очередь будете делать вывод что игре нужна система помощнее, хотя этой параше уже ничто не поможет, программистами явно были далекие от программирования люди.


Да и примеров хватает и без этой игры

Только Тени Мордора так жрут.

Автор:  DigiMakc [ 14:52 16.03.2015 ]
Заголовок сообщения: 


Но кто пойдет покупать Firepro для игр? Так то он конечно потянет, но где-то я видел тесты что самый топовой (на тот момент, а это было года 1.5 назад) имеет в играх уровень 7970
Было бы странно, если было бы иначе, т.к. чип тот же.

8 миллиардов трансов на одной подложке чипа.
Трансами обычно называют трансформаторы, а не транзисторы.
Katiphus, +1)

Автор:  msivano [ 17:23 16.03.2015 ]
Заголовок сообщения: 

DigiMakc

Katiphus писал(а):
Но кто пойдет покупать Firepro для игр? Так то он конечно потянет, но где-то я видел тесты что самый топовой (на тот момент, а это было года 1.5 назад) имеет в играх уровень 7970
Было бы странно, если было бы иначе, т.к. чип тот же.

И тем не менее такие сумасшедшие находятся, даже один такой заходил на этот ресурс.

Трансами обычно называют трансформаторы, а не транзисторы.

Это я знаю, просто я их так называю — моя личная привычка ( так как имею неврологическое заболевание, были последствия в виде того, что не мог произнести некоторые слова, со временм снова научился, но привычка осталась ), а вот трансформаторы называю трансформаторами, резисторы, пентоды, триоды, диоды и прочее тоже называю как положено. Просто привычка такая :)
Хотя чаще мелькают обратные темы — как софтово переделать обычные карты в профессиональные, хотя вроде как производители стали с этим боротся теперь на железном уровне, видно получалось не плохо у умельцев.

Автор:  Asmodeus [ 21:57 16.03.2015 ]
Заголовок сообщения: 


и вот когда у амд было 3 в у нв 2, все кричали амд крута
Всегда же были варианты, к примеру у меня — 760ая с честными 4мя гигами на 7012 МГц и 256 Бит. До сих тянет всё вполне прилично. Надо просто выбирать из предложений разных производителей.


Трансами обычно называют трансформаторы, а не транзисторы.
Запросил в гугле слово "трансы". А там такое.... :eek: Ужас, кошмар и ... нет слов :abuse:

Автор:  Katiphus [ 22:31 16.03.2015 ]
Заголовок сообщения: 

Asmodeus
Запросил в гугле слово "трансы" :lol:

Автор:  Жёсткий_Чебур [ 00:03 17.03.2015 ]
Заголовок сообщения: 


Запросил в гугле слово "трансы".

И главное аватарка в тему :lol: :up:
Изображение

Автор:  msivano [ 12:31 11.06.2015 ]
Заголовок сообщения: 

AMD Radeon Fury X: производительность в 3DMark

Надо сказать, что откровением результаты, показанные Fury X, не стали, но и о разочаровании говорить трудно — как в однопроцессорном, так и в двухпроцессорном режимах решение AMD ничуть не уступило TITAN X и неразогнанному GeForce GTX 980 Ti. Конечно, последний при разгоне оставил Fury X позади, но ведь Radeon тоже поддаётся разгону, по крайней мере, в теории. Вполне очевидно, что даже в режиме Ultra тест не использует свыше 4 Гбайт видеопамяти, поскольку больший её объём не даёт никакого выигрыша в результате решениям NVIDIA.

Автор:  - frontier - [ 12:38 11.06.2015 ]
Заголовок сообщения: 

msivano
Весьма вероятно, что это фейк.
Неизвесте разгонный потенциал. Версии драйверов...
Слишком много всего.
И что будет в играх.

Автор:  msivano [ 14:13 11.06.2015 ]
Заголовок сообщения: 

— frontier —
Разгонный потенциал прежде чем выяснять, нужно прогу для разгона научить с этой картой обращаться.
Версия дров, скорее всего, была самой последней — так обычно делают, когда тестируют самый новый флагман.
Что будет в играх узнаем тогда, когда пойдет карта в массы.

Автор:  Asmodeus [ 14:56 11.06.2015 ]
Заголовок сообщения: 

NVIDIA всё-таки помогла создать ПЕЧь за $3000

Автор:  msivano [ 15:18 11.06.2015 ]
Заголовок сообщения: 

Asmodeus
Несмотря на цену печь отличная с точки зрения даже шеф поваров. Идея встроить туда весы и научить ее определять по весу время готовки отличная. Передавать изображение готовящегося блюда тоже хороший и удобный ход — как пример — готовим что либо, а на пк, тв, планшет, смарт для удобства транслируем изображение готовящегося блюда. Как итог можно смело отойти от печи в соседнюю комнату и контролировать процесс, попутно занимаясь делами. Если в нее еще и возможность удаленного управления добавить, то будет вообще идеал. Как пример — ушел на работу, предварительно положив что либо готовится в печь ( отложенный старт уже как бы и так есть, но речь о непредвиденных обстоятельствах ), на работе задерживаешься, или наоборот раньше приходишь, пока в пути можно запустить готовку и придти на все готовенькое.

Автор:  - frontier - [ 15:21 11.06.2015 ]
Заголовок сообщения: 

msivano

Разгонный потенциал прежде чем выяснять, нужно прогу для разгона научить с этой картой обращаться.

Нет. Для начала нужно получить карту. Без карт, которых к слову пока нет, прогами этими делать нечего.
А разгонять(не экстремально), не сомневаюсь, можно будет и каталистом, который будет идти вместе с картой.

Версия дров, скорее всего, была самой последней — так обычно делают, когда тестируют самый новый флагман.

Ну да. Но у АМД всегда так, карта выходит с дрянь-драйверами. и только через пару месяцев доводят до ума. А иногда и дольше.

Что будет в играх узнаем тогда, когда пойдет карта в массы.

Думается, тут даже важнее не это, а что будет в дх12. Под старые игры покупать её особого смысла не вижу.
Моё мнение: если она будет идти вровень с 980ти или титаном в дх11, но опережать их процентов на 40 в дх12, то можно и задирать на неё ценник до 1000.
Иначе должна быть дешевле.
Это касается случаев, когда карта покупается не на полгода, а хотя бы года на 2.

Автор:  - frontier - [ 09:51 16.06.2015 ]
Заголовок сообщения: 

Нравится мне название этой темы.
С учётом того, что оригинал находился в разделе "Флейм", назвать тему "Флейм из...".
Так и хочется переименовать "Флейм из флейма...". :)
Нужно особое мастерство, чтобы отделить флейм от флейма! 8-)

Автор:  DigiMakc [ 23:41 16.06.2015 ]
Заголовок сообщения: 

— frontier —
Согласен :)

Автор:  Asmodeus [ 23:59 16.06.2015 ]
Заголовок сообщения: 

— frontier —
На то у нас и модераторы флейма — лучшие из лучших.

Автор:  msivano [ 10:48 19.06.2015 ]
Заголовок сообщения: 

Официальные результаты тестирования AMD Radeon Fury X

ама AMD сообщает о том, что Fury X легко разгоняется с заводских 1050 МГц до 1150 МГц с использованием встроенных в Catalyst возможностей, причём речь идёт о разгоне без повышения напряжения питания ядра. Следовательно, использование утилит сторонних разработчиков, поддерживающих такую возможность, позволит достичь и более внушительных цифр — свыше 1200 МГц. Поразительно, но при всей своей чудовищной сложности процессор Fiji, оказывается, имеет неплохой потенциал в этой области. Любопытно, что разгон памяти в текущем варианте Fury X заблокирован, но жёстких ограничений AMD не накладывает, так что, вероятно, энтузиастам ещё предстоит разобраться с тонкостями разгона HBM.

Автор:  666Kamikadze666 [ 13:03 19.06.2015 ]
Заголовок сообщения: 

на оверах адепты зеленой секты конечно доставляют. Что ни новость о новых видео АМД, то такой балаган поднимается. Сегодня вот товарищ заявил, что новые видео АМД слабовато прибавили по сравнению с предыдущим поколением (9хх) Нвидиа. :confused:
А так как всегда — дрова отстой, памяти мало, в 4,5,8 К не потянет, обогреватель, зачем водянка и т.д. :lol:
Хотите поднять себе настроение — читайте комментарии к новостям о видео АМД. :D

Автор:  Asmodeus [ 13:56 19.06.2015 ]
Заголовок сообщения: 

666Kamikadze666
Согласен, Хуанг создал секту :yes:

Автор:  msivano [ 14:27 19.06.2015 ]
Заголовок сообщения: 

Asmodeus
А АМД секту не создала???

Автор:  666Kamikadze666 [ 15:25 19.06.2015 ]
Заголовок сообщения: 

Ну на данном ресурсе я пока не встречал особо ярых фанатов, кричащих с пеной у рта "Нвидиа — авно, АМД — форева". На остальных ресурсах всё обычно скатывается к, как бы это помягче выразится, обкакиванию АМД с их "кривыми" дровами и постоянно отстающей графике.

-- Добавлено спустя 17 мин 42 с --
новая статейка с убойными комментариями

Вот из нового перлы:

DVI нету, hdmi из прошлого века. Удачи амд, я 100% остаюсь с НВ, даже если фуджи в 2 раза быстрее.

Автор:  Asmodeus [ 19:10 19.06.2015 ]
Заголовок сообщения: 


Ну на данном ресурсе я пока не встречал особо ярых фанатов, кричащих с пеной у рта "Нвидиа — авно, АМД — форева". На остальных ресурсах всё обычно скатывается к, как бы это помягче выразится, обкакиванию АМД с их "кривыми" дровами и постоянно отстающей графике.
Вот — ни добавить, ни убавить.


Хотите поднять себе настроение — читайте комментарии к новостям о видео АМД.
Регулярно так и делаю :up: :lol:

msivano
Если у AMD и есть секта, то это секта любителей нормального соотношения цены-качества-производительности. Побольше бы таких сект, глядишь в нашей стране и жизнь бы наладилась.

Автор:  Switrit [ 19:24 19.06.2015 ]
Заголовок сообщения: 

666Kamikadze666
Ну тут как бы сидит в основном аудитория с 20+ лет которая ищет лучших вложений своих денег и если не брать в расчет пара тройка человек то фанатиков чего либо из мира компа у нас нет. А юношеский максимализм давно переросли если не все тут сидящие то как минимум большинство)
Лично мне по барабану в плане железа, что там стоит в ноуте за бренды главное что бы хорошо работало и давала максимум мощи за свои деньги. Причем даже бренд не особо важный, хотя изначально все равно при выборе ноута на винде допустим или комплектующих смотрю в сторону больших дядей Асус\Мси\Гигобайт. В плане ноутов + Ленова. А так по жизни я фанбой сугубо консолей от Сони, что поделать? Нравиться мне их качество и их игры. Но это уже другая история)

Автор:  Asmodeus [ 19:31 19.06.2015 ]
Заголовок сообщения: 


Ну тут как бы сидит в основном аудитория с 20+ лет которая ищет лучших вложений своих денег
Опередили, дополнил о том же выше :yes: :up:

Вот, к примеру, один фан из Лего собрал:
Изображение
11396 деталек на это потратил, и всё для того — ЧТО БЫ получить автограф от Хуанга. Интересно — сколько денег он вложил в это, и своих ли денег? :spy:
Теперь ему осталось сделать ещё один шаг — собрать из Лего статую Хуанга в полный рост в типичном размере скульптур от Церетели. Ему бы кинуть клич на оверах на стартап.... :oops:

Автор:  666Kamikadze666 [ 19:42 19.06.2015 ]
Заголовок сообщения:  Re:


Ну тут как бы сидит в основном аудитория с 20+ лет которая ищет лучших вложений своих денег

Вот в том и дело, здесь приятно пообщаться, новости обсудить и ими же поделиться.
А там настроение себе поднять.

:)

Автор:  msivano [ 20:25 19.06.2015 ]
Заголовок сообщения: 

Asmodeus
Вся суть красной и зеленой секты в том, что зайдя в красную видишь как глумятся над зеленой. Зайдешь в зеленую — стебутся над красной. Но самое смешное то, что обе секты правы в различных аспектах своих разногласий. Думаю дело тут бы мог выправить третий игрок на рынке графики, который бы принимал во внимание суть этих срачей, делал аналитические выводы слабых мест обоих лагерей и выпускал продукт из смеси плюсов двух игроков рынка.

Автор:  Asmodeus [ 20:30 19.06.2015 ]
Заголовок сообщения: 


и выпускал продукт из смеси плюсов двух игроков рынка
Ныне это уже нереально — патентными исками засудят :(

Автор:  - frontier - [ 21:23 19.06.2015 ]
Заголовок сообщения: 

Третий игрок на сокращающийся рынок? Мммм... Крайне оригинально!
Тут нвидия на чипы для смартфонов хочет соскочить(и соскочила бы с удовольствием, но пока не получается), а амд на апу(аналогично. но имхо, ситуация ощутимо лучше). Интел, вон, даже и не пытается дискретками заморачиваться.

Автор:  666Kamikadze666 [ 22:38 19.06.2015 ]
Заголовок сообщения: 

Intel пыталась(вспоминаем Larrabee на начальном этапе)...

Автор:  - frontier - [ 23:00 19.06.2015 ]
Заголовок сообщения: 

666Kamikadze666
Железка для других целей, но её можно применять для расчёта изображения.
Но журналисты как всегда, что не поняли, то наврали.

Автор:  Switrit [ 23:05 19.06.2015 ]
Заголовок сообщения: 

666Kamikadze666
Но все же встроенное граф ядро в процессоре от поколения к поколению становится все лучше и лучше а 6000 поколение очень даже крутое в прочем пятерка уже была крута она же Ирис, для не требовательных пользователей выше крыши + позволяет с комфортом поиграть в не требовательные игры. при процессоре кор i5 что десктоп что мобильный вариант.
— frontier —
Ну вот хоть, кто-то понимает что век многочиповок проходит. Массовое будущее которое будет стоять у каждого дома как щас обычные компы это одно кристальные системы, и популярность апу и встроенных вк в интел по той же статистики стим тому подтверждения.

Мое виденье такое лет через 7 массовые одно кристальные системы, дискретки не куда не уйдут они останутся в компах гиков, оверклокеров и как рабочий инструмент для видео и графики

Автор:  Asmodeus [ 02:13 20.06.2015 ]
Заголовок сообщения: 


Мое виденье такое лет через 7 массовые одно кристальные системы, дискретки не куда не уйдут они останутся в компах гиков, оверклокеров и как рабочий инструмент для видео и графики
Такое ещё 7 лет назад предсказывали.... "а воз и ныне там" @ .

Автор:  Switrit [ 09:19 20.06.2015 ]
Заголовок сообщения: 

Asmodeus
Не фига не ныне. Апу вполне себе отличные компы особенно десктоп для рядового особо не требовательного пользователя при этом сносно тащат новые игры не ультра но тем немение средние настройки вполне себе, графика интел уже 3 поколения кряду опять же отличная графика, производительность которой растет в геометрической прогрессии от камня к камню. И львиная часть аудиториии выбирая допустим ноут на i3\i5 в 90 процентов случаев при 1080р, смотрят на решения встроенной графики для тех кому интересны допустим кс\дота\старкрафт\ WoW и другие массовые не требовательные игры.

Автор:  johnhn [ 10:09 20.06.2015 ]
Заголовок сообщения: 

Asmodeus
Интел шагнул во встроенной графике

Автор:  Asmodeus [ 17:00 20.06.2015 ]
Заголовок сообщения: 

Согласен :up: Читал вчера. Обходит даже последнии APU AMD :up2: Но под крышкой опять глина :(

Им бы теперь дискретную создать. Вот был бы третий конкурент.

Автор:  msivano [ 22:32 25.11.2015 ]
Заголовок сообщения: 

x[x]x
970 это скажем так уникальная карта с точки зрения промахов как инженерного отдела, так и маркетологов. Инженеры лоханулись организуя разводку от ядра на чипы памяти, не дождавшийся гиговых чипов. Но даже если бы и дождались, то реализовать ее в том виде, как задумывалась маркетологами 970 ( тех характеристики ) не позволяла архитектура чипа. Ну нельзя там распаять 4 гига сохранив обещания маркетологов — или 3,5 + 0,5 и имеем тот кеш, который имеем, или 4,0 гиговыми чипами, тогда кеш будет еще меньше. Если набором память сделать из разных чипов по емкости, то получится тот же прикол, что и сейчас, но еще хуже...

Страница 1 из 1 Часовой пояс: UTC + 3 часа
Copyright © 2001 - 2012, Radeon.ru Team
Powered by phpBB® Forum Software © phpBB Group
http://www.phpbb.com/