Страница 3 из 5 [ Сообщений: 191 ] Версия для печати [+] | На страницу Пред. 1, 2, 3, 4, 5 След. |
Благодаря U2 стало известно, что сегодня вышел новый патент от АМД: Hierarchical texture cache
Интересно, как это понять? У АМД есть идея засунуть в процессор видео? Если да, то чье?! ![]() Насколько я понимаю, U2 считает, что есть шанс у SiS... Мне лично была бы более симпатична S3 ![]() |
matik
Мне лично была бы более симпатична S3 А почему S3, кстати? |
U2
А почему S3, кстати? 1. А почему бы нет? ![]() 2. Жалко мне их ![]() 3. Сложилось ощущение, что их продукция по соотношению производительности на каждый транзистор была очень даже ничего. А недостаточную производительность (по сравнению с чипами АТИ и НВидиа) легко перекроет высокая тактовая частота такого решения внутри процессора. 4. Они мало греются, что для интегрированного в процессор чипа очень важно. |
matik
А когда последний раз от них появлялся продукт в реале? Не на бумаге ... |
U2
Ну, Delta Chrome какой-то недавно бегал (на ФЦ обзор был, но сейчас ФЦ лежит)... Кстати, не шибко медленный (уж точно быстрее SiS)... Правда, на фоне ATI и NVidia не впечатляет, но все же вполне себе продукт. А добавьте сюда великолепный контроллер памяти от AМД, кэш второго уровня (особенно с уменьшенными ячейками —SRAM formation using shadow implantation* ![]() Похоже, пора все эти "эротические фантазии" в статью сложить ![]() * — спасибо U2 за ссылку |
matik
Ну, DeltaChrom какой-то недавно бегал Я вот взглянул на сайт S3. Только тогда GammaChrome по причине якобы наличия low-power версий супротив дельтахром. Но вопрос, насколько S3 ныне дальше ведет разработки видеоядра под будущие спецификации. Не заморожено ли там у них ничего? Кстати, не шибко медленный (уж точно быстрее SiS)... Ну даже, если и быстрее, условная реинкарнация Timna (ау, интел) и не предполагает наличия быстрого видеоядра Похоже, пора все эти "эротические фантазии" в статью сложить Да что-то от вас давно ничего не было. Пора бы взяться за перо и сделать "прогноз погоды" ![]() |
U2
Ну даже, если и быстрее, условная реинкарнация Timna (ау, интел) и не предполагает наличия быстрого видеоядра Ну, лишь бы на Longhorn хватило бы, тут я с Вами согласен. Впрочем, нет смысла делать видео уровня 945 — надо делать быстрее, чтобы иметь возможность отхватить кусок рынка корпоративных РС. Ибо там правит бал интегрированная графика.... Я вот взглянул на сайт S3. Только тогда GammaChrome по причине якобы наличия low-power версий супротив дельтахром. Но вопрос, насколько S3 ныне дальше ведет разработки видеоядра под будущие спецификации. Не заморожено ли там у них ничего? Про текущее состояние я ничего не знаю. Но в данном случае не столь важно, как это ядро называется — все равно инженерам АМД, если они решатся его туда встраивать, придется перекраивать все. Здесь важней лицензию на само ядро (на принцип) получить, чем конкретный чип. В текущем виде все равно ядро на 2 — 3ГГц не заработает. Да что-то от вас давно ничего не было. Пора бы взяться за перо и сделать "прогноз погоды" Старею ![]() Надо, согласен. |
matik
Ну, лишь бы на Longhorn хватило бы У АМД в роудмапе обозначена AeroGlass (UMA) графика. Насколь SIS и S3 могут что-то предложить — вопрос. А вот АТИ да Нвидия еще как. Главное, чтобы термопакет был бы приемлемый для интеграции ... Старею ![]() Надо, согласен. "Надо, Федя ... нннадо!!!" © ![]() |
U2
Главное, чтобы термопакет был бы приемлемый для интеграции ... Мммм... Предлагаю очень грубо прикинуть... Учитывая, что 6600GT имеет 8 конвейеров и на частоте 500МГц выделяет до 60Вт (причем это обычная версия, не LV), предлагаю очень грубо считать, что 4 конвейера на частоте 1ГГц выделяют столько же. И, соответственно, 2 конвейера на 2ГГц примерно столько же. Это по 0.11 техпроцессу, напряжение питания не знаю (вроде бы около 2В) Грубо считая, что напряжение питания падает примерно так же, как геометрические нормы техпроцесса, припомним, что тепловыделение пропорционально квадрату напряжения. То есть при снижении напряжения до 1.6В (а, точнее, до 1.35 — напряжения нынешних ядер АМД) получим, что на 90нм (да еще и DSL) реально надеяться примерно на 27 — 30Вт. Это оценка для простого масштабирования. При этом надо вычесть тепловыделение контроллера памяти (он уже отдельно), тепловыделение контроллера AGP/PCI-E (думаю, пяток ватт наберется), и учесть, что наверняка проведут дополнительную оптимизацию. Даже сейчас для младших А64 S939 было бы реально, имхо, вместиться в TDP 105Вт. А уж на 65, если технологи не подведут, совсем логично получается. Хм... Даже самому понравилось. Хотя, конечно, все это прикидки "на коленке". |
UMA, конечно, это здорово, но пока системные памяти в разы медленне памяти на видеоадаптерах.. Что делать с этим? Точнее, кому нужна такая производительность? В том смысле, что для офиса производительности современной встроенной в чипсет графики достаточно, а в тяжелых задачах UMA заведомо будет сильно проигрывать выделенным решениям? Плюс еще проблема деления ПСП между центральным процессором и видеоядром, которая только усугубит ситуацию (мало того, что видео тормозное, так еще и CPU будет простаивать зря)...
|
matik
Интересно, как это понять? У АМД есть идея засунуть в процессор видео? Так уже давно грозятся сделать революцию к 2007-2008, интегрировав на чип с процессором кроме всего прочего еще и видео. ![]() Некоторые невнимательно читают пресс-релизы ![]() Если да, то чье?! ![]() Зачем все портить чужим видео? ![]() Stranger_NN UMA, конечно, это здорово, но пока системные памяти в разы медленне памяти на видеоадаптерах.. Вот именно что пока ![]() Что делать с этим? Точнее, кому нужна такая производительность? Так это собственно и будет типичный лов-енд Плюс еще проблема деления ПСП между центральным процессором и видеоядром, которая только усугубит ситуацию (мало того, что видео тормозное, так еще и CPU будет простаивать зря)... В отличие от видеоядер Интел: 1) ВСЕ будет на одном кристалле, кроме собственно памяти; 2) будет использоваться кэш, расположенный на кристале + у видеоядра будет своя, локальная память; 3) мы не знаем какая там будет ПСП; В итоге, производительность такого встроенного видео трудно будет сделать меньше, чем у конкурента, как и себестоимость. |
Warrax
Так уже давно грозятся сделать революцию к 2007-2008, интегрировав на чип с процессором кроме всего прочего еще и видео. Цирикс номер два ![]() Инквайр, помниться, выкладывал слухи про PCI-E, встроенный в ядро. |
Warrax
Полагаю, что это весьма надолго, потому что ПСП видеопамятей тоже не стоит на месте. Тем более, что для UMA системы нужна ПСП равная сумме ПСП системной памяти и памяти видеоадаптера. Немелкая такая величина. Плюс решение проблемы совместного доступа в плане обеспечения латентности...
Дык речь-то о том, что это lowend будет ли востребован? Потому что, повторюсь, в офисе он избыточен, а в 3D — заведомо слаб. Смысл?
Да, и что?
Какого размера? Если несколько <десятков> мегабайт — одно, только вряд-ли, а если только фрейм-буфер, то это ерунда.
В несколько раз меньше, чем у решения с выделенной видеопамятью.
КАКОГО конкурента? Да, быстрее существующих встроенных решений. Но заведомо медленнее выделенных видеосистем. Промежуточный вариант получается, вопрос в его востребованности остается открытым. |
Warrax
Некоторые невнимательно читают пресс-релизы И ведь верно ![]() Stranger_NN пока системные памяти в разы медленне памяти на видеоадаптерах.. Что делать с этим? Точнее, кому нужна такая производительность? 1. Речь ведь действительно о дешевых интегрированных решениях 2. Насчет производительности, кстати, я вовсе не уверен, что все так плохо. Учитывая технологии экономии ПСП, вполне можно себе представить относительно приличный по производительности чип (тем более, что будет активно использоваться L2 процессора) 3. Подозреваю, что нацелено это все на использование где-то DDR2-800... Учитывая, что нынешние А64 не сильно зависят от ПСП памяти (точнее, почти не зависят в большинстве задач), подозреваю, что уровня 6600 с ее обычной DDR1 на частоте 300МГц достигнуть будет не так сложно. Так что определенный смысл в этом есть. Тем паче, что, добавляя кэш, производитель автоматически будет увеличивать производительность и процессора, и видеоядра. Вырисовывается примерно такая картина: 1. Socket M с памятью DDR2-800. 2. Процессор с интегрированным видеоядром и 1МВ L2... 3. Простой дешевый чипсет, вроде SiS... Замечательная, кстати, машинка получится. Думаю, уровень производительности 6600 вполне достижим. А это в разы быстрее, чем у любых интегрированных решений. Думаю, уровень производительности получится приемлемым для подавляющего большинства современных игр. |
Stranger_NN
Да, быстрее существующих встроенных решений. Но заведомо медленнее выделенных видеосистем. Промежуточный вариант получается, вопрос в его востребованности остается открытым. Если в итоге будет дешевле чем другие встроенные решения — то однозначно будет востребован. А насколько он избыточен для офиса — вопрос спорный. Я не о игрушках на рабочем месте, хотя вот тоже для некоторых аргумент ![]() Пока 3Д-функции в графическом интерфейсе использует только одна ОС, насколько я знаю, но время то идет... В частности Лонгхорн-у нужна будет неслабая 3Д-карта. Так что насчет востребованности все в порядке ![]() |
Stranger_NN
matik Ну, раз уж речь про low-end, то кто мешает сделать платку, куда запихать а) собсно сам этот гипотетический процессор с инт. видеоядром б) некоторый объем распаяной памяти. К примеру, полгига небыстрой и недорогой (по меркам мира видеокарт) GDDR3 с частотой 300-400МГц. (Кто-нить, кстати, в курсе оптовых цен на эту память и возможности ее работы в "многобанковом" режиме?) в) какая-нить шина наружу (HT, PCI-E) Где пользовать? В ноутах, компактных ПК/медиацентрах/тонких клиентах. Очень удобно — всего один греющийся элемент стандартного форм-фактора и чип-компаньон. В вычислительных системах, критичных к ПСП — когда 3D стоит, почти вся память достается CPU. Ну и при грамотной реализации отдельные ФУ 3D блока можно будет использовать как специализированные устройства при общих вычислениях. Чего ведь только не пытаются посчитать с помощью нынешних GPU — судя по кол-ву таких проектов, но мещают 2 вещи: "медленный" линк с процессором и невысокая гибкость архитектуры. |
SLoNiCK
то кто мешает сделать платку Платка — это пайка, отдельные детали, это сборка устройства. Процессор — это законченное устройство, цельное. Получающееся в процессе производства. То есть, на потоке будет заметно дешевле. В остальном согласен. |
matik
Безусловно. Это единственное что можно нарисовать в плюс таким системам — "дешево".
Не думаю, что при обработке текстур объемом в ...дцать мегов после сжатия удастся что-то глобально наэкономить.. А уж как будет раз процессор тому факту, что его L2 активно используется видеоядром! Слов нет чтобы передать "восторг".. ![]()
Хмм.. <голосом Масяни> Это, круто.. Да, DDR2-800 это круто.. <конец голоса Масяни> Это аж 12.8Gb/s при двух каналах.. Вот только DDR1-600(2*300) в нонешних решениях при ширине шины в 32байта дает сама по себе уже 19,2Gb/s, плюс 6,4Gb/s для двухканальной DDR1-400 в системе. Итого, 25,6Gb/s плюс отсутствие проблем при организации совместного доступа к один и тем же модулям памяти.. Опа.. ![]() ![]() ![]() Warrax
Вот не знаю. Поскольку процессор и так очень сложный чип, может оказаться, что дешевле видеоядро в отдельной i/o микросхеме делать, там же, например, где сеть, звук, SATA и так далее. И "выдавать" ей, скажем, 16-32 мегабайта собственной физической памяти, чтобы процессору не мешала.
Вот разве что Лонгхорн.. ![]() |
Stranger_NN
Не думаю, что при обработке текстур объемом в ...дцать мегов после сжатия удастся что-то глобально наэкономить.. А уж как будет раз процессор тому факту, что его L2 активно используется видеоядром! Слов нет чтобы передать "восторг".. Кстати, уменьшение доступного для CPU размера L2 вызовет УВЕЛИЧЕНИЕ нагрузки на память с его стороны. Логично? 1. Обработать структуру в надцать мегабайт никаких проблем нет. Обрабатывается она все равно кусками, пока идет обработка одного куска — остальное подгрузить успеем. 2. К8 от размера кэша производительность меняет не слишком сильно. Так что большого падения не будет, думаю. 3. Вообще-то в момент обработки большой текстуры вряд ли есть какие-то особые задачи для процессора... То есть понятно, что падение производительности неизбежно. Но мне кажется, что оно будет не слишком большим. Это аж 12.8Gb/s при двух каналах. Да, именно так. Вот только DDR1-600(2*300) в нонешних решениях при ширине шины в 32байта дает сама по себе уже 19,2Gb/s Ты чуток перепутал ![]() Так что вполне неплохо получается. Более того, появляется кэш L2, который намного быстрее, чем любая память. В том числе по времени доступа. А, учитывая блочный характер видеоданных, эффективность кэша должна быть весьма высокой. |
matik
Разумеется, успеем. Вот только что при этом будет делать процессор?
Э, стоп. А ПОЧЕМУ у него мало зависит производительность от размера L2? ![]()
А что, следующую сцену обсчитывать не надо? ![]()
Будет оно большим. Очень даже будет. Причем, именно в реальных приложениях, где еще много обсчета картинки — особенно.
А почему не GT, кстати. Да и в любом случае 16Gb/s больше чем 12,8Gb/s, а уж если 9,6Gb/s+12,8Gb/s рассматривать — то и подавно...
Стоп. Ты, кажется, тут не понял.. Если у меня вместо локальной памяти видеоадаптера (где лежат текстуры) используется системная память (а какая же еще?) — то мой расчет как раз верен. Именно суммировать надо! Другое дело, что я могу сказать, что 9,6(19,2)Gb/s достается видео, и 6,4(12,8 для DDR2-800)Gb/s — процессору. А в случае UMA — им достается 12,8Gb/s на двоих. Сколько каждому — не знаю, но явно меньше 12,8Gb/s. И даже, возможно, меньше чем сейчас, для неUMA системы — потому что вдруг графический чип выжрет в какие-то моменты всю ПСП? Он может, как раз.. Что будет делать проц?
Вот только его размер с т.з. видеочипа просто смехотворный. Кстати, видеопроцессоры обычно кэш не используют, смысла нет. |
Stranger_NN
Кстати, видеопроцессоры обычно кэш не используют, смысла нет. Смысла нет, патаму шта частоты памяти очень близки к частоте видеопроцессора (иногда равны), а когда частота видеопроцессора будет на порядок выше? ![]() |
...с которыми у S3 косяк. ![]() |
ИМХО, заблуждение. |
Warrax
Дык частота-то выше, а ширина? Грубо говоря, если память таки может поставлять данные в требуемом темпе, порядок выборки известен за сотни тактов вперед и выборка организована так, чтобы как раз к сроку прибывали данные.. К чему кэш? Кэш (второго уровня), вообще говоря, нужен тогда, когда действительно эффектимвную предвыборку организовать невозможно в силу непредсказуемости алгоритма задачи. Задачи, решаемые видеопроцессором заранее известны, и выборка может быть заранее организована оптимальным образом без помощи кэша. nemoW
А обосновать? |
Stranger_NN
Вечером или завтра. |
Stranger_NN
Э, стоп. А ПОЧЕМУ у него мало зависит производительность от размера L2? Думаю, традиционно как у К7. Там, если помнишь, ничего особого с латентностью или ПСП не было, а производительность от размеров зависит не сильно. Кстати, от ПСП А64 тоже не сильно зависит — достаточно сравнить 754 и 939 сокеты. Так что меня не пугает то, что часть ПСП будет отжирать видео. Вряд ли это сильно скажется на обычных задачах. А серверные на этом оборудовании никто гонять и не будет. А что, следующую сцену обсчитывать не надо? Следующая сцена успеет загрузиться до того, как обсчитается предыдущий блок.... В момент обсчета сцены другие данные ему не нужны, и шина памяти свободна — насколько я себе представляю технологию обсчета видео. А почему не GT, кстати. Да и в любом случае 16Gb/s больше чем 12,8Gb/s, а уж если 9,6Gb/s+12,8Gb/s рассматривать — то и подавно... Откуда ты взял 16?! Там 9.6GB/sec. Даже у 6600GТ шина памяти 128 бит на частоте 900МГц для AGP версии. То есть, не выше 14.4GB/sec. Если у меня вместо локальной памяти видеоадаптера (где лежат текстуры) используется системная память (а какая же еще?) — то мой расчет как раз верен. Именно суммировать надо! Другое дело, что я могу сказать, что 9,6(19,2)Gb/s достается видео, и 6,4(12,8 для DDR2-800)Gb/s — процессору. А в случае UMA — им достается 12,8Gb/s на двоих. Сколько каждому — не знаю, но явно меньше 12,8Gb/s. И даже, возможно, меньше чем сейчас, для неUMA системы — потому что вдруг графический чип выжрет в какие-то моменты всю ПСП? Он может, как раз.. Что будет делать проц? Давай по порядку: 1. Система с отдельной видеокартой на AGP. Формально они могут пользоваться AGP-текстурированием. Реально они этим НЕ ПОЛЬЗУЮТСЯ — снижение скорости AGP почти не снижает производительности в играх. Стало быть, реально тебе надо будет сравнивать производительность локальной видеопамяти (на 6600 нет ничего особого с памятью) с производительностью системной памяти. Подозреваю, что уровень 6600 вполне достижим для системной памяти. 2. Ты прав, что 12.8GB/sec на двоих. Но тут припомни вот что: насколько в играх отличается производительность А64 3000+ (S754) и A64 3200+ (S939)? А практически ничем — эти два процессора работают на 2ГГц, и отличаются только шириной шины памяти. Насколько я понимаю, реальная разница менее 10% Стало быть, реально К8 пока хватает даже 3.2GB/sec. Это значит, что для видеопамяти как раз и остается примерно 9.6GB/sec. Это как раз уровень 6600. 3. Дык как раз хорошо, что видео в какой-то момент выжрет всю ПСП... В другой момент все выжрет процессор. Получим некое усреднение по времени ![]() Вот только его размер с т.з. видеочипа просто смехотворный Размер встроенного в видеочип кеша — десятки КВ. Ты полагаешь, что 1МВ — смехотворный размер по сравнению с этим? Warrax Смысла нет, патаму шта частоты памяти очень близки к частоте видеопроцессора (иногда равны), а когда частота видеопроцессора будет на порядок выше? Смысл есть даже тогда — потому что латентность кэша намного меньше. Да и обработка видео идет блоками по сколько-то пикселов... В остальном согласен. nemoW ...с которыми у S3 косяк Это да. Но я уже говорил, что нам нужна скорее лицензия на конвейер, чем реальный чип. Разумеется, многое придется дорабатывать — тепловыделение, конвейер (чтобы разгонялся на 2 — 3ГГц). Судя по обзорам Volari и DeltaCrome, у них проблемы в первую очередь с [внутренней] эффекивностью чипа и с драйверами Дрова да, дрова — это общая боль... С этой точки зрения я бы предпочел АТИ или НВидию, но даже у тех с дровами постоянные приключения... Кстати, не стоит зациливаться на ПСП, господа. В современных играх все большую роль играет мощь ядра (ALU). Согласен. |
matik
Даже сейчас для младших А64 S939 было бы реально, имхо, вместиться в TDP 105Вт. А уж на 65, если технологи не подведут, совсем логично получается. Подобное решение, если и увидет свет, то уж наверняка только по 65нм, т.к. приемлемая площадь чипа может выйти именно по этим нормам. А главное, насколько хороший выход годных чипов при этом будет достигнут? Stranger_NN Точнее, кому нужна такая производительность? В том смысле, что для офиса производительности современной встроенной в чипсет графики достаточно, а в тяжелых задачах UMA заведомо будет сильно проигрывать выделенным решениям? UMA и не нацелена соперничать с дискретными решениями, тем паче в тяжелых режимах. Ее удел – бюджетный и мобильный сектора. Под лонгхорн, где уже будут свои требования, идея со встр. видеоядром, при наличии соотв. себестоимости, вполне может найти спрос. И не слабый, учитывая, что, по некоторым данным, в мире насчитывается ~ 75 млн. так называемых предприятий малого бизнеса, а цикл ПК-рефреша составляет порядка 5-и лет, и последний пик пришелся на 2000 г., то можно ожидать, что 2006-2007 гг. будут весьма жаркими для данных секторов, особенно мобильный, и сладкими для производителей. Так вот в пику спроса важно иметь что предложить. И чем больше, тем лучше. Warrax Видимо, делают свое... Свое? Откуда? На полке видимо лежала ![]() matik Вырисовывается примерно такая картина: 1. Socket M с памятью DDR2-800. 2. Процессор с интегрированным видеоядром и 1МВ L2... 3. Простой дешевый чипсет, вроде SiS... 1. Здесь бы XDR (Rambus) ... 2. А может прикрутят 2MB L2? 3. А еще есть XGI ... темная лошадка … |
matik
Кхм.. Ну, тут раз на раз не приходится.. Играть я вот однозначно предпочитал на системах с большим L2.. Может быть в FPSах и несильно больше, но гораздо плавнее все происходило. ![]()
Э... Вот с этого момента можно поподробнее? На мой взгляд "загрузить" сцену и рассчитать ее же — вещи немножко разные.. ![]()
Как откуда? 9,6Gb/s у видеоадаптера и 6,4Gb/s у центрального процессора. Причем работают эти памяти параллельно, сиречь одновременно и не мешая друг другу. Отчего я позволяю себе чистое суммирование. ![]() А если взять GT и 14,4Gb/s плюс 6,4Gb/s на материнке — то это и вовсе, 20,8Gb/s выходит. Причем — без проблем совместного доступа к памяти.
Конечно. Если при этом забыть, что у нас есть центральный процессор, и что он тоже должен что-то РАССЧИТЫВАТЬ, а не тихонько стоять в уголке — тогда да, согласен. Скорость эдакой "сфероконической" системы будет не хуже, чем у нормальной выделенной видеокарты. Вот только процессор-то у нас есть. И хочет есть, как ни странно. И немало, и чем дальше (быстрее собственно процессоры и сложнее модели) — тем больше. И не учитывать его аппетиты — нельзя.
Дык это смотря в каких играх. ![]() ![]() Так что насчет "хватает" я бы не был столь категоричен. Разве что с оговоркой "для большинства существующих игр с учетом использующихся сегодня моделей". ![]()
Дерганье мы получим на экране, а не усреднение. Или, в лучшем случае, просто плавную просадку производительности процентов на 15-30 по ср. с решением имеющим равную суммарную ПСП, но независимые памяти.
Да, именно. Работа с данными у видеочипов носит скорее потоковый характер. Дело как раз в том, что существующий кэш видеочипов, фактически L1 от CPU, служит для расчетов, ну, грубо говоря, "текущих треугольников" по фиксированному алгоритму. Повторное же использование сколько-нибудь заметных объемов ДАННЫХ в этих расчетах практически не встречается, следовательно L2 для данных, и для программ тем более (они заранее известны, неизменны, и размер L1 выбран с учетом их размера — как раз), особого смысла не имеет. Поэтому таки да, от L2 размером в мегабайт(ы) видеоадаптеру ни жарко, ни холодно. |
Stranger_NN
Сначала вы пишете:
Уже в этой фразе противоречие. Потом:
Не стыкуется. ![]() Чем более гибкими (больше длина, меньше ограничений на выборку и переходы) становятся шейдеры, тем больше влияние латентности, а не ПСП, видеочипы [в некоторой мере] теряют потоковый характер. Уже в NV40 есть L2 кеш текстур, общий для Vertex и Pixel юнитов. Чего я пишу, у UncleSam все расписано:
Вобщем видеочипы постепенно приближаются к "универсальным" CPU.
А зачем его (массив видео_ALU) тактовать синхронно с CPU? ![]() |
nemoW
Ага, приближаются. Это, как справедливо замечено, плата за гибкость решения. Вопрос в том, когда они приблизятся настолько, что в массовых встроенных решениях возникнет реальная потребность в большом по объему кэше инструкций и данных? А с другой стороны, при известных нам объемах текстур — что такое мегабайт? Курам на смех, а если его еще и делить с CPU придется, то и тем более. |
Stranger_NN
C одной стороны, кеши в видеочипах [пока] маленькие. С другой, пока производителям выгоднее (по производительности или там по другим причинам) увеличивать количество конвейеров и ALU (а не кеши), они будут делать именно это. Я не очень понимаю, о чем мы с вами спорим. ![]() ![]() |
nemoW
Вы полагаете, что увеличить число конвейеров проще, чем сделать кэш? Думаю, что это не так. Скорее, все-таки, дело именно в том, что как раз видеопроцессоры не испытывают большой нужны в кэшах. Алгоритмы потому что такие. Конечно, еще, не в последнюю очередь, разумеется, и потому, что память — вот она. Рядом. В смысле, много и быстро. И никто не мешает ей пользоваться как угодно. Возможно, что для вынужденного делить память с CPU видеоадаптера кэш и окажется спасительным решением, но с т.з. производительности большого прироста от его появления ждать не приходится. Так, спасательный круг. Утонуть не даст, но и быстро плыть — тоже. |
nemoW
Про TraceCache и то больше известно. Гламурненько. ![]() |
А что вы хотите от медийного процессора? Не ниже уровня 6600/GT? Чтобы в игрушки комфортно играть? Так это удел дискретных братьев. И поэтому вы считаете, что продукт будет малопривлекателен? Да уж ...
|
U2
А что вы хотите от медийного процессора? Не ниже уровня 6600/GT? Чтобы в игрушки комфортно играть? Так это удел дискретных братьев. Да вроде как пока получается, что уровень 6600 реально достижим (с некоторыми усилиями)... А это более чем достаточно для интегрированных решений. |
matik
Да вроде как пока получается, что уровень 6600 реально достижим (с некоторыми усилиями)... А это более чем достаточно для интегрированных решений. 1. И при этом он был бы сильно дешевле дискретного комбо? Какова площадь подобного чипа? Не меньше же 100мм. 2. Вот именно что более. А оно надо? |
Performance improvements — Applications limited by state change performance — LDDM helps by eliminating extra processing — WGF 2.0 refactors state for efficient management Enable GPU processing without CPU intervention — More flexible memory model — Stream output from middle of pipeline — Feedback to front of pipeline, with predication Efficiency improvements — Multiple samples from textures, integer addressing — Compact surface formats (scenario-specific) — HDR, normal map compression, … — Arrayed resources |
U2
И при этом он был бы сильно дешевле дискретного комбо? Разумеется. Потому как никаких отдельных плат. Никаких отдельных разъемов. Накаких отдельных распаек. Собственно, расходов на этот видеочип я просто не вижу.... Какова площадь подобного чипа? Не меньше же 100мм Почему не меньше? Мы вполне можем вынести всю часть, которая отвечает за RAMDAC (и прочие "видео"дела) подальше, из процессора. Оставив только непосредственно конвейеры GPU внутри. Контроллер памяти — от процессора. Шина — от процессора. Кэш — от процессора. Остался только специализированный конвейер (кстати, еще вопрос, насколько он действительно специализированный — есть впечатление, что это, по сути, упрощенный FPU ![]() Которых немного — 1 или 2 — но на частоте ядра. Думаю, никакими 100 кв.мм. там и не пахнет. Enable GPU processing without CPU intervention Вас смущает эта фраза? Но никто не запрещает этот самый GPU делать внутри процессора. Главное, чтобы работало все без участия остального CPU... |
matik
Кхм.. Коллега, да вы оптимист! ![]() |
В связи с тем, что AMD никогда видеочпы не делала, возникают сомнения в быстрой осуществимости и успешности сего изделия — по крайней мере, на первых порах. А траты на лицензирование архитектуры, R&D, разработку драйверов по-вашему не являются расходами? ![]()
:ворчливо: То есть на материнку (в northbridge или что там от него останется, учитывая слухи об интеграции PCIE)?
Не могу с вами не согласиться. ![]() :задумчиво: Один квад (4x1), да гигагерца на полтора-два... Для Quake III самое то, разве что в ПСП, а то и в дрова упрется. ![]() |
Новая тема Ответить | Страница 3 из 5 |
[ Сообщений: 191 ] | На страницу Пред. 1, 2, 3, 4, 5 След. |
Кто сейчас на конференции |
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0 |
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения |