Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 6 из 130 [ Сообщений: 5174 ]  Версия для печати [+] На страницу Пред.  1 ... 3, 4, 5, 6, 7, 8, 9 ... 130  След.
Показать сообщения за  Поле сортировки  

Какая у Вас дискретная видеокарта в основном для Вас компьютере?
1. AMD/ATI 74%  74%  [ 310 ]
2. NVIDIA 24%  24%  [ 102 ]
3. AMD/ATI + NVIDIA 0%  0%  [ 2 ]
4. Другая (Matrox, S3, 3dfx и пр...) 0%  0%  [ 2 ]
5. Разные на нескольких основных для меня компьютерах. 1%  1%  [ 5 ]
Всего голосов : 421
KOHAH48

Не думаю, что вк на GT300 будут многим по карману.

Не готов говорить за российских барыг, но мировая ценовая вилка останется прежней, ровно как это было с GT280/GT285.
Если из Fermi бутерброд сделают, то понятно, что он будет подороже...
NVIDIA считает Lucid Hydra "ужасной идеей"
не удивительно, просто их вк станут использовать в основном для просчета физики :)
Hell-Fosa
Сказали очередную глупость...
Ознакомьтесь с устройством графического пайплайна, и подумайте, каким образом, этот чип сможет решить проблему зависимостей между фрэймами (когда RTT с предыдущего фрэйма используются на текущем, проблемы с LOD-ами (реализация LOD у ATI и NVIDIA слегка различается и при совмещении возможны коррапшены), и реализацией z клиппинга (опять-же ZCULL(NVIDIA) и HYPER-Z(ATI) считают z слегка по разному, а посему, возможен z-fighting (моргание картинки из-за разного уровня z).
Да и совмещение изображения, без хака драйверов — дело весьма нетривиальное, если только делать блит в буфер другой карточки, а это — швырять через кадр, кучу данных (с сериализацией GPU), посчитайте размер трансфера для 2560х1600х32х8.
И тут спорить нечего, собственные технологии, что Crossfire, что SLI, будут работать гораздо эффективней, поскольку весь трэкинг поверхностей ведется в своем драйвере, пуш буфер создается для каждого GPU с максимально возможной эффективностью и т.д.
Так что учим матчасть...
yanckoff
ну раз intel делают значит работает.там тож не идеоты работают над системой.
rif
Это не Интел делает. Это маленькая сторонняя компания. А интелловский чипсет взят для пробы.
Самому чипу Lucid Hydra пофигу в каких системах работать, для железа этот девайс выглядит как обычный PCI-E мост.
Все оптимизации идут на уровне драйверов и по понятным причинам, ни ATI, ни NVIDIA не дадут ковырять свои драйвера, а без этого, оптимизировать распределение нагрузки, столь же эффективно, как это делается самими ATI/NVIDIA, практически невозможно...
У этого устройства очень нишевое применение и для простых юзеров, IMHO, этот девайс не будет иметь смысла...
yanckoff
Насколько я понял, основная фишка Lucid Hydra именно в том, что он "объединяет" две видеокарты, делая просто "вдвое больше ресурсов". И вроде как для этого совсем не нужны оптимизации драйверов.
Впрочем, читал мельком, могу ошибаться.
yanckoff

этот девайс не будет иметь смысла...

Это еще почему? :confused: Вон, объеденили же на Сис. плате MSI Big Bang GeForce GTX 260 в паре с Radeon HD 4890. Ведь этот чип работает через API, через ОС, а не через дрова видях.
Принцип работы микросхемы состоит в следующем: она перехватывает OpenGL и DirectX-команды, поступающие от центрального процессора к графической подсистеме, распределяет их между любым количеством GPU, автоматически регулируя степень нагрузки на каждое ядро, а после проверяет результат рендеринга и отсылает готовое изображение к первичному (primary) адаптеру. Таким образом, достигается прекрасная масштабируемость вычислительных возможностей разных видеокарт http://www.overclockers.com.ua/news/har ... 23/104442/
matik

Насколько я понял, основная фишка Lucid Hydra именно в том, что он "объединяет" две видеокарты, делая просто "вдвое больше ресурсов". И вроде как для этого совсем не нужны оптимизации драйверов.

Удвоение всех ресурсов выжрет не только видео память у обеих видях, но и системную, ведь статические ресурсы (к примеру VB, IB, текстуры) часто хранятся в системной памяти. За распределение памяти отвечает ОСь (начиная с висты) поэтому, шарить ресурсы не получится, поскольку не имея контроля ресурсов через KMD видеокарт и пойнтеры на ресурс, пока пуш буфер дойдет от UMD, через ОС-иный скедъюлер в KMD, могут протухнуть.
И это для статических ресурсов... А как быть с рендер таргет текстурами, которые рендерятся на одном фрэйме, после рендережки выталкиваются в системную память (видео ведь не безразмерная), а используются для текстурежки на следующем фрэйме? И таких примеров может быть масса...
Можно затюнить кучку приложений, под новую железяку, но in general, Crossfire и SLI будут работать эффективней этой штуки, при равных условиях.

rig

Принцип работы микросхемы состоит в следующем: она перехватывает OpenGL и DirectX-команды, поступающие от центрального процессора к графической подсистеме, распределяет их между любым количеством GPU, автоматически регулируя степень нагрузки на каждое ядро, а после проверяет результат рендеринга и отсылает готовое изображение к первичному (primary) адаптеру. Таким образом, достигается прекрасная масштабируемость вычислительных возможностей разных видеокарт

Я конечно понимаю, красивые слова — красиво звучат, вот только чипок hydra стоит в разрыв PCI-E шины и ни о каких OGL/DX командах в этом случае речи не идет.
Судя по картинкам, одна из видюх становится мастером (с нее идет сканаут на монитор) а вторая как слэйв, без дисплея, но обе они не видны для API и именно сама hydra становится primary dysplay adapter. Далее драйвер hydra парсит команды от презента до презента и скармливает их UMD каждого из реальных видеоадаптеров. Если их производительность идентична, то суммарная теоретическая скорость стремится к 2х (если не учитывать проблемы описанные выше, а если нет (а именно такой случай и будет при 2-х разных GPU) то максимальная теоретическая производительность будет 2х от самого слабого адаптера, что не есть 2х от суммы двух адаптеров. Плюс ко всему, чипу необходимо оттрансферить отрендеренное изображение в бэк буфер мастер адаптера для вывода изображения на дисплей, а это недешевая (по времени) операция.
А автоматическая загрузка адаптеров — не более чем рекламная бравада. Граница кадра определяется от презента до презента и нельзя заставить один GPU рендерить пол кадра, а другой полтора... Каждый GPU обрабатывает только целый кадр.

Так что на самом деле не все так красиво, как на презентации. Очень много подводных камней, на борьбу с которыми придется писать софтверные воркэраунды, что требует лишней работы от CPU...
yanckoff
Если бы все было так плохо, я думаю эту затею бы не стали воплощать в жизнь, кому хочется выкидывать деньги на ветер?
Hell-Fosa

Если бы все было так плохо, я думаю эту затею бы не стали воплощать в жизнь, кому хочется выкидывать деньги на ветер?

Я же сказал, нишевый продукт... Я лишь хочу сказать, что многочиповость, организованная силами одного драйвера, будет работать эффективней гетерогенной многочиповости...
[url=http://www.ixbt.com/video3/gtc2009-part1.shtml]Отчёт о конференции GPU Technology Conference 2009, организованной компанией NVIDIA
[/url]
Ати в 5870 засунули старый замаскированный рв770, оснастили его поддержкой 11 directx и выкинули на рынок чтобы за несколько драгоценных месяцев поправить своё ужастное финансовое положение.
онан
что так плохо с производительностью у 5870?как им удалось в 2 раза увеличеть её.
онан

своё ужастное финансовое положение.

Ну и че ты тут опять гонишь то? Как раз АМД в прошлом квартале пошла в плюс, а вот НВ несет убытки, у них как акции весной на 37% упали и потерля они 1.8 млрд. ( если не ошибаюсь ), так и ни че хорошего пока не предвидится.

Ати в 5870 засунули старый замаскированный рв770

Почему РВ770, а может 790 или 600. Нет, точно Р300 или 500? :lol:
Атишные инжинеры даже не могут вывести шейдерный домен на свою частоту. Не говоря уже о том, что бы выпустить полностью новую архитектуру.
блин... он ляпает фигню, потом ему говорят что он опять не в тему и не в теме, и если неопровержимые доводы-то он начинает ляпать другое, уходя от вопроса, а если есть лазейка, за что зацепиться-то цепляется :lol: как бабки на базаре сплетнями меряются :lol: :lol: :lol: :lol:

Атишные инжинеры даже не могут вывести шейдерный домен на свою частоту.
онан оно, конечно задача номер ОДИН. :gigi:

Не говоря уже о том, что бы выпустить полностью новую архитектуру.
А старая, между прочим, неплохо себя зарекомендовала. :D онан А то, что NV длительное время эксплуатировала удачную архитектуру G80? :)
На счёт финансового положения спорить не буду, но движение AMD в этих условиях, оправдано и правильное ИМХО. онан Ведь 4800 серия была "неприятностью" для NV, или нет? :-p А представить первой(и единственной :-p ) ВК с поддержкой DX11 к старту семёрки? ;) И эти карты пользуются спросом. :-p :-p :-p
Серёга666
Зато знаешь как настроение поднимает :gigi:
Опять у вас тут весело :). Что-то от группировки зелёных не слышно ничего. Они думают шевелиться или нет?
ОНАН тут! ОНАН ОНАН!!!! У-У-У-У-У!!!!!
Хочется напомнить, что нвидиа стала заваливаться из своего незыблемого со времен смерти 3Dfx положения с выходом атишного чипа всех времен и народов- DX9 R300 и карты R9700. В то время DX9 чип нвидиа был еще не готов, но, как нвидиа не кричала, что игр таких нет и вообще это не нужно, но мы все хорошо помним, что выпущенная к выходу первого DX9 ускорителя от нвидиа демка DAWN работала быстрее...именно на радеонах даже с использованием компилятора ))))
Нвидиа очень долго тогда выправляла свое положение..

Что то нынешняя ситуация мне напоминает ту..выход DX11 от AMD состоялся, а нвидиа, как и тогда, пугает нас бумажными анонсами супер пупер ускорителей. И разумеется есть опасения, что, как и тогда, гора родит мышь :) но, конечно, это лишь мое имхо
Alex P
Да уж... К сожалению, ферми ничем не сможет удивить. И это понятно уже сейчас.
Ждём следующее поколение видеокарт, 6870 и gt400.
Как видеокарта Ферми действительно вряд ли удивит, а вот как вещественная числодробилка двойной точности -- очень даже удивит. По сравнению с GT200 скорость подняли примерно в 8 раз на такт, а для надёжности добавили поддержку ECC памяти. Есть хороший набор компиляторов с языков высокого уровня, в том числе Фортрана и С++, а остальное суть дело техники. Один Тесла на GT300 в таких расчётах будет стоить не менее чем полутора десятков Феномов 2 о 3ГГц каждый.
Прикольно, что нвидиа, посылавшая недавно интел в многолетнее путешествие за трассировкой лучей, обгоняет его, идя стороной, но параллельным курсом )))))))))
а вообще, числодробилка это хорошо, но ведь и деньги надо зарабатывать после того, как интел встроит видеоядро в камень, а для целей графики побыстрее, выпустит лараби или как его там :)
Встроенное видеоядро не будет быстрее видеокарты. На это есть вполне объективные конструкторские ограничения. К тому же, потоковые расчёты малочувствительны к размерам и скорости кэшей, но очень любят быструю память. 128-битная или даже 192-битная DDR3-1600 и рядом не валялась с 512-битной GDDR5-4800.
Alex P

интел встроит видеоядро в камень

А АМД?
p.s. не думаю, что тот же 5870 дробить числа будет медленнее, чем, цитирую:

полутора десятков Феномов 2 о 3ГГц каждый.

Хуже того, ещё быстрее. :)
Это не упрёк в сторону Walter S. Farrell
Я просто о скоростях, а не о языках высокого уровня.
Будем подождать Стрим.
Если уж говорить о числах с плавающей запятой.
frontier
Нам наверное не очень важно, как там они будут дробить числа, ибо мы не ученые на 99% ))
Нашел сейчас несколько скриншотов с DX11 эффектами, называемыми волшебным словом тесселяция..вспомнил 3д марк 2001 с EMBM
Нас просто надувают, направляя в сторону покупки нового железа, в общем то выдавая за нечто супер новое то, что ВИЗУАЛЬНО можно сделать силами и дх8 графики много лет назад.

Walter S. Farrell

Встроенное видеоядро не будет быстрее видеокарты

Теперь буду знать :vodka:
Alex P

>Теперь буду знать

Ага, только вот если судить по тому, что Интел опубликовал в ACM журнале год назад, Лараби отличается исключительной гибкостью. Исполнительные ядра можно внедрять как в обычные процессоры, так и в отдельно стоящие. Архитектура масштабируется очень легко, все ядра и вспомогательная логика находятся на одной кольцевой шине. Программируется вообще замечательно, в Интел не стали изобретать велосипед, а просто добавили ещё один набор очень широких векторных команд к набору x86. Все задачи, кроме текстурной фильтрации, считаются программно. В общем, если НВ и следует чего опасаться в деле с GT300, так это не AMD с HD5870, а именно Лараби. Поэтому в НВ так стремятся как можно скорее вывести GT300 на рынок, потому что если опоздают, то уже навсегда.
to all вопрос — что так все запрыгали с этой тесселяцией — чем не устраивает Рarallax Occlusion Mapping — хотя бы для плоских или близких к ним поверхностей?
Изображение
frontier

HD5870 на 850МГц может 2,72 терафлопа одинарной точности и 0,54 терафлопа двойной точности (20% скорости одинарной точности).
GT200b на 1,4ГГц шейдерного домена мог 1 терафлоп одинарной точности и 0,1 терафлопа двойной точности (10% скорости одинарной точности).
GT300 ориентировочно сможет 1,6-2,5 терафлопа одинарной точности и 0,8-1,2 терафлопа двойной точности (50% скорости одинарной точности).

Так что в двойной точности HD5870 не конкурент GT300 при любом раскладе.


Последний раз редактировалось Walter S. Farrell 23:08 01.11.2009, всего редактировалось 1 раз.
Alex P

Нам наверное не очень важно, как там они будут дробить числа, ибо мы не ученые на 99%

Намёк немного не понят...
Я просто считаю, что видеокарта должна обрабатывать видео. Не в последнюю очередь игровое.
Для вычислений в других целях, я лучше присмотрюсь к Лараби.
Не вызывает у меня доверия жалкие потуги Нвидии погняться сразу за двумя зайцами.
Думаю, всё будет, как в пословице.
Walter S. Farrell
Вы сравниваете gt300, только не ту, что будет продаваться, как видеокарта.
За такую штуку придётся платить столько, что мне будет дешевле уже сейчас взять 4х5870.
Гнаться за двумя зайцами очень приходится, потому как когда Интел наконец выкатит Лараби, она таки завалит обоих зайцев. Они ведь не много, не мало, а трассировку лучей в реальном времени считать хотят.
Walter S. Farrell

трассировку лучей в реальном времени считать хотят

Не серьёзно это всё.
Не сделают они рейтрейс в реальном времени. Или это будет такой рейтрейс, который не получит преимуществ перед растеризацией.
p.s.
Требования к картинке всё время растут.
И как и раньше, хорошая картинка рендерится... ну очень долго на серверах с десятками процессоров.
"Лараби завалит обоих зайцев" — сколько лазил по игродельням, так и не нашел даже намек на его поддержку. Усе пока слишком туманно :shuffle:
>Вы сравниваете gt300, только не ту, что будет продаваться, как видеокарта.

Пока ещё совершенно непонятно, что и по какой цене будет продаваться. Что касается функциональности, то Тесла не столь существенно отличается от Жирафа. Кое-что обязательно отключат в новых Жирафах по сравнению с новыми Теслами, посмотрим что именно.

>Требования к картинке всё время растут.
И как и раньше, хорошая картинка рендерится... ну очень долго на серверах с десятками процессоров.


Дык с обычными процессорами. Я хорошо знаю, как днями напролёт рендерят картинки в Максе и Майе, чтоб заказчику понравилось.

Одно ядро Лараби может считать примерно 8 операций двойной точности за такт плюс ещё 1-2 скалярные 32-битные целочисленные операции. Ориентировочная тактовая частота озвучивалась в 1ГГц. Есть информация, что 64 ядра запаковать в один 40-нанометровый микроб для них не проблема. Итого 0,5 терафлопса двойной точности со старта. Когда дело дойдёт до массового производства, то и техпроцесс будет потоньше, и ядер могут затолкать побольше, и частоты будут явно повыше. Вот почему НВ так спешит. Если ей удастся в массовых GT300 завести шейдерный домен на 2,0ГГц, в чём я всё же сомневаюсь, тогда одна возьмёт рекорд в 3 одинарных терафлопса и 1,5 двойных терафлопса. Посмотрим-с...


Последний раз редактировалось Walter S. Farrell 00:03 02.11.2009, всего редактировалось 1 раз.
Лараби не будет заваливать двух тех зайцев, она будет валить своего собственного. Сперва немножко эффектов трассировки, затем все больше и больше, а там и индустрия повернется в нужную сторону. Впрочем, кто знает? помните игры, созданные с помощью воксельной графики, например, Outcast, вышедший в 1999 г.? Воксели с их привязкой к мощностям процессоров чем то перекликаются с трассировкой лучей с учетом временного сдвига, позволяя в те времена делать такие супер эффекты, которые и не снились тогда графическим адаптерам..Однако требования игр настолько превышали возможности тогдашних процессоров, так что воксели и не получили сколь нибудь серьезного распространения
Так что посмотрим, что будет трассировка лучей- чем то кратковременно мелькнувшим, или новой волной, из которой будут выкачиваться деньги из наших карманов. Учитывая желание интел продать свои процессорные ядра любой ценой- скорее второе ))))))
Alex P
Если только очень не скоро.
Когда никто из присутствующих уже за компьютером сидеть не сможет из-за старости :)


p.s. Уж сколько времени Интел грозится выпустить супервидеокарту... да всё как-то...
спешить нВидии нужно только в конкуренции с АТИ. а Интел имхуется мне будет долго еще лепить свой лараби.
путь, который прошла та же АТИ за полтора десятка лет, Интелу за 2-3 года не осилить, если только не выкинуть на разработку астрономическую сумму денег. да и вообще идея использования x86 ядер спорна. может лучше будет подождать и выпустить 64-ядерный (с упрощенной x86-архитектурой) центральный процессор с расширенным набором инструкций?)
Зато как амбициозно НВ грозится всех порвать :)

Изображение

>может лучше будет подождать и выпустить 64-ядерный (с упрощенной x86-архитектурой) центральный процессор с расширенным набором инструкций?)

Грубо говоря, Лараби как IBM Cell, только х86 и более масштабируемый. Архитектура целочисленных конвейеров уж очень упрощённая, ибо за основу взят первый пень :D
Новая тема    Ответить  [ Сообщений: 5174 ]  На страницу Пред.  1 ... 3, 4, 5, 6, 7, 8, 9 ... 130  След.


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 16


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru