Страница 6 из 130 [ Сообщений: 5174 ] Версия для печати [+] | На страницу Пред. 1 ... 3, 4, 5, 6, 7, 8, 9 ... 130 След. |
KOHAH48
Не готов говорить за российских барыг, но мировая ценовая вилка останется прежней, ровно как это было с GT280/GT285. Если из Fermi бутерброд сделают, то понятно, что он будет подороже... |
NVIDIA считает Lucid Hydra "ужасной идеей"
не удивительно, просто их вк станут использовать в основном для просчета физики |
Hell-Fosa
Сказали очередную глупость... Ознакомьтесь с устройством графического пайплайна, и подумайте, каким образом, этот чип сможет решить проблему зависимостей между фрэймами (когда RTT с предыдущего фрэйма используются на текущем, проблемы с LOD-ами (реализация LOD у ATI и NVIDIA слегка различается и при совмещении возможны коррапшены), и реализацией z клиппинга (опять-же ZCULL(NVIDIA) и HYPER-Z(ATI) считают z слегка по разному, а посему, возможен z-fighting (моргание картинки из-за разного уровня z). Да и совмещение изображения, без хака драйверов — дело весьма нетривиальное, если только делать блит в буфер другой карточки, а это — швырять через кадр, кучу данных (с сериализацией GPU), посчитайте размер трансфера для 2560х1600х32х8. И тут спорить нечего, собственные технологии, что Crossfire, что SLI, будут работать гораздо эффективней, поскольку весь трэкинг поверхностей ведется в своем драйвере, пуш буфер создается для каждого GPU с максимально возможной эффективностью и т.д. Так что учим матчасть... |
yanckoff
ну раз intel делают значит работает.там тож не идеоты работают над системой. |
rif
Это не Интел делает. Это маленькая сторонняя компания. А интелловский чипсет взят для пробы. Самому чипу Lucid Hydra пофигу в каких системах работать, для железа этот девайс выглядит как обычный PCI-E мост. Все оптимизации идут на уровне драйверов и по понятным причинам, ни ATI, ни NVIDIA не дадут ковырять свои драйвера, а без этого, оптимизировать распределение нагрузки, столь же эффективно, как это делается самими ATI/NVIDIA, практически невозможно... У этого устройства очень нишевое применение и для простых юзеров, IMHO, этот девайс не будет иметь смысла... |
yanckoff
Насколько я понял, основная фишка Lucid Hydra именно в том, что он "объединяет" две видеокарты, делая просто "вдвое больше ресурсов". И вроде как для этого совсем не нужны оптимизации драйверов. Впрочем, читал мельком, могу ошибаться. |
yanckoff
Это еще почему? Вон, объеденили же на Сис. плате MSI Big Bang GeForce GTX 260 в паре с Radeon HD 4890. Ведь этот чип работает через API, через ОС, а не через дрова видях. Принцип работы микросхемы состоит в следующем: она перехватывает OpenGL и DirectX-команды, поступающие от центрального процессора к графической подсистеме, распределяет их между любым количеством GPU, автоматически регулируя степень нагрузки на каждое ядро, а после проверяет результат рендеринга и отсылает готовое изображение к первичному (primary) адаптеру. Таким образом, достигается прекрасная масштабируемость вычислительных возможностей разных видеокарт http://www.overclockers.com.ua/news/har ... 23/104442/ |
matik
Удвоение всех ресурсов выжрет не только видео память у обеих видях, но и системную, ведь статические ресурсы (к примеру VB, IB, текстуры) часто хранятся в системной памяти. За распределение памяти отвечает ОСь (начиная с висты) поэтому, шарить ресурсы не получится, поскольку не имея контроля ресурсов через KMD видеокарт и пойнтеры на ресурс, пока пуш буфер дойдет от UMD, через ОС-иный скедъюлер в KMD, могут протухнуть. И это для статических ресурсов... А как быть с рендер таргет текстурами, которые рендерятся на одном фрэйме, после рендережки выталкиваются в системную память (видео ведь не безразмерная), а используются для текстурежки на следующем фрэйме? И таких примеров может быть масса... Можно затюнить кучку приложений, под новую железяку, но in general, Crossfire и SLI будут работать эффективней этой штуки, при равных условиях. rig
Я конечно понимаю, красивые слова — красиво звучат, вот только чипок hydra стоит в разрыв PCI-E шины и ни о каких OGL/DX командах в этом случае речи не идет. Судя по картинкам, одна из видюх становится мастером (с нее идет сканаут на монитор) а вторая как слэйв, без дисплея, но обе они не видны для API и именно сама hydra становится primary dysplay adapter. Далее драйвер hydra парсит команды от презента до презента и скармливает их UMD каждого из реальных видеоадаптеров. Если их производительность идентична, то суммарная теоретическая скорость стремится к 2х (если не учитывать проблемы описанные выше, а если нет (а именно такой случай и будет при 2-х разных GPU) то максимальная теоретическая производительность будет 2х от самого слабого адаптера, что не есть 2х от суммы двух адаптеров. Плюс ко всему, чипу необходимо оттрансферить отрендеренное изображение в бэк буфер мастер адаптера для вывода изображения на дисплей, а это недешевая (по времени) операция. А автоматическая загрузка адаптеров — не более чем рекламная бравада. Граница кадра определяется от презента до презента и нельзя заставить один GPU рендерить пол кадра, а другой полтора... Каждый GPU обрабатывает только целый кадр. Так что на самом деле не все так красиво, как на презентации. Очень много подводных камней, на борьбу с которыми придется писать софтверные воркэраунды, что требует лишней работы от CPU... |
yanckoff
Если бы все было так плохо, я думаю эту затею бы не стали воплощать в жизнь, кому хочется выкидывать деньги на ветер? |
Hell-Fosa
Я же сказал, нишевый продукт... Я лишь хочу сказать, что многочиповость, организованная силами одного драйвера, будет работать эффективней гетерогенной многочиповости... |
[url=http://www.ixbt.com/video3/gtc2009-part1.shtml]Отчёт о конференции GPU Technology Conference 2009, организованной компанией NVIDIA
[/url] |
Ати в 5870 засунули старый замаскированный рв770, оснастили его поддержкой 11 directx и выкинули на рынок чтобы за несколько драгоценных месяцев поправить своё ужастное финансовое положение.
|
онан
что так плохо с производительностью у 5870?как им удалось в 2 раза увеличеть её. |
онан
Ну и че ты тут опять гонишь то? Как раз АМД в прошлом квартале пошла в плюс, а вот НВ несет убытки, у них как акции весной на 37% упали и потерля они 1.8 млрд. ( если не ошибаюсь ), так и ни че хорошего пока не предвидится.
Почему РВ770, а может 790 или 600. Нет, точно Р300 или 500? |
Атишные инжинеры даже не могут вывести шейдерный домен на свою частоту. Не говоря уже о том, что бы выпустить полностью новую архитектуру.
|
блин... он ляпает фигню, потом ему говорят что он опять не в тему и не в теме, и если неопровержимые доводы-то он начинает ляпать другое, уходя от вопроса, а если есть лазейка, за что зацепиться-то цепляется как бабки на базаре сплетнями меряются
|
онан оно, конечно задача номер ОДИН. А старая, между прочим, неплохо себя зарекомендовала. онан А то, что NV длительное время эксплуатировала удачную архитектуру G80? На счёт финансового положения спорить не буду, но движение AMD в этих условиях, оправдано и правильное ИМХО. онан Ведь 4800 серия была "неприятностью" для NV, или нет? А представить первой(и единственной ) ВК с поддержкой DX11 к старту семёрки? И эти карты пользуются спросом. |
Серёга666
Зато знаешь как настроение поднимает |
Опять у вас тут весело . Что-то от группировки зелёных не слышно ничего. Они думают шевелиться или нет?
|
ОНАН тут! ОНАН ОНАН!!!! У-У-У-У-У!!!!!
|
Хочется напомнить, что нвидиа стала заваливаться из своего незыблемого со времен смерти 3Dfx положения с выходом атишного чипа всех времен и народов- DX9 R300 и карты R9700. В то время DX9 чип нвидиа был еще не готов, но, как нвидиа не кричала, что игр таких нет и вообще это не нужно, но мы все хорошо помним, что выпущенная к выходу первого DX9 ускорителя от нвидиа демка DAWN работала быстрее...именно на радеонах даже с использованием компилятора ))))
Нвидиа очень долго тогда выправляла свое положение.. Что то нынешняя ситуация мне напоминает ту..выход DX11 от AMD состоялся, а нвидиа, как и тогда, пугает нас бумажными анонсами супер пупер ускорителей. И разумеется есть опасения, что, как и тогда, гора родит мышь но, конечно, это лишь мое имхо |
Alex P
Да уж... К сожалению, ферми ничем не сможет удивить. И это понятно уже сейчас. Ждём следующее поколение видеокарт, 6870 и gt400. |
Как видеокарта Ферми действительно вряд ли удивит, а вот как вещественная числодробилка двойной точности -- очень даже удивит. По сравнению с GT200 скорость подняли примерно в 8 раз на такт, а для надёжности добавили поддержку ECC памяти. Есть хороший набор компиляторов с языков высокого уровня, в том числе Фортрана и С++, а остальное суть дело техники. Один Тесла на GT300 в таких расчётах будет стоить не менее чем полутора десятков Феномов 2 о 3ГГц каждый.
|
Прикольно, что нвидиа, посылавшая недавно интел в многолетнее путешествие за трассировкой лучей, обгоняет его, идя стороной, но параллельным курсом )))))))))
а вообще, числодробилка это хорошо, но ведь и деньги надо зарабатывать после того, как интел встроит видеоядро в камень, а для целей графики побыстрее, выпустит лараби или как его там |
Встроенное видеоядро не будет быстрее видеокарты. На это есть вполне объективные конструкторские ограничения. К тому же, потоковые расчёты малочувствительны к размерам и скорости кэшей, но очень любят быструю память. 128-битная или даже 192-битная DDR3-1600 и рядом не валялась с 512-битной GDDR5-4800.
|
Alex P
А АМД? p.s. не думаю, что тот же 5870 дробить числа будет медленнее, чем, цитирую:
Хуже того, ещё быстрее. Это не упрёк в сторону Walter S. Farrell Я просто о скоростях, а не о языках высокого уровня. Будем подождать Стрим. Если уж говорить о числах с плавающей запятой. |
frontier
Нам наверное не очень важно, как там они будут дробить числа, ибо мы не ученые на 99% )) Нашел сейчас несколько скриншотов с DX11 эффектами, называемыми волшебным словом тесселяция..вспомнил 3д марк 2001 с EMBM Нас просто надувают, направляя в сторону покупки нового железа, в общем то выдавая за нечто супер новое то, что ВИЗУАЛЬНО можно сделать силами и дх8 графики много лет назад. Walter S. Farrell
Теперь буду знать |
Alex P
>Теперь буду знать Ага, только вот если судить по тому, что Интел опубликовал в ACM журнале год назад, Лараби отличается исключительной гибкостью. Исполнительные ядра можно внедрять как в обычные процессоры, так и в отдельно стоящие. Архитектура масштабируется очень легко, все ядра и вспомогательная логика находятся на одной кольцевой шине. Программируется вообще замечательно, в Интел не стали изобретать велосипед, а просто добавили ещё один набор очень широких векторных команд к набору x86. Все задачи, кроме текстурной фильтрации, считаются программно. В общем, если НВ и следует чего опасаться в деле с GT300, так это не AMD с HD5870, а именно Лараби. Поэтому в НВ так стремятся как можно скорее вывести GT300 на рынок, потому что если опоздают, то уже навсегда. |
|
frontier
HD5870 на 850МГц может 2,72 терафлопа одинарной точности и 0,54 терафлопа двойной точности (20% скорости одинарной точности). GT200b на 1,4ГГц шейдерного домена мог 1 терафлоп одинарной точности и 0,1 терафлопа двойной точности (10% скорости одинарной точности). GT300 ориентировочно сможет 1,6-2,5 терафлопа одинарной точности и 0,8-1,2 терафлопа двойной точности (50% скорости одинарной точности). Так что в двойной точности HD5870 не конкурент GT300 при любом раскладе. Последний раз редактировалось Walter S. Farrell 23:08 01.11.2009, всего редактировалось 1 раз. |
Alex P
Намёк немного не понят... Я просто считаю, что видеокарта должна обрабатывать видео. Не в последнюю очередь игровое. Для вычислений в других целях, я лучше присмотрюсь к Лараби. Не вызывает у меня доверия жалкие потуги Нвидии погняться сразу за двумя зайцами. Думаю, всё будет, как в пословице. |
Walter S. Farrell
Вы сравниваете gt300, только не ту, что будет продаваться, как видеокарта. За такую штуку придётся платить столько, что мне будет дешевле уже сейчас взять 4х5870. |
Гнаться за двумя зайцами очень приходится, потому как когда Интел наконец выкатит Лараби, она таки завалит обоих зайцев. Они ведь не много, не мало, а трассировку лучей в реальном времени считать хотят.
|
Walter S. Farrell
Не серьёзно это всё. Не сделают они рейтрейс в реальном времени. Или это будет такой рейтрейс, который не получит преимуществ перед растеризацией. p.s. Требования к картинке всё время растут. И как и раньше, хорошая картинка рендерится... ну очень долго на серверах с десятками процессоров. |
"Лараби завалит обоих зайцев" — сколько лазил по игродельням, так и не нашел даже намек на его поддержку. Усе пока слишком туманно
|
>Вы сравниваете gt300, только не ту, что будет продаваться, как видеокарта.
Пока ещё совершенно непонятно, что и по какой цене будет продаваться. Что касается функциональности, то Тесла не столь существенно отличается от Жирафа. Кое-что обязательно отключат в новых Жирафах по сравнению с новыми Теслами, посмотрим что именно. >Требования к картинке всё время растут. И как и раньше, хорошая картинка рендерится... ну очень долго на серверах с десятками процессоров. Дык с обычными процессорами. Я хорошо знаю, как днями напролёт рендерят картинки в Максе и Майе, чтоб заказчику понравилось. Одно ядро Лараби может считать примерно 8 операций двойной точности за такт плюс ещё 1-2 скалярные 32-битные целочисленные операции. Ориентировочная тактовая частота озвучивалась в 1ГГц. Есть информация, что 64 ядра запаковать в один 40-нанометровый микроб для них не проблема. Итого 0,5 терафлопса двойной точности со старта. Когда дело дойдёт до массового производства, то и техпроцесс будет потоньше, и ядер могут затолкать побольше, и частоты будут явно повыше. Вот почему НВ так спешит. Если ей удастся в массовых GT300 завести шейдерный домен на 2,0ГГц, в чём я всё же сомневаюсь, тогда одна возьмёт рекорд в 3 одинарных терафлопса и 1,5 двойных терафлопса. Посмотрим-с... Последний раз редактировалось Walter S. Farrell 00:03 02.11.2009, всего редактировалось 1 раз. |
Лараби не будет заваливать двух тех зайцев, она будет валить своего собственного. Сперва немножко эффектов трассировки, затем все больше и больше, а там и индустрия повернется в нужную сторону. Впрочем, кто знает? помните игры, созданные с помощью воксельной графики, например, Outcast, вышедший в 1999 г.? Воксели с их привязкой к мощностям процессоров чем то перекликаются с трассировкой лучей с учетом временного сдвига, позволяя в те времена делать такие супер эффекты, которые и не снились тогда графическим адаптерам..Однако требования игр настолько превышали возможности тогдашних процессоров, так что воксели и не получили сколь нибудь серьезного распространения
Так что посмотрим, что будет трассировка лучей- чем то кратковременно мелькнувшим, или новой волной, из которой будут выкачиваться деньги из наших карманов. Учитывая желание интел продать свои процессорные ядра любой ценой- скорее второе )))))) |
Alex P
Если только очень не скоро. Когда никто из присутствующих уже за компьютером сидеть не сможет из-за старости p.s. Уж сколько времени Интел грозится выпустить супервидеокарту... да всё как-то... |
спешить нВидии нужно только в конкуренции с АТИ. а Интел имхуется мне будет долго еще лепить свой лараби.
путь, который прошла та же АТИ за полтора десятка лет, Интелу за 2-3 года не осилить, если только не выкинуть на разработку астрономическую сумму денег. да и вообще идея использования x86 ядер спорна. может лучше будет подождать и выпустить 64-ядерный (с упрощенной x86-архитектурой) центральный процессор с расширенным набором инструкций?) |
Зато как амбициозно НВ грозится всех порвать
>может лучше будет подождать и выпустить 64-ядерный (с упрощенной x86-архитектурой) центральный процессор с расширенным набором инструкций?) Грубо говоря, Лараби как IBM Cell, только х86 и более масштабируемый. Архитектура целочисленных конвейеров уж очень упрощённая, ибо за основу взят первый пень |
Новая тема Ответить | Страница 6 из 130 |
[ Сообщений: 5174 ] | На страницу Пред. 1 ... 3, 4, 5, 6, 7, 8, 9 ... 130 След. |
Кто сейчас на конференции |
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 16 |
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения |