Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 1 из 2 [ Сообщений: 57 ]  Версия для печати [+] На страницу 1, 2  След.
Показать сообщения за  Поле сортировки  
Можно ли решать целочисленные задачи (например, обход списков и деревьев) с помощью GPU?
Содержат ли современные GPU кэш?
Intel утверждает, что GMA 3000 (G965) может исполнять несколько потоков комманд одновременно. Могут ли это делать чипы от Nvidia / ATI?
lkj
Можно ли решать целочисленные задачи (например, обход списков и деревьев) с помощью GPU?
В теории — да, шейдеры позволяют делать программы. На практике зависит от того, будут ли открыты команды ядра, видимо.

Содержат ли современные GPU кэш?
Да, содержат. Величины этих кэшей — вопрос небанальный. Про Х800 я знаю, что он там предположительно 16КВ — 32КВ (возможно, в разных блоках разный).

Intel утверждает, что GMA 3000 (G965) может исполнять несколько потоков комманд одновременно. Могут ли это делать чипы от Nvidia / ATI?
Интел опять придумал какую-то благоглупость, которую будет рекламировать :D Разумеется, все эти чипы выполняют отнюдь не один поток команд. Как минимум, столько потоков команд, сколько в них конвейеров.
lkj
Не совсем в тему, но может пригодится — Персональный суперкомпьютер.
... а у интела готов и опубликован открытый драйвер под g965 (именно графический)... слишком шикарная реклама для благоглупости...


Последний раз редактировалось IdeaFix 12:23 16.08.2006, всего редактировалось 1 раз.
Вот откуда ноги растут:

1. http://intellinuxgraphics.org/
2. http://uinc.ru/news/sn6263.html
IdeaFix
слишком шикарная реклама бля благоглупости...
Почему "слишком"? :D Они на "ускоритель интернета" такие деньги выкладывали, что один бесплатный драйвер вообще не заметен :D
IdeaFix
слишком шикарная реклама бля благоглупости...

А матом обязательно? :D
Кстати, где у АТИ пакет для разработчика, вроде Cg от nVidia на их сайте? Ткните пальцем ... ;)
http://www.ati.com/developer/siggraph06/dpvm_e.pdf
low-level access ...
вот что думает человек с gpgpu.org :

Matrix multiply numbers jumped to 110GFlops (single precision sgemm, not counting GPU offload). Ray tracing also jumped a little. Mainly, you can get around all the overhead of GL/DX, and get access to extended features mentioned in Derek's talk (scatter, render to/texture from host, large register files, raw ISA, direct control of memory formats, etc). Scatter and render/texture from host aren't even in DX10.

This is what many of us in the GPGPU community have been asking (begging) about for awhile now.

из пдф-а:
on X1900XTX
110GFlops on 512x512 dense matrix multiply
12GFlops on 1D 4K complex FFT
matik

Интел опять придумал какую-то благоглупость, которую будет рекламировать :D Разумеется, все эти чипы выполняют отнюдь не один поток команд. Как минимум, столько потоков команд, сколько в них конвейеров.

есть подозрение, что новая графика от Intel помимо того, что является унифицированной шейдерной еще и содержит своего рода Threading Dispetcher
Volodimir

Кстати, где у АТИ пакет для разработчика, вроде Cg от nVidia на их сайте? Ткните пальцем ... ;)

ATI SDK должен лежать на оффсайте
paska
есть подозрение, что новая графика от Intel помимо того, что является унифицированной шейдерной еще и содержит своего рода Threading Dispetcher
А нафига им это делать, когда у них есть под рукой замечательный "диспетчер" — собственно, процессор?
CPU+GPU=суперкомпьютер?
http://www.3dnews.ru/news/cpu_gpu_superkomputer-185245/
да, я вот давно мечтаю, чтоб придумали рендерер, который бы не просто аппаратно через видюху 3д на экран выдавал, а рендерил бы програмно, используя GPU. а то народ по несколько часов свои сцены в 3дсмаксе и т. п. рендерит, а предпросмотр(рендер в мал. разреш.) занимает несколько минут. вот бы все эти операции вычисления всякого там освещения перекинуть на видюху, тогда предпросмотр можно было б ваще в реальном времени в отдельном окошке держать, прямо во время работы.
denis!!!

если 3дмакс'у подойдет single (видяги, кажется, только 32бита держат), то ускорить можно :)

CPU+GPU=суперкомпьютер?

Посмотрел я рекламные брошюрки от peakstream --- ничего путного не обнаружил.
Эксплуатируется факт огромной номинальной производительности GPU, но инструменты для ее утилизации [в алгоритмическом смысле] предлагаются весьма убогие.
Сравнение с процессорной производтельностью как и раньше, некорректные.
Основное отличие от предыдущих обсуждаемых тут решений я вижу в том, что peakstream оценивает свое решение как-то подозрительно дорого, напирая на "суперкомпьютерность". В предыдущих случаях основой "рекламы" была "бесплатность" больших GFl.
denis!!!
Видеокарта не умеет global illumination и много чего ещё интересного.

Мы с другом написали на C программу которая рассчитывает global illumination (radiosity) для сцены в OpenGL с использованием видеокарты :-p Эта информация сохраняется в текстуру и потом летает :D
lkj

Можно ли решать целочисленные задачи (например, обход списков и деревьев) с помощью GPU?

AFAIK нет. Обход списков и деревьев предуматривает прямые и косвенные адресные операции, GPU такие операции выпонять не умеет.
а конвертировать аудио через GPU возможно?
Вообще то на DirectX 10 видеокартах можно будет делать почти всё. Шейдеры любой длины, итд.

Что-то я не представляю алгоритм конвертации аудио.. но раз видео конвертировать можно то уж аудио и подавно ;)
возможно все не так просто:

Слух: ATI готовит графический чип общего назначения http://hard.compulenta.ru/287251/?r1=rss&r2=remote
vadiml
это должно пойти не самому здсмаксу, а рендереру под него :)
Ivan Andreevich
ну как-нить совместить, незнаю.GI через проц(правда тогда буйт не так сильно бысрей), остальное видео как-нить. ну есть же устройства специальные типа RenderDrive что-ли. вот сделать бы это из видюхи :)
denis!!!
Рассчёт Global Illumination это самый трудоёмкий процесс, пожалуй :(

Изображение
CUDA (Compute Unified Device Architecture) — унифицированная вычислительная архитектура для различных задач, реализованная специальный SDK, API и компилятор С, а также как небольшие аппаратные закладки в G80 (некий специальный вычислительный режим в котором данные обрабатываются по основному кругу диспатчер <—> шейдерный блок <—> кэш, без разделения их на классы пикселей, вершин и т.д.), судя по всему не потребовавшие практически никаких существенных изменений в архитектуре и коснувшиеся только некоторых <обходных> путей для данных в ускорителе.

Теперь, можно разрабатывать приложения, которые будут использовать (при наличии оного) подходящее аппаратное ускорение в лице G80 и последующих преемников, для различных интенсивных потоковых и векторных вычислений.

Основная прелесть такого решения — независимость от DX и от оборудования — программистам будет достаточно действовать в рамках SDK, не вдаваясь в детали реализации и компиляции. Им не придется учить шейдерную модель и писать отдельные графические шейдеры для своих вычислительных задачь. А значит, это решение вполне может стать стандартом де факто.
Ух ты... офигенно. Я попробую что-нибудь написать и прогнать когда время будет. Карта уже имеется.

У кого-нибудь есть предложения какой-нибудь не очень сложный, но интересный тест сделать? На С.
Я серьёзно. Подскажите какой интересный тест забабахать :yes:
ATI R580 превращается в AMD Stream Processor. Официально...

В настоящий момент компания AMD анонсировала новый программный интерфейс для доступа к "железу" – наборам инструкций и регистрам AMD Stream Processor. По словам компании, новый интерфейс в восемь раз производительнее стандартных API для 3D-графики. Называется он – CTM (Close To Metal). Вплотную к "железу", если дословно, что отражает суть упрощённого доступа к аппаратным ресурсам сопроцессора. Параллельно с анонсом CTM, компания начала процесс лицензирования технологии. Лицензия бесплатна, что компания AMD вполне может себе позволить на фоне цен на "сопроцессоры".

ATI Stream Computing: зачем это нужно на практике?...
Ivan Andreevich
Рассчёт Global Illumination это самый трудоёмкий процесс, пожалуй
дык вот и я про это. если видюха в десятки раз быстрей, то почему б не изобрести им метод расчёта ги на видюхе. по-мне это интересней и красивей успеха в научных и финансово-аналитических кругах :) и опять же могло бы стать шагом вперёд в реалистичности игр. пусть пока и не рил-тайм, но прогресс на месте не стоИт. Хотя можно пока делать и грубые расчёты рил-тайм по типу такого, что делает скажем ArtLantis render на ЦП.
наверное сложно очень и пока ещё не заморачиваются над этим к тому же авторам существующих методов расчёта ги на цп придётся просто переучиваться программировать наверна :)

Подскажите какой интересный тест забабахать
для начала можно и не интересный, ну просто хоть посмотреть на деле и в искоднике как это всё выглядит. да хоть бери 2 рандомных числа и дели, умножай одно на другое в цикле и чтоб рядом выводилось сколько делений за секунду выполнено и аналогичный тест без использования видюхи.
вот и сравним.
а уж потом чё-нить по-интересней можно.

Я серьёзно. Подскажите какой интересный тест забабахать :yes:

Кое-что есть на http://jorik.sourceforge.net/
интересно, а на видео, например Radeon 9550 что ни-ть выполнять можно?
хочу конвертить звук в 10 раз быстрее чем на ЦП :D
вообще, есть какие ни-ть программы, заточенныые под GPU ? или тесты, в которых легко разобраться!? :confused: :shuffle:
DigiMakc
Что-то можно. Вон VLev дал линк — там под шейдеры 2.0 т.е. у тебя пойдёт.

DigiMakc
Что-то можно. Вон VLev дал линк — там под шейдеры 2.0 т.е. у тебя пойдёт.

был бы очень благодарен, если вы мне дали конкретный линк на конкретную софтину... а то я что-то не разбирусь на том сайте :oops: всё по инглишу :shuffle:
DigiMakc
http://sourceforge.net/project/showfile ... _id=400216

О, вот пожалуста резалты http://jorik.sourceforge.net/bench-results.htm
denis!!!, спасибо! :)
вот что у мну вышло:
wave -width=1536 -maxtime=600 -cpu=wave-cpu1536.bmp -gpu=wave-gpu1536.bmp
CPU 485.868
GPU 23.575

для сравнения:

wave, 1536x1536, 600 time steps

Proc Name Time
--------------- ----
Athlon XP 2600+ 346.9s
Pentium 4 3GHz 276.8s
Pentium 4 3.4GHz 254.8s
Athlon 64 3400+ 205.0s
Quadro FX 700 72.1s
Quadro FX 1300 59.2s
GeForce 6600 GT 37.9s
Radeon 9600 32.3s
Quadro FX 3450 21.5s


а есть реально работающие готовые приложения, заточенные под работу на ГПУ ?
DigiMakc
Есть ATI AVIVO — http://ati.amd.com/technology/Avivo/index.html но для неё нужны карты X1xxx
малова-то .... :) да ещё для X1xxx :(
DigiMakc
На SM 2.0 слишком короткие шейдеры. Много не напишешь.
вот, возможно-таки считать GI на видюхе! на 3-х шейдерах http://berengui.club.fr/rtrad.html , на 2-х http://homepages.paradise.net.nz/nickam ... merad.html
а вот рейтресинг на видюхе http://www.ce.chalmers.se/edu/proj/rayg ... creenshots . совмещаем 2 этих технологии и получаем фотографичные рендеры за минуты, а не часы.

Я незнаю почему эти разработчики популярных рендеров сидят там и до сих пор ни в одном нормальном рендере этого нет. Жду недождусь такого рендерера.

во ти сайт посвящённый этому http://realtimeradiosity.com/
denis!!!
Обязательно посмотрю когда экзамены закончатся!
Ivan Andreevich
только имей ввиду, что и сам вывод изображения тут аппаратный во весь экран как бы, поэтому качество не очень по сравнению с програмным рендерингом, да и вообще это просто сырые примеры. продвинутый рендерер делал бы это кусочками так по 320х240 где-нть и помедленней :)
в продолжении этого http://www.pcper.com/article.php?aid=334
и оттуда сюда http://www.openrt.de/ :)
Новая тема    Ответить  [ Сообщений: 57 ]  На страницу 1, 2  След.


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 8


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru