Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 1 из 1 [ Сообщений: 37 ]  Версия для печати [+]
Показать сообщения за  Поле сортировки  

Корпорация собирается достичь производительности в 2 Терафлопса, но вопрос в том, будет ли этого достаточно, так как сегодняшний Radeon HD 4870 уже имеет производительность в 1,2 Терафлопса, а Radeon HD 4870 X2 даже преодолевает барьер 2 Терафлоса. Ко времени выхода Larrabee, AMD и NVIDIA подготовят новые поколения видеокарт, которые будут значительно производительнее сегодняшних RV770, R700 и GT200.
Источник.

новейший двухчиповый флагман компании R700, чье появление назначено на август, будет поддерживать 4-way CrossfireX. На практике это означает, что в одной системе будет объединено 8 (!) графических чипов RV770, дающих суммарную вычислительную мощность 9,6 Терафлоп, величина вполне сопоставимая с лучшими суперкомпьютерами.
Источник.
Возникает резонный вопрос — а не слишком ли опаздывает Intel?
гы! да когда он еще будет? а то слухи уже надоели! да и непонятно как его теже игры будут поддерживать?
И будет тот же i740 только добавили обновку:lol::lol:первые их ускорители канули в прошлое.не удалось тогда завоевать рынок.и сечас и по давну:spy:
Asmodeus

дающих суммарную вычислительную мощность 9,6 Терафлоп, величина вполне сопоставимая с лучшими суперкомпьютерами.

Ну насчет лучших суперкомпьютеров автор слегка погорячился :)
А насчет использования данного конфига в играх — это мазохизм. Лаг мыши будет просто огромный. 9 кадров в очереди (8+1) следовательно и задержка на реакцию мыши тоже 9 кадров.
Интересно, найдется ли мазохист, который будет играть с такими задержками :)
yanckoff Во-первых — речь идёт в форуме "Процессоры" и разговор не о игровом примении в качестве видеокарты. Во-вторых, добро пожаловать сюда и отпишитесь таки про лаги — как они проявляются, меряются — желательно сухие только факты и как можно меньше мифов ;) А то разговоров про лаги много, а фактов пока очень мало :oops: Будем проверять :yes: В-третьих, сомневаюсь что такую восьмичиповую конфигурацию кто-то будет приобретать для игр, для рендеринга в реальном времени ещё возможно.
yanckoff у вас же самого 3 карты и что есть задержка, сильно чуствуется?
Я полагаю, что тут вопрос в потреблении энергии во-первых, и в возможности организации не только параллельных, но и в какой-то мере связанных вычислений, — во-вторых. В общем, терафлопс терафлопсу рознь..
А ничего у них не получится... Слишком поздно они кинулись завоевывать рынок, им там нету места...
да черт знает, во первых у них денег немеряно, во вторых свой апи делают, хотя может только медленней будет :) поживем увидим
bartx2
Еще как чувствуются. Для простоты, буду говорить о SLI но все нижесказанное также верно и для CrossFire.
Предположим, что SLI имеет 100% эффективность, т.е. 3-way SLI должен выдать трехкратный рост производительности.
Исходим из того, что самымпопулярным режимом работы SLI сейчас является AFR.
Для того, чтобы загрузить все GPU работой, мы единомоментно заталкиваем 3 буфера в 3 GPU и один ставим в очередь (3+1)
Поскольку эффективность SLI признана 100% все три буфера выполнятся одновременно и нам необходимо послать "в топку" еще три буфера. Дабы соблюсти все каноны DX, драйвер обязан сообщить приложению, что буфер выполнен до того, как он получит другой, а для многочиповых конфигов, драйверу приходится обманывать ОСь/приложение (возвращать фальшивую информацию о выполнении первого и второго буферов чтобы накормить все три GPU. Обычно реакцию на поведение мыши/клавиатуры игры считают сразу после отправки буфера в GPU, следовательно, задержка на первых трех буферах будет нулевая а на третьем — равна времени выполнения всех трех буферов.
На практике это выглядит так. Пример.
На одиночном GPU игра дает 10 FPS
Соответственно на 3 GPU это будут 30 FPS.
Но реально, несмотря на то, что FPS-ы увеличились втрое, реакция на мышь будет такая-же, как была на 10 FPS-ах. Со всеми вытекающими радостями.
И это в идеальном случае. когда эффективность SLI — 100% и на последующих кадрах не используются ресурсы с предыдущего.
Если возникает необходимость использовать какие либо ресурсы с предыдущего, возникает необходимость синхронизировать данные между этими GPU, а это трата дополнительного времени на пересылку этих самых данных. Если эти данные занимают достаточно большой объем, то в течение времени пересылки будут заметны вроде как подвисания.
Плюс ко всему, если для получаемых данных, в локальной памяти GPU не будет хватать места, то некие предыдущие ресурчы будут выталкиваться в системную память, а это приведет к еще большему подтормаживанию. А если и системной памяти не хватает, то уже из нее некоторые данные будут выталкиваться на жесткий диск, что совсем брутально для производительности.
Но это характерно только для AFR... В SFR-е в очереди остается один кадр, над которым работают все GPU.
Все эти проблемы исчезнут, когда появится технологическая возможность объединять распределять память/вычислительные ресурсы в GPU. Т.Е. в SLI будет не 2 отдельных устройства с 128 потоковыми процессорами и по 512 МБ подключенных к каждому GPU и с софтовым распределение работы между ними, а один комбинированный, с 256 процессорами и 1 гигом памяти.
Насколько мне известно, пока, дальше разговоров об этом, дело ни у кого не дошло. Есть масса технологических проблем в реализации этого. Даже если на одной подложке,внутри чипа (между отдельными кристаллами) это теоретически возможно, то реализация такого между двумя, разнесенными на приличное расстояние платами, даже в теории, выглядит невыполнимым.
Вот такие пироги с котятами. ;)

Asmodeus

Во-вторых, добро пожаловать сюда и отпишитесь таки про лаги — как они проявляются, меряются — желательно сухие только факты и как можно меньше мифов А то разговоров про лаги много, а фактов пока очень мало Будем проверять

Не буду я ничего писать для оверов... По идеологическим соображениям, ровно как и для хобота...
Во вторых, я в современные игры, практически не играю (времени на это занятие катастрофически не хватает), а данные машинки, используются для работы, которая вобщем-то с играми не связана :)
В третьих, лаги присутствуют в практическе любой игре, главное поставить поагрессивней графические сеттинги, дабы снизить FPS-ы до довольно низкого уровня. Т.Е. чтобы на одном GPU FPS-ы были ниже играбельного уровня, а в SLI уже были играбельными по значению. Вот в таком случае, лаги будут очень даже заметны...
Hell-Fosa

да черт знает, во первых у них денег немеряно, во вторых свой апи делают, хотя может только медленней будет поживем увидим

Свой API создать можно, а вот как пересадить на него разработчиков, это вопрос. :confused:
Как видеокарта она может и не удастся, и то только в первом поколении, но вот как вычислитель... В отличие от всех этих многих терафлопс которых достигнут Nvidia & AMD к выходу Larrabee у последней есть неоспоримое преимущество — x86 совместимость. Т.е. все эти терафлопсы видеокарт во многих случаях неприменимы к задачам общего назначения, в отличие от х86. И пока Nvidia & AMD будут разрабатывать и внедрять свои CUDA и проичие иже с ними Intel фактически представит высокопараллельный вычислитель, для написания программ к которому не нужна смена программной модели. Именно в этом неоспоримое преимущество Intel. Рендеринг не в реальном времени — вот основная задача Larrabee. И не нужно брать в расчет робкие попытки Nvidia или AMD сделать что то похожее на видеокартах, не для того они предназначены. Выход очередных продуктов от Autodesk расставит все точки над i.
SVC

у последней есть неоспоримое преимущество — x86 совместимость.
Вот это бесспорно. Это да. Впрочем — при наличии кроссплатформенных компиляторов x86 соместимость не так уж важна — все равно придется переписывать код под высокопараллельные вычисления, а затем перекомпилировать.
Кроссплатформенные копиляторы — это конечно хорошо :) , но, допустим, та же CUDA — это среда разработки. Да, код для высокопраллельных вычислений придется писать заново (и то не всегда, учитывая отличную распараллеленность того же V-Ray или MentalRay), но одно дело — писать в той же среде для множества х86 процессоров и совсем другое дело — писать в CUDA, где (не буду точно утверждать, конечно) существует множество особенностей и ограничений, накладываемых шейдерными процессорами GPU. Вообще, конечно, с каждым новым поколением видеокарт их возможности в области общих вычислений увеличиваются, ведь каждый новый DX требует все больше и больше возможностей для обработки графики. Вот если бы AMD & Nvidia наконец то разработали ОБЩИЙ ОТКРЫТЫЙ стандарт в области вычислений и им помогла Microsoft... но такое бывает только в сказках. А на сегодня Intel хочет сразу предложить решение, к которому довольно долго и меееедленно продвигаются AMD & Nvidia (постепенно увеличивая возможности своих GPU), т.е. программный рендеринг. История развивается по спирали и программный рендеринг уже был.... теперь новый виток и новое качество программного рендеринга. Хотя, конечно, первая версия Larrabee вряд ли добьется успеха именно в играх, слишком уж радикальный подход для столь устоявшейся модели real-time рендеринга
SVC, дык особенности и ограничения — это уже компилятор пускай думает. Дело программиста выдать на С++ исходник, допускающий предельно возможную параллельность, а как его вбить в тот или иной вычислитель — уже дело компилятора. Я, конечно, утрирую, ручками все равно вылизывать код полезно, но в массовом виде имено так. :oops:
Stranger_NN
SVC
Там, извините, есть другая проблема, гораздо более принципиальная.
Чтобы эффективно использовать что CUDA\STREAM, что Larrabee с их сотнями исполнительных устройств, необходимы ДРУГИЕ алгоритмы: те, которые допускают массивно-параллельную обработку.
В большинстве задач придется менять алгоритмическое решение, что гораздо медленнее (и гораздо сложнее), чем просто компиляция текста программы в С++ (или Фортране)
В том то все и дело, в CUDA есть с-компилятор... но если просто написать высоко распараллеливающий код и компилировать... на GPU с его терафлопсами скорее всего будет жалко взглянуть. :) Хоть Си и язык высокого уровня, это далеко не значит, что для написания кода не нужно учитывать особенности архитектуры CUDA. Не зря же в "CUDA Developer SDK содержит исходный код, утилиты и официальные документы, призванные помочь вам в разработке на CUDA на начальных этапах" (www.nvidia.ru). Уж не просто распараллеливанию хотят научить нас Nvidia.
А на счет массивно-параллельной обработки — я так думаю, в таких задачах как рендеринг, кодирование видео и шифрование сильных проблем с этим не возникнет (хотя конечно и легко не будет :no: ). Для остальных задач есть ЦПУ.
matik

Чтобы эффективно использовать что CUDA\STREAM, что Larrabee с их сотнями исполнительных устройств, необходимы ДРУГИЕ алгоритмы: те, которые допускают массивно-параллельную обработку.
В большинстве задач придется менять алгоритмическое решение, что гораздо медленнее (и гораздо сложнее), чем просто компиляция текста программы в С++ (или Фортране) 
Именно это я и имею в виду, когда говорю, что притирка программы к конкретному железу — не самая масштабная задача. Larabee там или GPU какой-нибудь — это уже предпоследнее дело..

SVC

Не зря же в "CUDA Developer SDK содержит исходный код, утилиты и официальные документы, призванные помочь вам в разработке на CUDA на начальных этапах" (www.nvidia.ru). Уж не просто распараллеливанию хотят научить нас Nvidia.
А вы думаете, что приемы оптимизации, отточенные на Р4 или C2D прокатят на Larabee? Сдается мне, что совместимость по командам не означает совместимости по методам тонкой (потактовой) оптимизации. Так что придется что так, что эдак — а с нуля работать...

А вы думаете, что приемы оптимизации, отточенные на Р4 или C2D прокатят на Larabee? Сдается мне, что совместимость по командам не означает совместимости по методам тонкой (потактовой) оптимизации. Так что придется что так, что эдак — а с нуля работать... 


Суть CUDA заключается не в одних оптимизациях, а вообще в несколько ином программировании, хоть оно и основано на Си. Это принципиально другая платформа, программная модель. Понятно, что для Larrabee не возьмешь вот так за пять минут и не переделаешь, надо делать заново, НО писать то будут разработчики используя уже знакомую программную модель, с теми же х86, а тонкой оптимизацией займется уже компилятор.
SVC, простите, но я думаю, что как раз наоборот... Программистам надо придумать какие-то высокопараллельные алгоритмы и реализовать их на языках высокого уровня, а уж под какую целевую платформу их адаптировать — дело, скорее, компиляторов, чем программистов. В том же С++ нет никаких аппаратно-зависимых вещей, поэтому на нем можно писать программы, которые скомпилируются на любой процессор — х86, Power+, GPU, — не важно... Сложности будут при тонкой оптимизации — но они совершенно неизбежны и на Larabee — нет никакой разницы на какую новую аппаратуру оптимизироваться, все равно все заново.
Stranger_NN, я конечно всё понимаю... :) но почему ж тогда мы не видим сейчас, к примеру, аппаратный рендеринг на платформе CUDA, ведь на многоядерных процессорах и ЦЕЛЫХ ФЕРМАХ РЕНДЕРИНГА он уже давно и отлично работает??? Если б можно было только написать достаточно распараллеленный алгоритм, да компилировать под GPU — наступило бы счастье, которое так долго уже обещают нам Nvidia и AMD.
Кстати, помоему DreamWorks :oops: заключили контракт с Intel о поставке Nehalem и Larrabee для рендеринга своих проектов
SVC, вы сами себе ответили: "Если б можно было только написать достаточно распараллеленный алгоритм, да компилировать под GPU"— вот в этом-то и вопрос. Рендеринг в реальном времени (и не просто в реальном времени, но еще и событийно-управляемый, исключаюищй особо глубокую конвейеризацию) — это, во-первых, немного не то, что на фермах рендеринга, а во-вторых — если вложения в фермы рендеринга идут под многосотмиллионные бюджеты аниматоров, то написание игровых движков, например, дело в коммерческом плане несравнимо более рискованное.

Т.е., вложения-то сравнимые с написанием ПО для того же DreamWorks, а вот возможность хотя бы окупить разработку совершенно неочевидна. :oops: С другой стороны — бурный рост мощностей CPU делает немного неактуальным неграфический счет для GPU — для "мониторных" разрешений это не очень актуально.
Можно долго спорить, что будет быстрее. Особенно, если нечего трогать руками. Стоить прогноз из — за каких то статей?

Лично для себя я знаю:
1) У интела денег больше, чем у нвидии и амд вместе взятых.
2) Для интела GPU это не поднятая целина.
Brake your Mind
Лично для себя я знаю:
1) У интела денег больше, чем у нвидии и амд вместе взятых.
2) Для интела GPU это не поднятая целина.

На оба пункта легко возразить:
1) Деньги сами по себе не превращаются в продукты. И есть куча примеров, когда более бедная компания разработала гораздо более качественный продукт. Как пример: Атлон 64 и Пентиум 4. Ну и как, помогли деньги?
2) Во-первых, Интел уже пытался выходить на рынок графики — i740 тому порукой. И убрался восвояси, потому как затоптали.

На оба пункта легко возразить:
1) Деньги сами по себе не превращаются в продукты. И есть куча примеров, когда более бедная компания разработала гораздо более качественный продукт. Как пример: Атлон 64 и Пентиум 4. Ну и как, помогли деньги?


Помогли. Где сейчас AMD, а где сейчас Intel? Другое дело, что AMD сами себе долго рыли могилу после удачных K7 и K8.


2) Во-первых, Интел уже пытался выходить на рынок графики — i740 тому порукой. И убрался восвояси, потому как затоптали.

Более чем уверен, что Интелу этот рынок тогда стал неинтересен. Во времена i740 на этом рынке грызлись все, кому не лень. 3dfx Interactive, NVIDIA, ATI, Rendition, S3 и еще куча всякой мелочи. Хороший был список? На то время, соревноваться с 3dfx могли лишь те, кому уже было нечего терять, типа NVIDIA. А у Интела был успешный процессорный бизнес, поэтому и свернули они свои посягательства на рынок дискретных карт, ограничившись лишь встроенной графикой уровня i740.

А сам i740 был очень неплох, между прочим тогда. Уж во всяком случае, он был лучше, чем любой Rendition Verite, чем любое поделие от S3 (эту контору я невзлюбил еще в бытность S3 Криво64), чем NVIDIA Riva 128 (Крива 128, как ее звали, вначале вообще доставала "щелями" из-за кривых драйверов). У ATI ничего адекватного не было с 3D (Rage Pro уж очень стремный был, а до Rage 128 еще дело не дошло).

А вот сейчас уже картина совсем иная: зажравшаяся NVIDIA (разбухшая от кучи поглощенных ею компаний) и как-то нехотя догоняющая ее ATI/AMD. Intel теперь будет, чем поживиться и на этом рынке.
KostNalu
Где сейчас AMD, а где сейчас Intel?
А где они сейчас?
И при чем здесь "сейчас", если утверждение было сформулировано безотносительно времени?
Суть в том, что Интел всегда была гораздо крупнее АМД, и имела гораздо больше денег. Это не помешало ей проигрывать в производительности в течение нескольких лет (примерно год во времена К7 и примерно три (!) года во времена К8).

Другое дело, что AMD сами себе долго рыли могилу после удачных K7 и K8.
Ну а этот "мегавывод" откуда следует? :)

Более чем уверен, что Интелу этот рынок тогда стал неинтересен.
О да :) Они именно так и говорили :)
На самом деле чипы от АТИ и Нвидиа порвали их в клочья. А еще Интеловцы так и не сумели сделать нормальные дрова.
И тут же "это стало им неинтересно", ага :)
Это называется "хорошая мина при плохой игре" ;)

А у Интела был успешный процессорный бизнес, поэтому и свернули они свои посягательства на рынок дискретных карт, ограничившись лишь встроенной графикой уровня i740.
Да-да-да-да :) И сетевой бизнес они свернули, потому что у них успешный процессорный, да? :)
На самом деле большинство непрофильных подразделений Интел попросту убыточны, только и всего. Графическое подразделение тоже не радовало.

В то время как "Интел этот рынок был неинтересен", АТИ и НВидиа на нем денег заработали. И неслабо заработали, между прочим. Видимо, не знали, что "рынок неинтересен".

А сам i740 был очень неплох, между прочим тогда
Я Вас умоляю! :)
Я как раз тогда работал в рознице, когда этот "очень неплохой чип" дополз до нее.
Редчайший глюкодром был.
А OpneGL драйвер так и не отладили даже спустя год после выхода :D
Народ через wraper играл...
странно господа, вы чаво в интел главные маркетологи и разрабы
слон еще не вышел, а моська обхаяла, вот выйдет и поглядим
пора этот понос словесный прикрыть! Изображение
я лично на ИНТЕЛ забил (в плане видео) Изображение
VladKS

я тоже, по крайней мере на 1 поколение с ее 200 ватами в простое :eek:
Хммм. Я чего-то не догоняю, или топик про неграфические вычисления с помощью Larrabee? :spy:

На страницах сайта Anandtech появилась подробная информация об архитектуре Larrabee, полученная американскими коллегами непосредственно от Intel. Следует отметить, что подобной чести удостоился не только этот информационный ресурс, и вы без труда найдёте аналогичные материалы на других сайтах. Очередной экскурс в архитектуру Larrabee компания Intel обещает организовать на следующей неделе, когда 12 августа выступит с докладом на SIGGRAPH 2008.

Начнём с того, что Larrabee по своей архитектуре действительно ближе к центральным процессорам, чем к видеочипам в классическом понимании. Первые продукты класса Larrabee будут иметь более десяти ядер на одном кристалле, каждое ядро действительно имеет много общего с процессорами Pentium (P54C). Например, сохранён пятиступенчатый конвейер, который у современных процессоров Intel гораздо длиннее. При этом в ядра Larrabee добавлена поддержка 64-битных расширений и многопоточности (до четырёх потоков на одно ядро), объём кэша первого уровня увеличен до 32 + 32 Кб (кэш данных и команд соответственно), появился кэш второго уровня объёмом 256 Кб, а также векторное АЛУ, способное выполнять одновременно до 16 тридцатидвухразрядных операций с плавающей запятой. Кстати, ядра Larrabee поддерживают поочерёдное исполнение команд, как и процессоры Atom.
Изображение
Связывать ядра Larrabee между собой будет кольцевая двунаправленная шина, разрядность которой не уточняется. Скорее всего, в качестве памяти Larrabee будет использовать микросхемы типа GDDR-5, и тогда наличие широкой шины не станет обязательным условием достижения высокой пропускной способности.

По поводу количества ядер в графических решениях Larrabee у американских коллег есть собственный прогноз. По их расчётам, Intel может выпускать в рамках 45 нм технологии чипы Larrabee с количеством ядер до 64 штук включительно. Для более доступных ценовых сегментов количество ядер будет пропорционально уменьшаться — скорее всего, с шагом не менее чем в восемь штук. Сколько ядер получит первая модель Larrabee, компания Intel пока не сообщает.

Специфика архитектуры позволит Larrabee не только ускорять трёхмерную графику в играх (поддерживаются DirectX и OpenGL), но и выполнять всевозможные вычислительные задачи, которые хорошо распараллеливаются. Эффективность работы Larrabee будет зависеть от оптимизации программной среды, но Intel славится качественными компиляторами. Проблемы могли бы возникнуть на уровне написания драйверов для видеокарт, но над ними программистам Intel помогут работать выходцы из 3DLabs. Надеемся, это позволит Intel отделаться от дурной славы своих "графических" драйверов.

Гибкая с точки зрения программирования архитектура позволит Larrabee обретать поддержку новых версий DirectX без изменений на аппаратном уровне. Другое дело, что потенциал производительности при таких "программных модернизациях" рано или поздно себя исчерпает, и пользователь будет вынужден покупать новую видеокарту. Надеемся, что новая информация о Larrabee будет поведана компанией Intel уже в этом месяце.
Ага!!! Таки кольцевая шина!!! :up: :gigi:
В тему: Intel Larrabee: новый GPU от Intel . Изображение
Чуть не потеме, но тоже интересно:
Японская корпорация NEC объявила о выпуске самого быстрого в мире векторного суперкомпьютера, SX-9. Новинка демонстрирует пиковую производительность 839 TFLOPS. По словам компании, это составляет 102,4 GFLOPS в расчете на одно ядро, что является мировым рекордом производительности.
В основе суперкомпьютера – процессоры новой разработки, совместно использующие оперативную память, объем которой может составлять до 1 Тб, и сверхскоростная сеть внутренних соединений, данные по которой передаются со скоростью 128 Гбайт/с. Интересно, что превосходя всех своих предшественников по производительности, SX-9 примерно на три четверти компактнее их и потребляет на три четверти меньше энергии. Добиться такого результата помогло применение больших интегральных схем и высокой плотности компоновки.
В отличие от скалярных суперкомпьютеров, в которых используется большое количество процессоров общего назначения, векторные суперкомпьютеры оптимизированы для определенных классов задач и обработки значительных массивов данных. В частности, их преимущества заметны в тех областях, которые названы основными для SX-9: метеорологическое прогнозирование, гидродинамическое моделирование, моделирование материалов в интересах нанотехнологии и химии полимеров. Суперкомпьютер работает под управлением SUPER-UX – специализированной, UNIX-подобной системы, позволяющей раскрыть потенциал векторной архитектуры.
К настоящему моменту, компания уже поставила заказчикам более 1000 компьютеров серии SX, в которую вошла модель SX-9. Суперкомпьютер SX-9 будет показан публике в павильоне NEC на выставке Supercomputing 2007, которая пройдет в США с 10 по 16 ноября.

http://www.ixbt.com/news/all/index.shtml?09/52/82
Немного про Larrabee: народ...а нафига он нужен??? есть CPU который выполняет все х86 задачи, и неважно справляется с потоковой информацией, есть видеокарта на которую можно возлажить всю потоковую инфу ... нафига вам то что и с тем и стем плохо справится? :spy:
У Larrabee будет два HD-декодера Мдя...
Вот тебе бабушка и юрьев день! @ :(

Первым продуктом класса Larrabee должна стать некая платформа для разработки приложений, а анонс дискретных игровых продуктов с этой архитектурой откладывается на неопределённый срок. Судя по комментариям представителей Intel, компания не видит особых перспектив для Larrabee и в сегменте ускорения вычислений, поскольку спрос на подобные решения ограничен.
Источник.
Intel откровенно говорит о недостатках Larrabee
Новая тема    Ответить  [ Сообщений: 37 ] 


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru