Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 3 из 4 [ Сообщений: 130 ]  Версия для печати [+] На страницу Пред.  1, 2, 3, 4  След.
Показать сообщения за  Поле сортировки  
Новая информация о чипе R600: элементы архитектуры, описание дизайна платы.
а вот и инфа про R700.
если это правда, то впору вообще выпускать видео-материнку и втыкать в неё нужные чипы как мы это делаем с процом на обычной материнке :gigi:
denis!!! Если внимательно прочитать информацию — вполне разумное решение ;) Лично я думал, что такой подход будет применён уже на G80, оказалось не так. Если успешно работают двухчиповые видеокарты, то почему бы и просто не разнести сам чип по модулям на видеокарте. Кстати, не думаю, что это увеличит размер видеокарты.
Asmodeus
конечно, это гораздо разумней экономически, чем просто урезать одинаковые большИе чипы и уж тем более делать кучу разных чипов отличающихся по суте только количеством блоков разных(шейдерных там и т. п.).
просто хотел приколоться, что если теперь унифицировать PCB для всей линейки текущих моделей, то в ней можно делать сокеты для чипов, а чипы продавать отдельно(память ведь раньше так и ставилась на некоторые старые видюхи) :) но тогда к цене платы прибавится цена сокетов :(.

правда как быть с кулерами и водоблоками тогда — новые мега конструкции?? а вообще как-то эта новость противоречит намерениям АМД слить проц и видео (Fusion). тут всё наоборот — разбиение ещё на части :gigi:

а может всё идёт к тому, чтобы вообще лишить саму видюху(которая может и в проц будет встроена) разных шейдерных блоков, а вместо них использовать отдельные чипы — потоковые процессоры?
извиняюсь может оффтоп

а что так трудно сделать игру с поддержкой ДХ9/10 ведь есть сейчас игры с одновременной поддержкой ДХ7/8/9/,шейдеров 1,2,3,Д3Д/ОГЛ???
denis!!! Ну, а что. Лично я был бы только за создание некоего подобия M/B со своими сокетами на непосредственно на плате видеокарты. Тогда бы потребитель был в выигрыше — не так часто приходилось бы менять саму плату видеокарты — заменил видео-потоковою-память, заменил GPU, поставил в помощь GPU какой-нить Sony Сell — вот нам и плавный планомерный апгрейд ;) . А на материнской плате — свой апгрейд, к примеру с пощью добаления сопроцессора для специализированных задач в помощь GPU. Да и истории свойственно двигаться по спирали — вот только достал из своего стола древнюю S3, прошу обратить внимание на обилие свободных сокетов:
    Изображение
Alexander_ Оно может быть и легко. Вот только кто будет платить разработчикам за нормо-часы, потраченные на написание дополнительного кода? Да и подход в 10ом DirectX несколько уж совсем отличный от предыдущих с учётом полной программируемости шейдеров. Опять же — время разработки увеличится в разы, что не понравится тем кто платит программистам, текстурщикам, дизайнерам и прочим. А они спешат выжать из них максимум в самые короткие сроки и как можно быстрей получить прибыль.
Asmodeus, ну, не надо рассуждать о программистах и т.п., т.к. никто из нас игрулины не рисует. :) Если будут удобные средства разработки, чёткие стандарты и проще делать оптимизацию — то всё замечательно.
Sikambr У меня был некоторый опыт в рисовании (не скажу на кого — ком.тайна :( ) — текстурировании для игр: "гонят, быстрей да быстрей — сделать качественно просто не успеваешь, а ведь некоторые текстуры нужно создавать самому или хотя бы умно и реалистично сделать на базе других. Вот когда для себя — для души, то таки да. Программисты ругались на то же самое. Дело в том, что работодатели, как правило, не хотят нанимать достаточное количество квалифицированных разработчиков, что бы каждый из них имел время на действительно шедевральные вещи, а вот выпустить в сжатые сроки продукт, изрядно его пропиарив заблаговременно — это завсегда. Вот и выходит однозначный и шаблонный продукт с недоведённым кодым и стандартными решениями.
Asmodeus
Ну, не путай — одно дело любитель-одиночка, а другое — коммерческая фирма с проф. художниками и программерами. :) Про "последнее время выходит всё больше скучный ацтой вместо игр, на которые не жалко потратить время" — спорить не буду. =)
Asmodeus
да вот я постом выше именно такие слоты и имел ввиду :) да у самого таких штуки 2 валялось и куда-то затерялись :spy:
насчёт разработчиков — да, придётся тратить больше денег на разработку ДХ9/10. Но если сделать только 10, то стопудово они продадут меньше игр, т. к. во-первых имхо дх9 видюхам ещё жить как минимум год, во-вторых не все поголовно перейдут сразу на висту. да и с консолями — ещё PS2 не умерла.
ну тратили ж деньги и в течении не одного года на поддержку в играх ДХ8/9, а то и 7. ну а от сыроватости и глючности потом патчи можно выпускать :gigi:
Sikambr Иногда сравниваешь творения "любителей-одиночек" и "коммерческих фирм с проф. художниками и программерами" — шо то сравнение явно и далеко не в пользу последних — решения чисто страндартные и явно без души. ... -непечатная игра слов- о профессиОналах... а ведь на таких древних DX и движках можно было такие реалистичные вещи ваять! :mad: Всё завязываю с ОФФом — за живое просто взяло. Прошу прощения. :shuffle:

denis!!! :yes:
denis!!!

если это правда, то впору вообще выпускать видео-материнку и втыкать в неё нужные чипы как мы это делаем с процом на обычной материнке

Пока рано говорить о чем-то таком. Если это и будет то очень не скоро, то что есть (тепроцесс) не может позволить себе такой реализации. необходимо обеспечить крайне низкие задержки или высокая суммарная мощность микроядер, чтобы ликвидировать спад производительности. Предположим, у нас есть 8 микроядер, управляющая логика, каждое из ядер содержит допустим 32 АЛУ. Что будет дешевле. Произвести плату с 8x32 или с одним чипом 256 АЛУ. Я уверен, что 256 АЛУ будут производительней. Да, чуть дороже производство (при условии выхода годных чипов 100%), но в первом случае увеличивается сложность разводки PCB.

А про nVidia я вообще смеялся. G80 и так содержит 681 млн. I/O это еще 50 млн. дорогое удовольствие при производстве чипа. Здесь скорее вынужденная мера, а не какой-то инновационной подход
S3 Graphics представит графический процессор XE1 с восемью GPU и поддержкой DX10.1
Первые фотографии R600 (Roden).
Изображение
хм.. а вот ещё упоминается PCI-Express 2.0, а будет ли у него обратная совместимость?? (2.0 видюхи в в обычных мамах(ну при невысой мощности питания) будут работать и наоборот? )
denis!!! Полагаю что такого куска пирога как ПК со старой PCI-E производитель не упустит. Да и особых сложностей в реализации обратной совместимости вроде как нет ;)

Отпостился в ветке на оверах. Там народ усиленно ноги считает :lol: .
Asmodeus
хорошо бы, тогда это типа как совместимость агп 8х 4х 2х.
Там народ усиленно ноги считает
:up: :lol:

эхх, подкинул бы кто-нть денех S3 — щас бы 3-й игрок на рынке игровых видюх был бы :up:
denis!!!
Насколько знаю нет, напряжение будет другое. Хотя реализовать технически возможно. Вот только нужно ли?
:)

Решил купить новые железки...

и появился вопрос , если сейчас купить материнку с crossfire , взять видео x1600 , в последствии через пол годика взять R600 , можно ли их обьединить в crossfire режим ( R600 — 3D , x1600 — физика) или или
sfirius
Вот только нужно ли?
странный вопрос. конечно нужно! не менять же материнку из-за этого. ну или выпускать 1-е время только топовые мощные модели с 2.0(которым это действительно необходимо), а остальные 1.х. напряжение — не отмазка, для того компу и POST чтобы договориться всем компонентам с друг другом в том числе и по напряжению можно :gigi:
Не думаю, что у X1600 — сильные возможности в физике. Вот X1950XTX или даже X1950pro — це да.
denis!!!

странный вопрос. конечно нужно! не менять же материнку из-за этого. ну или выпускать 1-е время только топовые мощные модели с 2.0(которым это действительно необходимо)

Ну я про первое время и топовые продукты и говорю :).
Asmodeus
Шейдер на X1600 XT с той же операцией что и на PsysX выполняется в три раза быстрее. Для физики должно хватить, тем более что вся физика от Хавок по большей части "визуальная", направленная на внешний вид, а не на реализм действия. Да, кстати, уже конец года а игр как не было так и нет. Чувствую, что не все так гладко, как хотелось бы
paska Ну что ты — всё очень гладко — денюшки-то продавцам железа и его маркетологам капают исправно ;) :gigi:
вот интересный скриншотики Ну из реально нового я вижу только дисплейсмент(ну наконец-то! а то простой бамп-маппинг уже задрал :gigi: ) и море там классное. остальное и с 2-ми шейдерами вроде как можно устроить.
не думаю также, что всё это в полной мере рескроется крайзисом, ведь его и под 9-й ДХ делать должны. Имхо ещё годик ждать, чтоб в такое поиграть :) С такой графикой как 6-м марке-то до сих пор игр-то не особо, хотя как раз примерно такие как тест про проксикон :)
Хех. Когда же основательно паралакс внедрят? Ведь очень симпатичная вещь.
Asmodeus
да вроде есть любительские патчики для кваки ;) и на 2-х шейдерах работает. вот тут можно и самому с ним поиграться :gigi:
вот-вот, до сих пор не внедряют даже то, что возможно на 2-х шейдерах а сами уже 3-и юзают.
Свежая ревизия чипа R600 работает на частоте 800 МГц
Большое количество очень хороших известий!
Особенно порадовали потребление — не более 100Вт — и размеры — не более Х1950ХТХ :up:
А если и впрямь будет использована GDDR3 вместо ранее обещаной GDDR4, то и цена будет не хуже
конкурента в лице G80.
AMD R600 и R700: что в имени тебе моём?...
Весьма любопытные сведения о названиях еще не вышедших графических решений AMD (ATI) опубликовал сегодня интернет-ресурс Hexus.net.
В частности, стали известны имена продуктов семейства R600. Наиболее производительный из них, R600 XTX, как оказалось, назван разработчиками "Dragon's Head", второй по значимости, R600 XT — "Cat's Eye", а самый урезанный, R600 XL — "UFO". Оригинально — не правда ли? :) При этом отмечается, что изделие с приставкой XL, в отличие от двух других решений, станет доступно не в день официального представления R600, а несколько позже (скажем, через месяц).
Что интересно, несмотря на отсутствие каких-либо данных о характеристиках или сроках выпуска, вышеупомянутый источник сообщает и о названии R700, которое, якобы, звучит, как "Wekiva".

Ещё не видели р600, а уже о 700-м гадают :)
Ссылочка с оверов из нашего форума <<ATI OverClan>>

amdfan

Member

Зарегистрирован: 01.07.2005
Откуда: москва
31.12.2006 1:20

Тема: R600vsG80 первые тесты!!!

http://level505.com/2006/12/30/the-full ... 00-test/1/
Главное это то что Р600 быстрее! но не очень значительно за исключением Обливиона где 8800ГТХ таки порвана. Вполне возможно что в более высоких резрешениях АТИ уйдёт в отрыв..
Вот спеки карты на Р600

The R600 Specs are:

64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

32 TMUs, 16 ROPs

512 bit Memory Controller, full 32 bit per chip connection

GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)

Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4

Consumer memory support 1024 MB
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
32FP internal processing
Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)

Hardware DVI-HDCP support (High Definition Copy Protocol)
Hardware Quad-DVI output support (Limited to workstation editions)
230W TDP PCI-SIG compliant
_________________
U2 навсегда! —= Воин AMD OverClub =—
In the na-a-a-me of love What mo-o-re in the name of love In the na-a-ame of lo-o-ove...
Спасибо, amdfan, от души порадовал :up: :beer: :vodka:

Собственно этого и ждал ;) Не совсем правда понятно — как там обстоит сравнение в тяжёлых режимах с максимальной анизотропией и максимальным сглаживанием — имхо в этом случае R600 должен ещё раз порвать G80 из-за большей разрядности памяти ;)
Изображение
level505.com какой-то странный сайтик, там кроме теста R600 ничего нет или я плохо вижу.....насколько достоверен ресурс???
MikeIS Говорили, что сайт специально для этих тестов сделали — ну и шифруются ребята, не хотя отвечать за преждевременный слив информации, ИМХО ;) Вообщем, оно конечно не факт, что это не фейк, но ИМХО шибко на правду похоже. Лично меня amdfan убедил ;)
Кстати, ИМХО не факт, что в меньшем разрешении и при более лёгких настройках, к примеру с отключенным AA, отрыв не будет менее значительным — всё таки 512Bit память что-то значит, пусть даже и DDR3, на которой проводилось тестирование.
Очень интересно

Состоявшаяся в последний день прошлого года утечка информации о характеристиках видеокарты на базе чипа ATI R600 и её быстродействии в последующие дни получила большой общественный резонанс. Американским коллегам с сайта DailyTech, например, удалось связаться с владельцами загадочного сайта, на котором появились результаты тестирования R600. Как выяснилось, два человека из числа основателей сайта имеют непосредственное отношение к AMD. Странное нежелание авторов обзора публиковать какие-либо скриншоты и фотографии видеокарты, объясняемое якобы глубокой конспирацией, до сих пор настораживает читателей.
....и немного печально

Перенос анонса R600 на март, если он состоится, не повлечёт больших потрясений для партнёров и инвесторов AMD: фактически, компания обещала представить новый флагманский видеочип в первом квартале 2007 года, и март ещё относится к этому периоду. Выставка CeBIT 2007 начнётся 15 марта, и это будет подходящее место для презентации новых графических решений. NVIDIA, судя по всему, точно воспользуется таким шансом для анонса графических новинок.
....опять ждать и ждать....
MikeIS

....опять ждать и ждать....

зато я полностью согласен с коментами к этой статье. Драйверов нет, DX10 нет, а главное, игр под DX10 нет. Так зачем сейчас такая видяха??????
Deathdoor
Да меня другое беспокоит:
30 января релиз Висты => где нибудь в конце февраля проявиться 10 директ (если не ошибаюсь, то 9.0Л для ХП).
Пусть в марте появиться решение Р600, но это же флагман, а когда же тогда проявятся карточки среднего и нижнего сегмента? (8800 уже во всю распродается, но что-то я пока не слышал об остальных решениях)

P.S. Я собираюсь машинку менять, есть огромное желание поставить среднюю карточку в новый компик. У меня нет желания ставить 1650 серию (или 1900ГТ) на время, т.к. нет ничего постояннее временного.

если не ошибаюсь, то 9.0Л для ХП
Нет — 9.0Л то же для Висты — нечто вроде эмулятора для не поддерживающих DX10 карточек — что бы приложения DX10 вообще на них запускались. Для XP некрософт не обещало обновлений DX :(
Блин с такими темпами все перейдут на 8800, так как деньги есть сейчас и тратить их хочется сразу, а не ждать черте-сколько. Меня вот что интересует — что за разговора про возможность использовать старую карту (например как моя 1900GT) в паре с новой как физический ускоритель? Они это серьезно? А то жаба душит тратить на Ageia 300 уе, а UN3 Engine уже готов.
Во-первых $150.
Asmodeus
Результаты ЭТИХ тестов существующих карточек _не_ компарабельны с официально получаемыми тестерами видеокарт в конце года 2006.
И зачем так вызывающе занижать результаты, выдаваемые GeForce 8800 GTХ ?? Кстати, а не виновата ли платформа (небыстрая) у этих анонимных тестеров (и настройки панели управления драйверами видео), уж больно всё шито белым?
Volodimir Добро пожаловать в веточку на оверах. Там уже много копий сломали, в том числе и про отличительные моменты официальных тестов, особенно на хоботе, в том числе и про их отличные и разные настройки и специальные демы ;) Даже графики там есть. А повторять всё сначала шибко не хочется :no:
Новая тема    Ответить  [ Сообщений: 130 ]  На страницу Пред.  1, 2, 3, 4  След.


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  

Удалить cookies конференции

Пишите нам | Radeon.ru