Radeon.ru
https://forum.radeon.ru/

Графические ускорители поколения Directx 10 — R600 и другие.
https://forum.radeon.ru/viewtopic.php?f=2&t=18323
Страница 1 из 1

Автор:  alexlp [ 21:46 15.07.2006 ]
Заголовок сообщения:  Графические ускорители поколения Directx 10 — R600 и другие.

Хочу обновить конфигурацию компьютера, давно пора. И если с процессором, "материнкой" и "оперативкой" вопросов нет, то вот с видеокартами возникли вопросы, а именно не с самими видеокартами, а готовящимся к выходу Directx(om) 10.
Главный вопрос если сейчас уже видеокарты поддерживающие DirectX 10? Потому как ждать новых серий от Geforce и Radeon нет ни желания ни времени либо сейчас либо никогда, но и покупать карту ценой около 200$ менее чем на пол года тоже бесмысленно. Что посоветуете ждать или, купить что-то сейчас?

Автор:  Sikambr [ 22:17 15.07.2006 ]
Заголовок сообщения: 

alexlp
1. Почитайте новости на главной странице за 1,5 месяца. Под DX10 карты будут не ранеее октября-ноября 2006-го года.
2. Вы не заполнили информацию о своей текущей системе, а ждёте ответа — ждать вам или нет.
3. Между прочим есть ещё и материнские платы и процессоры. Я бы посоветовал брать или процессор под сокет AM2 от AMD или Conroe от Intel.

Автор:  alexlp [ 11:29 16.07.2006 ]
Заголовок сообщения: 

Заполнил, если не заметели. И зачем покупать всё кроме видеокарты сейчас, если: 1 цены на двухядерные процессоры падают, а их производительность растёт, 2 частоты памяти растут и их быстродействие. Так что зачем сейчас, что-то покупать по отдельности, ещё и новый разъём придумают под новые видеокарты, что тогда?
З.Ы. Amd не для меня — очень не надёжные, и пока нет "материнок" для них, с более быстрой памятью!

Автор:  M@sTeR!!! [ 12:49 16.07.2006 ]
Заголовок сообщения: 

На мой взгляд лучше подождать ДХ 10, там и конрое подешевле будут и память ддр2-800 можно взять за нормальные деньги, а с твоей системой потерпеть пол-года вполне реально :yes:

Автор:  alexlp [ 12:59 16.07.2006 ]
Заголовок сообщения: 

Терпеть то реально, но я состою в сети и то, что твоя видеокарта полностью не поддерживает directX 9 раздрожает и это ещё мягко сказано, даже в контр нормально не поиграешь. Но совет дельный, я постараюсь терпеть. Правда кроме памяти ddr2, пусть и с такой частотой, будет доступна уже ddr3 и gddr4. А главное отличее DirectX 10 от 9 это поддержка shader model 4.0-красота!

Автор:  M@sTeR!!! [ 08:04 17.07.2006 ]
Заголовок сообщения: 

можеш пока купить какую-нибудь дохлую подержанную видуху до 400 руб, например geforce-2 mx-200 у меня такая была, контра летает.

Автор:  alexlp [ 08:35 17.07.2006 ]
Заголовок сообщения: 

Ну я тут походил у себя по магазинам, оказалось, я могу просто купить сейчас top-end карту около 200$, например 7600gt или 850хт, а когда появятся тор модели 8 серии geforce и s600 обменяю предидущую на неё. Где с доплатой, а где нет, всё зависит от разницы цен на карты, надеюсь pcie 16 до зимы не исчезнет!

Автор:  M@sTeR!!! [ 13:28 17.07.2006 ]
Заголовок сообщения: 

А куда он денется агп лет5 был и ещё года 1.5 простоит :)

Автор:  alexlp [ 18:53 17.07.2006 ]
Заголовок сообщения: 

Надеюсь ты прав, но ты ведь не производитель видеокарт. Сейчас производители гонятся за качеством, скоростью и выгодой — это всё правильно, но далеко не каждый юзер может позволит поменять камп в одно мгновение, тоже происходит и происходило при переходе от Agp на Pcie x16, менят приходится и материнку, а зачастую и проц, и озу, а это дороже 1 видеокарты!

Автор:  M@sTeR!!! [ 08:20 18.07.2006 ]
Заголовок сообщения: 

Согласен, у меня та же проблема, хочу менять, но пока жду.

Автор:  alexlp [ 09:08 18.07.2006 ]
Заголовок сообщения: 

Будем ждать вместе, токо возникает такой вопрос, стоит ли покупать первые карты ge8xxx или s600, всё таки не известно на сколько они будут хороши!

Автор:  U-Nick [ 10:47 18.07.2006 ]
Заголовок сообщения: 

alexlp
всё таки не известно на сколько они будут хороши!
А уж-ж питалова потребуют! :eek: Готовь $$ еще и на БП не меньше 600 Вт от супер-бренда.
"... и так он стал миллионером." (старый анекдот)

Автор:  alexlp [ 10:57 18.07.2006 ]
Заголовок сообщения: 

Ну пока не известно правда ли это про 300Вт или лажа. Вполне возможно, что тестовые модели и требуют столько, но производители ведь не будут идти себе во вред, а будут снижать потребление картами энергие. Beta Vista тоже 10гиг занимает, но все говорят и разроботчики в том числе, что будут снижать до 5гиг, всё возможно, но надо пользоваться провереной более менее информацией.

Автор:  M@sTeR!!! [ 10:58 18.07.2006 ]
Заголовок сообщения: 

скока-скока ВАТТ???? 600-это слишком, я намеревался взять 430 от термалтейк!!!

Автор:  alexlp [ 11:19 18.07.2006 ]
Заголовок сообщения: 

Ну 600 — это полный максимум, я думаю 430 хватит, но никто пока не знает реально ли будут карты потреблять 300Вт, помоему просто кто-то из производителей обмолвился о том, что тестовые модели столько едят, но скорей всего это карта от Ati, так как они сообщают, что карты у них уже почти готовы, а что говорить о Geforce, который только ещё чип тестирует. Вполне возможно, что видеокарты нового поколения будут потреблять больше, но цифра в 300вт очень похожа на лажу, у меня сейчас весь компьютер столько не жрёт. А вообщем-то давайте подумаем от чего может произойти такой прирост, что такого изменится в видеокартах...

Автор:  M@sTeR!!! [ 14:29 18.07.2006 ]
Заголовок сообщения: 

Не знаю я не увлекаюсь архитектурой ГПУ.

PS: только что прчитал статью о том что этот блок питания выдаёт не 430, а всего 330 ВТ !!! Так что сижу ищу альтернативу за эти же деньги

Автор:  U-Nick [ 06:56 19.07.2006 ]
Заголовок сообщения: 

alexlp
тестовые модели столько едят, но скорей всего это карта от Ati... — тихо подозреваю, что карту от АТИ можно будет считать эталоном. По всем параметрам.
Форсы кушают обычно поболе АТИшных.
Вопросы выбора БП — в других ветках.

Автор:  alexlp [ 08:45 19.07.2006 ]
Заголовок сообщения: 

Просто тестовых моделей от Geforce нет, они не так давно только чип выпустили, а Ati давно хвастают, что решение для Directx10 у них давно готово! Ладно вот всё равно заглядывать в будущее у нас не получится и всё будет не так как мы предпологаем, тем более у разработчиков появился ещё лишний месяц другой, сам Билл Гейтс сказал, что Vista опять задерживается, а с ним и Directx 10.

Автор:  M@sTeR!!! [ 14:36 21.07.2006 ]
Заголовок сообщения: 

говорят дх10 лучше приспособлен для физики, если взять карту с дх9, то вся физика ляжет на проц?

Автор:  Sikambr [ 14:59 21.07.2006 ]
Заголовок сообщения: 

M@sTeR!!!
Журналисты портала The Inquirer пообщались с разработчиками компьютерных игр и донесли до нас их мнение: видеопроцессоры, предназначенные для работы с DirectX 9, вряд ли станут полноценными физическими ускорителями.

DirectX 9 и Open GL имеют слишком высокую задержку, чтобы корректно работать с физикой. В Windows Vista эта проблема решена, благодаря изменению схемы работы графической подсистемы. Помимо этого DirectX 10 позволит задействовать в сцене множество независимых объектов, добавляя игре реализма и детальности. Если верить обозревателям The Inquirer, с новым DirectX будет куда проще воплотить физическое взаимодействие множества предметов друг с другом.

Пока же игроделы не очень доверяют обещаниям двух графических гигантов, полагая их решение ещё слишком сырым. Возможно, именно поэтому ATI и NVIDIA отодвинули срок представления своих решений для обработки физических эффектов примерно на год.


© Радеон.Ру

Здесь речь об использовании видеокарты в кач. физускорителя. Нагрузка — итак ляжет на процессор, если нет отдельного ускорителя для физики. Я бы пока не ломал голову над этим.
Подробнее тут: http://forum.radeon.ru/viewtopic.php?t=12875&start=240

Автор:  JohnnyMnemoNick [ 15:13 21.07.2006 ]
Заголовок сообщения: 

M@sTeR!!!
Это еще бабушка надвое сказала! Например, АТИ предложила использование дополнительной видеокарты для обсчёта физики в играх.

Автор:  Exet [ 15:19 21.07.2006 ]
Заголовок сообщения: 

Sikambr
Это получается чип R600 выйдет через год?Или я не понял,о чём идёт речь?

Автор:  alexlp [ 15:24 21.07.2006 ]
Заголовок сообщения: 

Но меня ведь это не интересует, я знаю, что нового будет в Directx 10 и понятное дело, что он будет лучше 9, что в нём будет куча инноваций, но мне нужно знать когда, по чём и какую видеокарту покупать!

Автор:  JohnnyMnemoNick [ 15:39 21.07.2006 ]
Заголовок сообщения: 

alexlp

но мне нужно знать когда, по чём и какую видеокарту покупать!

Дык их вообще еще нет! Кто ж вам скажет сколько они стоят и какие будут? :) Как выйдут, скорее всего будут стоить около 500$ или более.

Автор:  Exet [ 15:41 21.07.2006 ]
Заголовок сообщения: 


Но меня ведь это не интересует, я знаю, что нового будет в Directx 10 и понятное дело, что он будет лучше 9, что в нём будет куча инноваций, но мне нужно знать когда, по чём и какую видеокарту покупать!

Когда: Осень — декабрь
Что: Видеокарты на чипе R600 от ATI и на чипе G80 от Nvidia
Цена никому не известна
Эти видеокарты на чипах R600 и G80 будут поддерживать Shader Model 4.0 & DirectX 10
!НО!Чип G80 не будет поддерживать DirectX 9 в отличие от R600.
Выбор за вами.
P.S.Я лично за R600,т.к. он выходит позже,ну и вообще ATI по моему мнению лучше.
P.P.S.Overclocker.ru

Автор:  alexlp [ 15:58 21.07.2006 ]
Заголовок сообщения: 

хватит цетировать оверлокеров! По мойму осень — это уже устарелые данные, ибо Билл Гейтс не уверен в выходе Vista в январе, пока это возможно лишь на 80% (как обычно нашли баг в основе Vista). Разработчики говорят о том, что первые хиты на основе Directx 10 появятся лишь весной, пока идёт переделка старых хитов.
И так, что мы имеем: кучу не провереных данных, типа черезмерное обжорство в 300Вт, неопределена ценовая политика компаний, известно, что должны делать карты на основе Directx 10, но пока нет никаких сообщений о тестовых версиях карт.
З.Ы. кстати именно Ati хвастается, что карты под Directx 10 у них давно готовы, в то время как Nvidia до сих пор тестирует чип. Так кто что когда выпустит?

Автор:  4xan4 [ 16:38 21.07.2006 ]
Заголовок сообщения: 

читаю сейчас все это — думаю поторопился я с компом...
Хотя хз, висту сразу ставить рад 2ухигр — не мое... Вот через года 1,5 поставлю :)

Автор:  alexlp [ 16:53 21.07.2006 ]
Заголовок сообщения: 

Мы кстати не висту обсуждаем, а Directx 10, просто сложилось так, что он без Vista не может. И игр будет не 2, а намного больше. Кстати ради Crysisa, я б всё переустановил, будь у меня видеокарта следующего поколения.
З.Ы. разобрать, что ты написал было очень сложно :eek:

Автор:  Monsterof3D [ 23:22 21.07.2006 ]
Заголовок сообщения: 

А вот про Crysis лучше не надо — все ролики, что гуляют по сети сделаны на двигле под Dx9c!
И что, разрабы будут настолько глупы и не всунут этот вариант двигла в релиз, лишившись
отнюдь немалой доли владельцев карт поддерживающих Dx не старше 9-го?!
Более того, все потенциальные хиты, про которые нам жужат год-два, тоже изначально делались
под Dx9c и только недавно стали осваивать "прелести" 10-ки. Конечно, найдутся желающие выпустить
релиз Dx10-only, но таких будет очень мало и вряд ли мы будем сильно сожалеть о них ;)
А вот через год-полтора после выходы Висты может и появяться игры ради которых не жалко
будет взять какой нть R700 или R800 :D

Автор:  Sikambr [ 23:28 21.07.2006 ]
Заголовок сообщения: 

Exet, АТИ обещает R600 — "через несколько месяцев после выхода NVIDIA G80", а точнее — никто не скажет.
!НО!Чип G80 не будет поддерживать DirectX 9 — кто Вам сказал такую глупость? G80 и R600 — это 100% DX10-решения, но вероятнее всего, они будут обратно совместимы с DX9. О чипе НВидиа пока вообще мало что известно. Видимо, производитель предпочитает пока не делать "утечек информации". Да в общем-то уже "скоро" и сами всё расскажут.
кстати именно Ati хвастается, что карты под Directx 10 у них давно готовы — готовая карта под DX10 пока по слухам есть только у дочерней компании VIA.

Автор:  alexlp [ 08:23 22.07.2006 ]
Заголовок сообщения: 

Monsterof3D, ты, что каждый день видешь игры под Directx 8. Какой нормальный розработчик будет корячится над двумя абсолютно разными по структуре и одинаковыми по смыслу играми. Переход от 9 к 10 будет оканчательным и безповоротным. Не будут ведь разработчики делать игры спецом для твоей карты. Всй, что ты говоришь более, чем правильно. И так вообщем-то надо поступать, если будут возможность, но мир не так идеален, как хотелось бы.

Автор:  paska [ 12:27 22.07.2006 ]
Заголовок сообщения: 

alexlp

Главный вопрос если сейчас уже видеокарты поддерживающие DirectX 10?

Нет, ответ можно посмотреть здесь.

З.Ы. Amd не для меня — очень не надёжные, и пока нет "материнок" для них, с более быстрой памятью!

Аффтар жжот! можно поинтересоваться чем они не надежны?

А главное отличее DirectX 10 от 9 это поддержка shader model 4.0-красота!

главное отличие это его унифицированность. Добавлены геометрические шейдеры...

Ну пока не известно правда ли это про 300Вт или лажа. Вполне возможно, что тестовые модели и требуют столько, но производители ведь не будут идти себе во вред, а будут снижать потребление картами энергие. Beta Vista тоже 10гиг занимает, но все говорят и разроботчики в том числе, что будут снижать до 5гиг, всё возможно, но надо пользоваться провереной более менее информацией.

Давайте представим, что новые GPU будут содержать большее число блоков. ATI пойдет по пути унифицированных процессоров, способных занматься всем и сразу, NVIDIA в G80 пойдет по старой тропинке. тогда получается, что и число потребляемых ватт увеличится. Конечно, энергосберегающие технологии и более тонкий техпроцесс несколько снизят этот показатель, но рост потребления явно будет.
M@sTeR!!!

скока-скока ВАТТ???? 600-это слишком, я намеревался взять 430 от термалтейк!!!

430 Вт для топа явно будет недостаточно, для mainstream вполне, но это уже без потенциала. 500 Вт с небольшим запасом, думаю, будет самое оно
Sikambr
Возможно, именно поэтому ATI и NVIDIA отодвинули срок представления своих решений для обработки физических эффектов примерно на год.
есть сведения из недр ATI (в частности DailyTech несовсем точно прокомментировали слова г-н Ортона). Задержка связана с отсутствием игр, использующих HavokFX. 1-2 игры появятся в конце этого года, массово только через год.
alexlp

ты, что каждый день видешь игры под Directx 8. Какой нормальный розработчик будет корячится над двумя абсолютно разными по структуре и одинаковыми по смыслу играми. Переход от 9 к 10 будет оканчательным и безповоротным. Не будут ведь разработчики делать игры спецом для твоей карты. Всй, что ты говоришь более, чем правильно. И так вообщем-то надо поступать, если будут возможность, но мир не так идеален, как хотелось бы.

Вы, что я по сей день играю в игры под DX8 :shuffle:
Панимаете, есть такое понятие как целесообразность. Вот через годик другой можно клепать сугубо под DX10, а сейчас никак нельзя. Вы, как я понимаю, сразу приобретете DX10-ready видео, а кто-то по экономическим, религиозным и прочим факторам откажется приобретать еще некоторое время новую видеокарту. тогда получается, что если не предусмотреть поддержку DX9, то число проданных копий игр стремится к 0, следовательно разработчики, вряд ли будут испытывать оргазм из-за большого числа проданных копий.

Автор:  Sikambr [ 14:29 22.07.2006 ]
Заголовок сообщения: 

paska
есть сведения из недр ATI (в частности DailyTech несовсем точно прокомментировали слова г-н Ортона). Задержка связана с отсутствием игр, использующих HavokFX. 1-2 игры появятся в конце этого года, массово только через год.
Ссылка на источник из недр АТИ есть? У меня пока информация, что решения АТИ/НВИДИА сырые и карты под ДХ9 не сумеют нормально работать с физикой.

Нет, ответ можно посмотреть здесь.
Как я понял — вопрос был о работающем образце карты, а не о чипе. Чип сделали ещё месяц назад.

Автор:  alexlp [ 15:00 22.07.2006 ]
Заголовок сообщения: 

paska ну и чё это доводит, amd ненадёжные и это факт, так как рабаотают на краю разгона. А игры будут под оба Directx'a, но сколько и сравнить качество картинок будет не возможно. Игры будет объеденять только сюжет и всё. Directx 10 будет лоялен к покупателям новых карт и не будет разницы купили вы карту сразу после выхода или купили следующую линейку, хотя бы поэтому и надо покупать новые карты.

Автор:  student [ 16:59 22.07.2006 ]
Заголовок сообщения: 

alexlp
Почитайте правила, вы нарушаете пункт 2.3:

Ничем не подкрепленные голословные высказывания обобщающего характера (типа "ХХХ отстой" и т.п.) без разумного обоснования своей позиции.

Это я про ваши заявления об AMD.
В остальном согласен с paska :yes:

Автор:  Deathdoor [ 17:03 22.07.2006 ]
Заголовок сообщения: 

alexlp

amd ненадёжные и это факт, так как рабаотают на краю разгона

или докажите (ссылками на нормальные источники), или болше такой бредятины непишите.

student
пока писал, вы уже аналогичное запостили (вон как технологии шагнули :) )

Автор:  paska [ 18:00 22.07.2006 ]
Заголовок сообщения: 

Sikambr

Ссылка на источник из недр АТИ есть? У меня пока информация, что решения АТИ/НВИДИА сырые и карты под ДХ9 не сумеют нормально работать с физикой.
Переписка по ICQ с Ником Радовским устроит? ;)

paska ну и чё это доводит, amd ненадёжные и это факт, так как рабаотают на краю разгона. А игры будут под оба Directx'a, но сколько и сравнить качество картинок будет не возможно. Игры будет объеденять только сюжет и всё. Directx 10 будет лоялен к покупателям новых карт и не будет разницы купили вы карту сразу после выхода или купили следующую линейку, хотя бы поэтому и надо покупать новые карты.

Так, уважаемый, загляните плиз в ветку AMD vs Intel — Битва титанов! (часть 4)
Deathdoor
пока писал, вы уже аналогичное запостили (вон как технологии шагнули :) )
Когда наши корабли бороздили просторы Вселенной...:)

Автор:  paska [ 19:23 22.07.2006 ]
Заголовок сообщения: 

alexlp

не мне стоко читать лень откровенно. Просто качайте видео с thg.ru. Смерть Amd. Када горит, такой запах ванючий от него!

А в курсе, что за этот ролик Тому Пабсу пришлось отчитываться в суде? так что...
Николай Радовский пресс-секретарь ATI в России и СНГ. То есть чел, одним из направлений деятельности которого является общение с прессой. А познакомился с ним, когда тестировал Radeon X1900 XTX

Автор:  student [ 22:11 22.07.2006 ]
Заголовок сообщения: 

alexlp, извините, но все ваши сообщения, это мягко говоря моветон, вы сильно отстали от жизни.

Заканчиваем с оффтопом. Давайте писать уже по делу. Все следующие сообщения не относящиеся к тему будут удалены. :yes:

Автор:  Wivern [ 07:44 23.07.2006 ]
Заголовок сообщения: 

Дааа..... прочитал я тему :—(

student
Пожелание... и предыдущие несколько сообщений желательно удалить. Речь ни о чем...

А вообще если по теме...
Как можно обсуждать то чего нет! Перемывают всем кости как на базаре... вот появится хоть одна видеокарта с железной поддержкой DirectX10, тогда и обсуждать можно... Так что тему вообще закрыть или, как вариант, перенести во флейм (там ей самое место) ИМХО!

Автор:  student [ 12:31 23.07.2006 ]
Заголовок сообщения: 

Тему почистил. Попрошу от темы обсуждения не отклоняться. Все остальное обсуждаем в Привате.

Автор:  Sikambr [ 12:57 25.07.2006 ]
Заголовок сообщения: 

ATI о DirectX 10: унифицированная шейдерная архитектура, технологии игр и видеокарт ближайшего будущего

В настоящий момент DirectX 9 накладывает ряд ограничений для разработчиков 3D-приложений. Каждый персонаж, оружие или материал являются объектами. В 3D-игре таких объектов множество. От приложения до вывода на экран объекты проходят через драйвер и DirectX 9 API (application programming interface), получая каждый раз при этом некий довесок данных в виде управляющих инструкций и настроек для обработки — "overhead".

Соответственно, чем больше объектов, тем больше дополнительных данных, которые нужно обрабатывать... Это ведет к падению производительности. В результате разработчикам игр приходится изрядно постараться, чтобы оперировать таким количеством объектов в игре, которое бы позволяло создавать приличную графику и сохранять при этом FPS на приемлемом уровне. Стэн отметил, что текущее соотношение вычислений, приходящееся на API+драйвер и, собственно, саму игру, составляет 40 и 60 процентов...

API DirectX 10 обладает поддержкой Shader Model 4.0 и предоставляет 32-бит глубину цвета для отрисовки унифицированных пикселей, что должно удовлетворить запросы любого разработчика 3D-приложений. Новый API также позволяет вести обработку физики объектов и аудиоданных. От введения DirectX 10 выиграют и разработчики CAD/CAM-приложений и разработчики спецэффектов.


Если всё правда, то карточки под DX9 будут серьёзно отставать от DX10-ых. Не говоря уже о запуске на них игрулек, рассчитанных на DX10.

Автор:  paska [ 13:49 25.07.2006 ]
Заголовок сообщения: 

Sikambr
давайте читать первоисточники::)
http://www.hkepc.com/bbs/itnews.php?tid ... &endtime=0

Автор:  alexlp [ 14:10 25.07.2006 ]
Заголовок сообщения: 

Человек выложил перевод, что тут такого. Ты б лучше у своих друзей спросил к чему привидёт покупка их Amd (да можно говорить, что это слияние, но 5.4 миллиарда-это тогда за что?). Останется всё по старому или Amd в серьез решила монополизировать рынок.

Автор:  JohnnyMnemoNick [ 15:14 25.07.2006 ]
Заголовок сообщения: 

Sikambr

Стэн отметил, что текущее соотношение вычислений, приходящееся на API+драйвер и, собственно, саму игру, составляет 40 и 60 процентов...

Ну, я не думаю, что будет потеря 50% производительности на картах с поддержкой только DX9-ого. Максимум процентов 20 может и будет, а то и того меньше...

Автор:  Sikambr [ 15:19 25.07.2006 ]
Заголовок сообщения: 

JohnnyMnemoNick, я лично пока не совсем понимаю, как будут работать карты в Висте с DX10, сделанные во времена DX9. Будет частичная поддерка или как. Если всё нормально — то просто не будет части эффектов и немного медленнее. Это благоприятный вариант.

Автор:  alexlp [ 15:28 25.07.2006 ]
Заголовок сообщения: 

Не помойму, просто в режиме directx 9 будут использоваться не вся мощность, часть конвекторов и т.п. Всё частично. Ведь коренного изменения в строении видеокарт не будет, будет лишь коренное изменение картинки, которую видеокарта будет рисовать!

Автор:  Sikambr [ 15:30 25.07.2006 ]
Заголовок сообщения: 

alexlp
Не помойму, просто — если честно, меня больше интересует фактическая информация... ;)

Автор:  alexlp [ 15:33 25.07.2006 ]
Заголовок сообщения: 

Ну прости, мне главное информация. почитай, что требует DirectX 10 и 9, найди 10 отличий в количестве, но не одного в различности деталей!

Автор:  alexlp [ 15:42 25.07.2006 ]
Заголовок сообщения: 

http://overclockers.ru/hardnews/22858.shtml. Только, что нашёл, основной смысл темы "Directx 9 может тоже, что и 10". Выходит ему специально укорачивают жизнь, чтоб из нас выкачать деньжат и не хилых 500-600$, а я не верил!

Автор:  Sikambr [ 16:20 25.07.2006 ]
Заголовок сообщения: 

Подборка из новостных заметок по видеопроцессорам поколения DX10 — ATI R600 и NVIDIA G80 с нашего сайта:

Корреспонденты портала The Inquirer утверждают: первый годный чип G80 произвели ещё пару недель назад, но эту информацию сотрудники Nvidia (пусть и не официально) подтвердили только сейчас. Очевидно, есть основания ожидать презентации нового видеопроцессора именно в сентябре, тем более что инженеры остались довольны своим "первенцем".

Напомним, калифорнийская компания планирует выпустить своё DX10-решение G80 на пару месяцев раньше, чем ATI анонсирует свой R600. К сожалению, архитектурные особенности и рабочие характеристики новинки до сих пор не озвучены. Единственное, что доподлинно известно о G80: он поддерживает DirectX 10 и шейдеры четвёртой версии (SM 4.0), но не обладает объединённой шейдерной архитектурой (по информации источников The Inquirer).

Появилась более определённая информация о количестве конвейеров в чипе NVIDIA G80. Представители The Inquirer уверенно сообщают о 32-х пиксельных, 16 вершинных и геометрических конвейерах. Напомним, что чип ATI R600 будет иметь 64 объединённых конвейера, без деления на специализированные. Это очевидным образом демонстрирует отличия в подходах ATI и NVIDIA.

В это время пришло подтверждение, что фабрика TSMC будет производить будущий флагман ATI R600 по 80 нм технологии. С учётом этой информации можно прогнозировать частоты графического ядра не выше 700-750 МГц и высокое тепловыделение. Кстати, мы уже сообщали о намерении компании сменить систему охлаждения хотя бы на будущих элитных картах на более эффективную и тихую.

Автор:  Sikambr [ 16:22 25.07.2006 ]
Заголовок сообщения: 

alexlp, вы вообще читаете, что пишут в этой теме? Вверху та же самая новость на ixbt, но без "додумываний" от клокеров.

Каков этот загадочный DirectX 10? О нём много говорят и пишут, однако никто не видел его в реальной работе. Да, по сети гуляют видеоролики, показывающие спецэффекты следующего поколения графических «движков», но, если верить сообщению The Inquirer, в настоящее время оборудования, созданного специально для работы с DX10, попросту нет. Что означает — все демонстрационные видео сгенерированы на «старых» видеокартах! Таким образом, если у «игроделов» будет желание, они могут «даровать» возможность эмулировать красивости DirectX 10 на видеоадаптерах предыдущего поколения.

Наверняка видеопроцессоры, разработанные под DX10, будут куда быстрее своих предшественников. И всё же, хочется надеяться, что у обладателей «древних» видеокарт, купленных за каких-то $250-500 этим летом, всё же будет возможность запустить DX10-игру.

P.S. Мы ещё не видали DX10, а он уже успел обновиться до версии DX 10.1!..
© radeon.ru

Автор:  alexlp [ 16:28 25.07.2006 ]
Заголовок сообщения: 

Ну затупил, сразу опустить надо, кстати додумывания вполне полезные для простых юзеров, товарищ модератор!

Автор:  Sikambr [ 16:57 25.07.2006 ]
Заголовок сообщения: 

alexlp
Не будьте мнительным. Просто странно видеть, как одна новость игнорируется, а спустя время то же самое публикуется кем-то как "новое". :)
А будущее DX9-карт в Висте напрямую зависит от действий Майкрософт. Остаётся надеятся, что оно будет благоприятным для нас. Кстати, ведь можно спросить тех, кто уже ставил beta-версию Vista в нашем форуме...

Автор:  Listard [ 18:43 25.07.2006 ]
Заголовок сообщения: 

Я только марк 2006 гонял под Beta2. Артефачит дым на x800GTO с дровами от ATI под Beta2

Автор:  alexlp [ 18:44 25.07.2006 ]
Заголовок сообщения: 

Ну сам напросился, саму Vistu будут поддерживать карты многих серий, точно знаю, что это от Ati x700, x800,x850,x1600,x1900,x1950, а от nvidia 6 и 7 серии. Это кроме тех, которые ещё не вишли. Но они никак не смогут соответствовать 10 directx. Причём эти видеокарты будут поддерживать Vistu полностью, а есть ещё куча карт, которые будут поддерживать Vistu частично! А у тестеров можно спросить, но не 100%, что так будет и в полной версии, тем более, что у вас нет (скорей всего) тестеров последнего билда. Да и в бетке не полностью реализовано решение с 3d окнами.

Пользователям радеонов не везёт, а ведь от дров на Vistu будет многое зависить. Сейчас всё производство Ati работает над картами и дровами для них, ведь именно от них будет зависеть красота картинки. Начинается не только война железа, но и дров для него.
З.Ы. Ati моглиб хоть какой-то, не полный драйвер выпустить. На сайте Nvidia он давно красуется.

для дополнения сообщений пользуйтесь функцией "изменить" (с) Sikambr

Автор:  Sikambr [ 18:50 25.07.2006 ]
Заголовок сообщения: 

Listard, а отличия в скорости работы заметны? Очков-то сколько получилось? Если система ещё стоит — было интересно прогнать пару игрулек разноплановых Doom3 (встроенный тест) и HL2 (тоже встроенный тест)... Интересно, как себя будут чувствовать "старые" карты в нём. :)

Автор:  student [ 13:02 28.07.2006 ]
Заголовок сообщения: 

Денискин
Вы название темы прочитали??(x1900gt не поддерживает DirectX 10 и обсуждаться здесь не будет) Прочтите еще 3 раза, а потом напишите свое сообщение в соответствующей ветке, например в этой: Видеокарты от 200$ до 400$. Выбор и сравнение.

Автор:  PANpredator [ 00:36 29.07.2006 ]
Заголовок сообщения: 

Вобщем-то я попытался потестить игры на своей карточке x700 PRO в Висте с билдом 5456 и DX10. Почти ни одна игра не запускается: то просто не стартует, то пишет, что драйвер проверки подлинности диска несовместим с ОС, то ещё всякую ерунду пишет... Больше намучелся, пытаясь хоть что-то запустить из игр в этой Висте. Вобщем, чем богат, уж не взыщите, всего две игры удалось погонять. На Висту дров не ставил, как были с Виндой, так и есть, на ХР стоит Каталист 6,6 со старой панелью управления и настройками по умолчанию. Везде использовалось разрешение 1024х768 и настройки в играх тоже по умолчанию, лишь везде менял разрешение.

Doom 3, который — Ressurection Of Evil.
Виста — в среднем количество fps получилось 32 с большим разбросом — от 14 до 50 fps. Когда нападают бошки или монстры, fps снижается до 8-6. Если смотреть на стену, то можно получить и 60 fps.
ХР — здесь fps-ы ведут себя стабильно без провалов по минимуму кто бы не нападал и держатся в районе 58-60.

Postal2-ApocalypseWeekend
Здесь практически везде одинаково, лишь опять-таки в Висте больший разброс (40-70 fps), нежели в ХР — 44-65 fps.

Общие впечатления. В Висте всё выглядит как-то неопрятно, стыки текстур — резки и более пикселизованы, нежели в ХР. По стыкам текстур наблюдаются дыры, полигоны как бы плохо состыкованы между собой. Из-за разброса fps-ов играть некомфортно, потому что в ответственных местах оные слишком падают. Каких-то глобальных изменений в общей картине игр я не заметил.

Видимо сравнивать как ведут себя старые карточки под DX10 ещё рановато: сама Виста-то ещё совсем сырая, не говоря уже за DirectX. Да и сама система не даёт запускать игры, да и драйвер на ней тоже ещё не доделан да и отладочные коды везде торчат...

Автор:  Sikambr [ 09:06 29.07.2006 ]
Заголовок сообщения: 

PANpredator, спасибо за информацию! :beer: Как я понял, если только мелкософтовцы захотят, то не станут "опускать старые карточки". Ещё правда слово за игроделами, но они вроде бы не против (если судить по тому же графически мегакрутому Кризис).

Автор:  alexlp [ 11:25 29.07.2006 ]
Заголовок сообщения: 

PANpredator, спасибо. Правда иного результата ты и не мог бы получить! Ты тестируешь систему, а не Directx 10. Без совместимых дров для Vista можно даже не играть. Я ведь уже отмечал, что сейчас Ati кроме доработки чипа и самой карты, вплотную занято дровами!
Sikambr если бы ты был прав. Жаль в будущее не заглянем! Ну, а саму ос будет поддерживать куча карт, я уже отмечал. Плюс выпустят обновленный Directx 9L — на него и остаётся надеятся, как на спасителя наших видеокарт!

Автор:  PANpredator [ 17:20 29.07.2006 ]
Заголовок сообщения: 

Да я не думаю, что будущее столь уж мрачно. Майкрософт, на май взгляд, никогда не откажется от поддержки вообще каких либо карт. Это ж бизнес, и сколько денег тогда они потеряют, если откажут в поддержке стареньких карт?!. Иное дело, что система во всю её графическую навороченность будет еле еле шевелиться. Так они вроде придумали несколько уровней графических наворотов под разные карты и собираются такое воплотить.

А вот игроделы — таки да. Те могут спокойно делать свои игры только под DX10 и всё. Такое уже проходили. А десятка будет устанвливаться только на Висту. И единственно, что всех снова заставят пересесть на эту ОС, волей не волей. Хотя... Некоторые до сих пор умудряются сидеть ещё на Win9x :D

Автор:  alexlp [ 18:44 29.07.2006 ]
Заголовок сообщения: 

PANpredator кстати, чем 98 хуже, просто супер, а занимает 200мб, а камп летает! Ладно это тема другого разговора.
У меня радостная информация, карты для 10-ого не будут столь обжорливыми. Полная информация
http://www.overclockers.ru/hardnews/22895.shtml

Автор:  JohnnyMnemoNick [ 18:46 29.07.2006 ]
Заголовок сообщения: 

alexlp
Ссылка-то не работает :) наверное вот ЭТО оно и есть.

Автор:  Tester [ 17:49 02.08.2006 ]
Заголовок сообщения: 

Подход NVIDIA к реализации DirectX10
Подход ATI к реализации DirectX10
Если с Vertex/Pixel/Geometry Shaders все вроде бы понятно, то как будут выглядеть текстурные блоки (TMU)?
R600 — 64 функциональных блока занимающихся Vertex, Pixel, Geometry Shaders.
А текструрные? Опять 16? И будет ли вообще такое понятие как TMU? :confused:

Автор:  ROMANio [ 12:04 07.08.2006 ]
Заголовок сообщения: 

Вообщем тьма с такими темпами скоро прикроют XP, и всех перетянут силком на vistu.
Я недавно ставил 64 bit XP товарищу, сырой продукт скажу я вам, пришлось откатиться на XP 32 bit.

Причем тут ХР ?! Название темы хорошо читается?!
Edited by Monsterof3D

Автор:  Tester [ 18:21 18.08.2006 ]
Заголовок сообщения: 

Предполагаемые характекристики R600:

65-нм техпроцесс;
32 текстурных блока (TMU);
32 ROP;
64 шейдера (4 x векторных + 1 скалярный);
WGF2.0 Unified Shader;
128 операций с шейдерами за такт или 102,4 инструкций в секунду;
800МГц (тактовая частота ядра);
512Гигафлопс (млрд. операций с плавающей запятой в секунду);
2 млрд. треугольников в секунду;
25,6 млрд. пикселей/текселей в секунду;
256-разрядная шина памяти;
поддержка памяти типа GDDR4 (предполагаемая частота 1.8 ГГц)
Источник: Форум Game-Portal, "DirectX 10. В ожидании выхода"

Думаю, некоторые моменты можно назвать спорными:
частота памяти ниже чем на X1950 XTX (2,0 ГГц GDDR4), :D
техпроцесс 65 нм??? в том же материале указано другое значение — 80 нм. :gigi:
32 ROP's ??? Многовато будет :spy:
частота GPU 800 МГц — думаю не осилят, ведь количество странзисторов преблизиться к 500 млн.

Но в целом материал очень интересный и познавательный :)

Автор:  zero85 [ 19:35 18.08.2006 ]
Заголовок сообщения: 

Tester

512Гигафлопс (млрд. операций с плавающей запятой в секунду);

Впечатляет... :eek:
В PS всего 6 было. :gigi:

Автор:  denis!!! [ 21:17 18.08.2006 ]
Заголовок сообщения: 

Tester
512Мб памяти GDDR4 1,8ГГц
ну это вообще не корректное высказывание. что, память встроена в чип чтоли :lol: Надо писать типы поддерживаемой памяти и диапозон частот, кот. осилит данный чип. А уж какая на плате, буйт зависить от модели платы (про, хт, хтх и т. п. ).
частота GPU 800 МГц — думаю не осилят
ну если 65нм — осилят, но имхо буйт 80. а можь конвеер длиный или ещё что.
zero85
угу, вот бы приспособить дивхы, винрары, 3дсмаксы и т. п. делать расчёты через видюху и проц одновременно :gigi:

Автор:  zero85 [ 00:04 19.08.2006 ]
Заголовок сообщения: 

denis!!!
Кстати, карточек по 65-нм техпроцессу даж в следующем году вродь не будет. R600 будет по 80нм.

Автор:  Tester [ 16:57 21.08.2006 ]
Заголовок сообщения: 

denis!!!
ну это вообще не корректное высказывание
fixed

Автор:  Sikambr [ 11:03 29.09.2006 ]
Заголовок сообщения: 

Windows Vista с точки зрения игрока: предварительное тестирование графических карт

правда там почему-то только 1900 модели

Автор:  b00ze [ 00:17 30.09.2006 ]
Заголовок сообщения: 

Итак, разжились фотосессией G80 ))
С такой видеокартой не только монстров в подземельях отстреливать, с ней ночью на улицу выйти не страшно. Где это видано: 280х127х42 мм? :eek:
Что ж, ждем "ответа" ATI. :yes:

P.S. Tester :beer:
P.P.S. Кстати, кто может мне объяснить: на предпоследней фотке, что за лампочка выпирает жёлтая; наверно я от жизни отстал. :confused:

Автор:  Sikambr [ 00:01 02.10.2006 ]
Заголовок сообщения: 

b00ze, это, наверное, "зуммер", который будет выть при перегреве или проблемах с напряжением.

Автор:  sergey2400 [ 00:19 02.10.2006 ]
Заголовок сообщения: 

b00ze
Вот и ответ ATI http://www.overclockers.ru/hardnews/23366.shtml
Что далеко ходить то.... 33см в длинну и в ширину, сантиметров 6.
ГИГАНТОМАНИЯ какая то.... :gigi:

Автор:  max-sever [ 09:46 02.10.2006 ]
Заголовок сообщения: 

sergey2400 Да уж.

Автор:  Денискин [ 10:30 08.10.2006 ]
Заголовок сообщения: 

Если винда выйдет в январе, как заявлено, то где нибудь мона ее ставить будет летом следующего года, когда нормальная версия выйдет. И игры я думаю поюдут не раньше лета следующего года, а то и позже. Что касается сегодняшних карт, то ведь на них же ставят Vistu и играют нормально, вон яркий пример из какого нибудь сайта взять статью про Vistu, она ставиласть на карты DX9. Так что Х1900 будет летать в играх еще где нибудь как мимимум года 2-3. А это срок не малый. И наверное в следующем году они сильно подешевеют.Так что впринцыпе можно и покупать щас карты под DX9, тока лучше дорогие.

Автор:  b00ze [ 18:15 08.10.2006 ]
Заголовок сообщения: 

Денискин А не проще ли погодить, пока выйдет какая ни будь карта DX10 из миддл енд сегмента? Думаю к лету они будут уже готовы, да и дрова под Висту отладят.

Автор:  denis!!! [ 10:25 09.10.2006 ]
Заголовок сообщения: 

угу, а самый дешёвый хай-энд будет готов почти сразу после выхода самого хай-энда имхо. а ставить висту придётся сразу после выхода crysis :gigi:
летать в играх еще где нибудь как мимимум года 2-3.
моему 9800 3 года. тогда он был самый крутой(учитывая мой разгон). последний год далеко не все игры летают. но я буду ждать самый дешёвый дх10 хай-энд. как тока увижу в прайсах, сразу апгрейд :)

Автор:  denis!!! [ 11:21 14.10.2006 ]
Заголовок сообщения: 

хех, http://www.overclockers.ru/hardnews/23619.shtml шина 512 бит!

Автор:  Asmodeus [ 03:33 18.11.2006 ]
Заголовок сообщения: 

Новая информация о чипе R600: элементы архитектуры, описание дизайна платы.

Автор:  denis!!! [ 22:18 18.11.2006 ]
Заголовок сообщения: 

а вот и инфа про R700.
если это правда, то впору вообще выпускать видео-материнку и втыкать в неё нужные чипы как мы это делаем с процом на обычной материнке :gigi:

Автор:  Asmodeus [ 00:14 19.11.2006 ]
Заголовок сообщения: 

denis!!! Если внимательно прочитать информацию — вполне разумное решение ;) Лично я думал, что такой подход будет применён уже на G80, оказалось не так. Если успешно работают двухчиповые видеокарты, то почему бы и просто не разнести сам чип по модулям на видеокарте. Кстати, не думаю, что это увеличит размер видеокарты.

Автор:  denis!!! [ 01:04 19.11.2006 ]
Заголовок сообщения: 

Asmodeus
конечно, это гораздо разумней экономически, чем просто урезать одинаковые большИе чипы и уж тем более делать кучу разных чипов отличающихся по суте только количеством блоков разных(шейдерных там и т. п.).
просто хотел приколоться, что если теперь унифицировать PCB для всей линейки текущих моделей, то в ней можно делать сокеты для чипов, а чипы продавать отдельно(память ведь раньше так и ставилась на некоторые старые видюхи) :) но тогда к цене платы прибавится цена сокетов :(.

правда как быть с кулерами и водоблоками тогда — новые мега конструкции?? а вообще как-то эта новость противоречит намерениям АМД слить проц и видео (Fusion). тут всё наоборот — разбиение ещё на части :gigi:

а может всё идёт к тому, чтобы вообще лишить саму видюху(которая может и в проц будет встроена) разных шейдерных блоков, а вместо них использовать отдельные чипы — потоковые процессоры?

Автор:  Alexander_ [ 00:08 20.11.2006 ]
Заголовок сообщения: 

извиняюсь может оффтоп

а что так трудно сделать игру с поддержкой ДХ9/10 ведь есть сейчас игры с одновременной поддержкой ДХ7/8/9/,шейдеров 1,2,3,Д3Д/ОГЛ???

Автор:  Asmodeus [ 00:12 20.11.2006 ]
Заголовок сообщения: 

denis!!! Ну, а что. Лично я был бы только за создание некоего подобия M/B со своими сокетами на непосредственно на плате видеокарты. Тогда бы потребитель был в выигрыше — не так часто приходилось бы менять саму плату видеокарты — заменил видео-потоковою-память, заменил GPU, поставил в помощь GPU какой-нить Sony Сell — вот нам и плавный планомерный апгрейд ;) . А на материнской плате — свой апгрейд, к примеру с пощью добаления сопроцессора для специализированных задач в помощь GPU. Да и истории свойственно двигаться по спирали — вот только достал из своего стола древнюю S3, прошу обратить внимание на обилие свободных сокетов:
    Изображение

Автор:  Asmodeus [ 00:16 20.11.2006 ]
Заголовок сообщения: 

Alexander_ Оно может быть и легко. Вот только кто будет платить разработчикам за нормо-часы, потраченные на написание дополнительного кода? Да и подход в 10ом DirectX несколько уж совсем отличный от предыдущих с учётом полной программируемости шейдеров. Опять же — время разработки увеличится в разы, что не понравится тем кто платит программистам, текстурщикам, дизайнерам и прочим. А они спешат выжать из них максимум в самые короткие сроки и как можно быстрей получить прибыль.

Автор:  Sikambr [ 00:56 20.11.2006 ]
Заголовок сообщения: 

Asmodeus, ну, не надо рассуждать о программистах и т.п., т.к. никто из нас игрулины не рисует. :) Если будут удобные средства разработки, чёткие стандарты и проще делать оптимизацию — то всё замечательно.

Автор:  Asmodeus [ 00:25 22.11.2006 ]
Заголовок сообщения: 

Sikambr У меня был некоторый опыт в рисовании (не скажу на кого — ком.тайна :( ) — текстурировании для игр: "гонят, быстрей да быстрей — сделать качественно просто не успеваешь, а ведь некоторые текстуры нужно создавать самому или хотя бы умно и реалистично сделать на базе других. Вот когда для себя — для души, то таки да. Программисты ругались на то же самое. Дело в том, что работодатели, как правило, не хотят нанимать достаточное количество квалифицированных разработчиков, что бы каждый из них имел время на действительно шедевральные вещи, а вот выпустить в сжатые сроки продукт, изрядно его пропиарив заблаговременно — это завсегда. Вот и выходит однозначный и шаблонный продукт с недоведённым кодым и стандартными решениями.

Автор:  Sikambr [ 00:45 22.11.2006 ]
Заголовок сообщения: 

Asmodeus
Ну, не путай — одно дело любитель-одиночка, а другое — коммерческая фирма с проф. художниками и программерами. :) Про "последнее время выходит всё больше скучный ацтой вместо игр, на которые не жалко потратить время" — спорить не буду. =)

Автор:  denis!!! [ 10:43 22.11.2006 ]
Заголовок сообщения: 

Asmodeus
да вот я постом выше именно такие слоты и имел ввиду :) да у самого таких штуки 2 валялось и куда-то затерялись :spy:
насчёт разработчиков — да, придётся тратить больше денег на разработку ДХ9/10. Но если сделать только 10, то стопудово они продадут меньше игр, т. к. во-первых имхо дх9 видюхам ещё жить как минимум год, во-вторых не все поголовно перейдут сразу на висту. да и с консолями — ещё PS2 не умерла.
ну тратили ж деньги и в течении не одного года на поддержку в играх ДХ8/9, а то и 7. ну а от сыроватости и глючности потом патчи можно выпускать :gigi:

Автор:  Asmodeus [ 03:17 23.11.2006 ]
Заголовок сообщения: 

Sikambr Иногда сравниваешь творения "любителей-одиночек" и "коммерческих фирм с проф. художниками и программерами" — шо то сравнение явно и далеко не в пользу последних — решения чисто страндартные и явно без души. ... -непечатная игра слов- о профессиОналах... а ведь на таких древних DX и движках можно было такие реалистичные вещи ваять! :mad: Всё завязываю с ОФФом — за живое просто взяло. Прошу прощения. :shuffle:

denis!!! :yes:

Автор:  paska [ 15:35 24.11.2006 ]
Заголовок сообщения: 

denis!!!

если это правда, то впору вообще выпускать видео-материнку и втыкать в неё нужные чипы как мы это делаем с процом на обычной материнке

Пока рано говорить о чем-то таком. Если это и будет то очень не скоро, то что есть (тепроцесс) не может позволить себе такой реализации. необходимо обеспечить крайне низкие задержки или высокая суммарная мощность микроядер, чтобы ликвидировать спад производительности. Предположим, у нас есть 8 микроядер, управляющая логика, каждое из ядер содержит допустим 32 АЛУ. Что будет дешевле. Произвести плату с 8x32 или с одним чипом 256 АЛУ. Я уверен, что 256 АЛУ будут производительней. Да, чуть дороже производство (при условии выхода годных чипов 100%), но в первом случае увеличивается сложность разводки PCB.

А про nVidia я вообще смеялся. G80 и так содержит 681 млн. I/O это еще 50 млн. дорогое удовольствие при производстве чипа. Здесь скорее вынужденная мера, а не какой-то инновационной подход

Автор:  paska [ 19:29 24.11.2006 ]
Заголовок сообщения: 

S3 Graphics представит графический процессор XE1 с восемью GPU и поддержкой DX10.1

Автор:  Asmodeus [ 23:14 25.11.2006 ]
Заголовок сообщения: 

Первые фотографии R600 (Roden).
Изображение

Автор:  denis!!! [ 23:40 25.11.2006 ]
Заголовок сообщения: 

хм.. а вот ещё упоминается PCI-Express 2.0, а будет ли у него обратная совместимость?? (2.0 видюхи в в обычных мамах(ну при невысой мощности питания) будут работать и наоборот? )

Автор:  Asmodeus [ 00:04 26.11.2006 ]
Заголовок сообщения: 

denis!!! Полагаю что такого куска пирога как ПК со старой PCI-E производитель не упустит. Да и особых сложностей в реализации обратной совместимости вроде как нет ;)

Отпостился в ветке на оверах. Там народ усиленно ноги считает :lol: .

Автор:  denis!!! [ 01:45 26.11.2006 ]
Заголовок сообщения: 

Asmodeus
хорошо бы, тогда это типа как совместимость агп 8х 4х 2х.
Там народ усиленно ноги считает
:up: :lol:

эхх, подкинул бы кто-нть денех S3 — щас бы 3-й игрок на рынке игровых видюх был бы :up:

Автор:  paska [ 15:37 26.11.2006 ]
Заголовок сообщения: 

denis!!!
Насколько знаю нет, напряжение будет другое. Хотя реализовать технически возможно. Вот только нужно ли?

Автор:  sfirius [ 17:33 26.11.2006 ]
Заголовок сообщения: 

:)

Решил купить новые железки...

и появился вопрос , если сейчас купить материнку с crossfire , взять видео x1600 , в последствии через пол годика взять R600 , можно ли их обьединить в crossfire режим ( R600 — 3D , x1600 — физика) или или

Автор:  denis!!! [ 19:44 26.11.2006 ]
Заголовок сообщения: 

sfirius
Вот только нужно ли?
странный вопрос. конечно нужно! не менять же материнку из-за этого. ну или выпускать 1-е время только топовые мощные модели с 2.0(которым это действительно необходимо), а остальные 1.х. напряжение — не отмазка, для того компу и POST чтобы договориться всем компонентам с друг другом в том числе и по напряжению можно :gigi:

Автор:  Asmodeus [ 00:10 27.11.2006 ]
Заголовок сообщения: 

Не думаю, что у X1600 — сильные возможности в физике. Вот X1950XTX или даже X1950pro — це да.

Автор:  paska [ 00:09 29.11.2006 ]
Заголовок сообщения: 

denis!!!

странный вопрос. конечно нужно! не менять же материнку из-за этого. ну или выпускать 1-е время только топовые мощные модели с 2.0(которым это действительно необходимо)

Ну я про первое время и топовые продукты и говорю :).
Asmodeus
Шейдер на X1600 XT с той же операцией что и на PsysX выполняется в три раза быстрее. Для физики должно хватить, тем более что вся физика от Хавок по большей части "визуальная", направленная на внешний вид, а не на реализм действия. Да, кстати, уже конец года а игр как не было так и нет. Чувствую, что не все так гладко, как хотелось бы

Автор:  Asmodeus [ 10:04 29.11.2006 ]
Заголовок сообщения: 

paska Ну что ты — всё очень гладко — денюшки-то продавцам железа и его маркетологам капают исправно ;) :gigi:

Автор:  denis!!! [ 22:17 29.11.2006 ]
Заголовок сообщения: 

вот интересный скриншотики Ну из реально нового я вижу только дисплейсмент(ну наконец-то! а то простой бамп-маппинг уже задрал :gigi: ) и море там классное. остальное и с 2-ми шейдерами вроде как можно устроить.
не думаю также, что всё это в полной мере рескроется крайзисом, ведь его и под 9-й ДХ делать должны. Имхо ещё годик ждать, чтоб в такое поиграть :) С такой графикой как 6-м марке-то до сих пор игр-то не особо, хотя как раз примерно такие как тест про проксикон :)

Автор:  Asmodeus [ 07:37 30.11.2006 ]
Заголовок сообщения: 

Хех. Когда же основательно паралакс внедрят? Ведь очень симпатичная вещь.

Автор:  denis!!! [ 11:42 30.11.2006 ]
Заголовок сообщения: 

Asmodeus
да вроде есть любительские патчики для кваки ;) и на 2-х шейдерах работает. вот тут можно и самому с ним поиграться :gigi:
вот-вот, до сих пор не внедряют даже то, что возможно на 2-х шейдерах а сами уже 3-и юзают.

Автор:  Monsterof3D [ 00:07 13.12.2006 ]
Заголовок сообщения: 

Свежая ревизия чипа R600 работает на частоте 800 МГц
Большое количество очень хороших известий!
Особенно порадовали потребление — не более 100Вт — и размеры — не более Х1950ХТХ :up:
А если и впрямь будет использована GDDR3 вместо ранее обещаной GDDR4, то и цена будет не хуже
конкурента в лице G80.

Автор:  denis!!! [ 17:46 14.12.2006 ]
Заголовок сообщения: 

AMD R600 и R700: что в имени тебе моём?...
Весьма любопытные сведения о названиях еще не вышедших графических решений AMD (ATI) опубликовал сегодня интернет-ресурс Hexus.net.
В частности, стали известны имена продуктов семейства R600. Наиболее производительный из них, R600 XTX, как оказалось, назван разработчиками "Dragon's Head", второй по значимости, R600 XT — "Cat's Eye", а самый урезанный, R600 XL — "UFO". Оригинально — не правда ли? :) При этом отмечается, что изделие с приставкой XL, в отличие от двух других решений, станет доступно не в день официального представления R600, а несколько позже (скажем, через месяц).
Что интересно, несмотря на отсутствие каких-либо данных о характеристиках или сроках выпуска, вышеупомянутый источник сообщает и о названии R700, которое, якобы, звучит, как "Wekiva".

Ещё не видели р600, а уже о 700-м гадают :)

Автор:  Asmodeus [ 01:11 31.12.2006 ]
Заголовок сообщения: 

Ссылочка с оверов из нашего форума <<ATI OverClan>>

amdfan

Member

Зарегистрирован: 01.07.2005
Откуда: москва
31.12.2006 1:20

Тема: R600vsG80 первые тесты!!!

http://level505.com/2006/12/30/the-full ... 00-test/1/
Главное это то что Р600 быстрее! но не очень значительно за исключением Обливиона где 8800ГТХ таки порвана. Вполне возможно что в более высоких резрешениях АТИ уйдёт в отрыв..
Вот спеки карты на Р600

The R600 Specs are:

64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

32 TMUs, 16 ROPs

512 bit Memory Controller, full 32 bit per chip connection

GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)

Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4

Consumer memory support 1024 MB
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
32FP internal processing
Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)

Hardware DVI-HDCP support (High Definition Copy Protocol)
Hardware Quad-DVI output support (Limited to workstation editions)
230W TDP PCI-SIG compliant
_________________
U2 навсегда! —= Воин AMD OverClub =—
In the na-a-a-me of love What mo-o-re in the name of love In the na-a-ame of lo-o-ove...
Спасибо, amdfan, от души порадовал :up: :beer: :vodka:

Собственно этого и ждал ;) Не совсем правда понятно — как там обстоит сравнение в тяжёлых режимах с максимальной анизотропией и максимальным сглаживанием — имхо в этом случае R600 должен ещё раз порвать G80 из-за большей разрядности памяти ;)

Автор:  Asmodeus [ 03:10 01.01.2007 ]
Заголовок сообщения: 

Изображение

Автор:  MikeIS [ 03:35 01.01.2007 ]
Заголовок сообщения: 

level505.com какой-то странный сайтик, там кроме теста R600 ничего нет или я плохо вижу.....насколько достоверен ресурс???

Автор:  Asmodeus [ 16:39 01.01.2007 ]
Заголовок сообщения: 

MikeIS Говорили, что сайт специально для этих тестов сделали — ну и шифруются ребята, не хотя отвечать за преждевременный слив информации, ИМХО ;) Вообщем, оно конечно не факт, что это не фейк, но ИМХО шибко на правду похоже. Лично меня amdfan убедил ;)
Кстати, ИМХО не факт, что в меньшем разрешении и при более лёгких настройках, к примеру с отключенным AA, отрыв не будет менее значительным — всё таки 512Bit память что-то значит, пусть даже и DDR3, на которой проводилось тестирование.

Автор:  MikeIS [ 18:12 03.01.2007 ]
Заголовок сообщения: 

Очень интересно

Состоявшаяся в последний день прошлого года утечка информации о характеристиках видеокарты на базе чипа ATI R600 и её быстродействии в последующие дни получила большой общественный резонанс. Американским коллегам с сайта DailyTech, например, удалось связаться с владельцами загадочного сайта, на котором появились результаты тестирования R600. Как выяснилось, два человека из числа основателей сайта имеют непосредственное отношение к AMD. Странное нежелание авторов обзора публиковать какие-либо скриншоты и фотографии видеокарты, объясняемое якобы глубокой конспирацией, до сих пор настораживает читателей.
....и немного печально

Перенос анонса R600 на март, если он состоится, не повлечёт больших потрясений для партнёров и инвесторов AMD: фактически, компания обещала представить новый флагманский видеочип в первом квартале 2007 года, и март ещё относится к этому периоду. Выставка CeBIT 2007 начнётся 15 марта, и это будет подходящее место для презентации новых графических решений. NVIDIA, судя по всему, точно воспользуется таким шансом для анонса графических новинок.
....опять ждать и ждать....

Автор:  Deathdoor [ 18:44 03.01.2007 ]
Заголовок сообщения: 

MikeIS

....опять ждать и ждать....

зато я полностью согласен с коментами к этой статье. Драйверов нет, DX10 нет, а главное, игр под DX10 нет. Так зачем сейчас такая видяха??????

Автор:  MikeIS [ 19:47 03.01.2007 ]
Заголовок сообщения: 

Deathdoor
Да меня другое беспокоит:
30 января релиз Висты => где нибудь в конце февраля проявиться 10 директ (если не ошибаюсь, то 9.0Л для ХП).
Пусть в марте появиться решение Р600, но это же флагман, а когда же тогда проявятся карточки среднего и нижнего сегмента? (8800 уже во всю распродается, но что-то я пока не слышал об остальных решениях)

P.S. Я собираюсь машинку менять, есть огромное желание поставить среднюю карточку в новый компик. У меня нет желания ставить 1650 серию (или 1900ГТ) на время, т.к. нет ничего постояннее временного.

Автор:  Asmodeus [ 23:25 03.01.2007 ]
Заголовок сообщения: 


если не ошибаюсь, то 9.0Л для ХП
Нет — 9.0Л то же для Висты — нечто вроде эмулятора для не поддерживающих DX10 карточек — что бы приложения DX10 вообще на них запускались. Для XP некрософт не обещало обновлений DX :(

Автор:  Raiden1000 [ 22:03 06.01.2007 ]
Заголовок сообщения: 

Блин с такими темпами все перейдут на 8800, так как деньги есть сейчас и тратить их хочется сразу, а не ждать черте-сколько. Меня вот что интересует — что за разговора про возможность использовать старую карту (например как моя 1900GT) в паре с новой как физический ускоритель? Они это серьезно? А то жаба душит тратить на Ageia 300 уе, а UN3 Engine уже готов.

Автор:  Volodimir [ 22:11 06.01.2007 ]
Заголовок сообщения: 

Во-первых $150.
Asmodeus
Результаты ЭТИХ тестов существующих карточек _не_ компарабельны с официально получаемыми тестерами видеокарт в конце года 2006.
И зачем так вызывающе занижать результаты, выдаваемые GeForce 8800 GTХ ?? Кстати, а не виновата ли платформа (небыстрая) у этих анонимных тестеров (и настройки панели управления драйверами видео), уж больно всё шито белым?

Автор:  Asmodeus [ 00:55 07.01.2007 ]
Заголовок сообщения: 

Volodimir Добро пожаловать в веточку на оверах. Там уже много копий сломали, в том числе и про отличительные моменты официальных тестов, особенно на хоботе, в том числе и про их отличные и разные настройки и специальные демы ;) Даже графики там есть. А повторять всё сначала шибко не хочется :no:

Автор:  Raiden1000 [ 13:23 07.01.2007 ]
Заголовок сообщения: 

Volodimir — ну вообще с 8800 не все так радужно, конечно это самая быстрая карта сегодня, но очень много зависит от самой игры. Кроме того, надо иметь ввиду, что если говорим о Fear, то его встроенный тест отличается по fps в 1.5 раза в большую сторону от самой игры.

Автор:  Asmodeus [ 00:47 09.01.2007 ]
Заголовок сообщения: 

Платы на базе видеочипа R600 будут демонстрироваться на CES 2007.

Автор:  Asmodeus [ 14:51 10.01.2007 ]
Заголовок сообщения: 

R600: эскиз видеокарты, сроки и особенности анонса

Видеочипы R630 и R610 выйдут в текущем полугодии

Автор:  Asmodeus [ 01:31 20.01.2007 ]
Заголовок сообщения: 

Видеокарты на базе R600 будут иметь не менее четырёх разновидностей.

AMD начнёт размещать заказы на выпуск RV630 и RV610 в июне.

Автор:  MikeIS [ 09:59 25.01.2007 ]
Заголовок сообщения: 

Флагманская версия Radeon X2800 (R600) будет иметь длину 340 мм

Они также добавили, что серийные видеокарты этой модели будут иметь длину 340 мм. Кулер так же будет вынесен за пределы печатной платы, в задней части видеокарты будет предусмотрена ручка, являющаяся одновременно упором для крепления платы в корпусе системного блока. Обычно в передней части системных блоков (в районе корзины для жёстких дисков), рассчитанных на установку профессиональных видеокарт увеличенной длины, предусмотрены соответствующие крепления — "двухсторонняя" фиксация длинной видеокарты обеспечивает более высокую степень жёсткости. Расстояние между такими креплениями и задней панелью корпуса системного блока как раз равно 340 мм, так что винить в достижении видеокартой Radeon X2800 XTX соответствующей длины систему охлаждения нет смысла. Длина увеличена до 340 мм ради соответствия стандартам.
Пойду корпус замерю, просто интересно, сможет ли такое чудо туда влезть :eek:

Автор:  student [ 11:26 25.01.2007 ]
Заголовок сообщения: 

Такими темпами, не видеокарточки в материнки будут вставляться, а наоборот. :lol:

Автор:  Asmodeus [ 00:25 26.01.2007 ]
Заголовок сообщения: 

Раньше говорили — "пойду куплю Невидию, большую и красивую" теперь такое будут говорить про ATI :D
Времена меняются, однако. Главное — что бы производительность соответствовала нашим надеждам, а данный длинный кулер скорей всего ждёт судьба красного кулера X1950XTX — откажутся от него партнёры AMD ;)

Они бы лучше телескопические подставки делали под такие карточки — шоб они в дно корпуса упирались и видеокарты шоб не прогибались под тяжестью медных радиаторов, а не такие сомнительные крепления ;)

Хотя вполне возможно — длина самой топовой видеокарты из этой серии носит маркетинговый характер — см. цитату в верхнем посту. Мне кажется большинству из тех кто себе позволит приобретение такой карточки длина будет также предметом гордости — типа "большому мужчине — большой кольт", и будут они пихать сие творение в корпуса с окнами с обилием неоновой подсветки :lol:

Автор:  ivb [ 00:56 26.01.2007 ]
Заголовок сообщения: 

student :up: :D
У меня немного другие данные (откуда — не скажу ;)) — длина платы в окончательном варианте — примерно 230-240 мм.

Автор:  student [ 13:18 26.01.2007 ]
Заголовок сообщения: 

ivb
Ну вообщем-то это и по эскизу видно. В
розницу понятное дело такие монстры не пойдут(или пойдут, но будет и другие варианты), не в каждый корпус влезет. А вообще это хороший маркетинговый ход для подогревания интереса публики к новой линейки видюх (наподобие анонса iPhone от Apple)..

Автор:  Volodimir [ 15:56 31.01.2007 ]
Заголовок сообщения: 

Raiden1000
Не, 8800 — карточка просто супер (тихая и смертельно быстрая), надо только поставить новые дрова, PureVideo, RivaTuner Final (управление вентилятором). Например, поставка от MSI включала двойной штатный разгонщик видяхи, за это особый респект.

Смущают немного результаты, приведённые с особым триумфом (но в гордом одиночестве, без конкурентофф, ЗАМЕТЬТЕ) 8800_SLI в тесте Crysys под DX10. Свежо преданьице ...

Страница 1 из 1 Часовой пояс: UTC + 3 часа
Copyright © 2001 - 2012, Radeon.ru Team
Powered by phpBB® Forum Software © phpBB Group
http://www.phpbb.com/