Конференция работает на сервере Netberg

Radeon.ru

Конференция Radeon.ru

Страница 57 из 57 [ Сообщений: 2254 ]  Версия для печати [+] На страницу Пред.  1 ... 53, 54, 55, 56, 57
Показать сообщения за  Поле сортировки  
А конкурентов то нету за эти деньги и при таком малом тдп (что важно для апгредов в старые пк).
О конкуренте от АМД даже слухов нету, причём не то что для 5050, но даже 5060.
А нвидиа уже светит козырем на будущее — очевидные суперы с 3гиговыми чипами памяти вместо 2гиговых
Так и 5050х нету пока.
Выйдет все ее протестят как следует, пощупают в реале, поймут плюсы-минусы тогда будет понятно, какие нужны конкуренты и нужны ли. Или какой-нибудь свежий Arc 580 декабря 2024го уделывает ее в хвост и в гриву.

3 гиговых чипов для 5050 скорее всего и не будет в природе.
Для карт уровня 3060/4060 12 гигов кмк скорее бесполезны. Rtx 3050 Super не было. Сразу надо было с 12ю выпускать если было желание.
А остальные суперы будут в следующем году и к весне местные только цены станут понятны. До этого еще дожить надо.

-- Добавлено спустя 3 мин 35 с --
Ну и сама идея выпускать карты уровня середнячков 2х летней давности небесспорная. Вряд ли они дают большую прибыль. RTX 4050 например для десктопов не было и норм.



О конкуренте от АМД даже слухов нету, причём не то что для 5050, но даже 5060.



Во-первых были слухи в мае
https://gamegpu.com/%D0%B6%D0%B5%D0%BB% ... naya-shina

В интернете появились фотографии инженерного образца видеокарты AMD, которая, по предварительным данным, относится к бюджетной модели Radeon RX 9050 из будущей линейки RDNA 4. Утечка включает изображения самой платы и снимок экрана с утилитой GPU-Z, подтверждающей ключевые технические характеристики.


Что-то возможно и делают.

Во-вторых.
А чем кстати 9060XT 8Gb не конкурент 5060 8Gb?
Рекомендованная цена 1:1 300$.
И по производительности она не хуже.
https://www.techpowerup.com/review/powe ... gb/33.html

От 3% до 17% лучше в зав-ти от разрешения чем 5060 при одинаковой рекомендованной цене. Что тогда конкурент, если не это???

-- Добавлено спустя 1 ч 39 мин 37 с --
Тем временем новости о ценах на 5050.

https://3dnews.ru/1125429/raskriti-ross ... yudgetnaya

Что касается цен, то они начинаются с отметки в 27 999 рублей и достигают 30 999 рублей. Напомним, что рекомендованная цена GeForce RTX 5050 в США составляет $249 или примерно 19,6 тыс. рублей по курсу ЦБ. Заметим, что в другие крупные магазины пока не выставили товарные карточки для RTX 5050 — скорее всего это произойдёт уже на старте продаж, который ожидается позже в этом месяце.


Пока не видно чем 5050 лучше 4060, подождем полных тестов со свежими DLSS-ами.
Естественно 5050 не фонтан, я не о том.

Arc 580 — tdp 185 Вт. На этом собственно с ней уже всё, даже не вспоминая говнодрайверы. А также требуется поддержка resizable bar процессором и материнкой.

Про те слухи чаще писали что это 7400/7300.

Тем что 9060XT конкурент 5060ti. А по ценам 5060 заметно дешевле и в европейских магазинах.

Главное 4060 уже снята с производства, потому лучше она или хуже 5050 скоро иметь значения не будет.

Arc 580 — tdp 185 Вт. На этом собственно с ней уже всё


Ну а "народная" Rtx 3060 2021го года 170 Вт. Это 2 поколения назад. Если БП меньше 450Вт то это офисный комп и незачем его мучать. Он для игры в эксели и 3х героев. Ну может еще в серьезного сэма, обливион и в первый скайрим без модов.


также требуется поддержка resizable bar


Ну вот это аргумент, это неприятно. Значит та часть, кто в древний комп собрался втыкать новую карту будут смотреть в сторону других карт. Rx 7600/7600XT например.


Тем что 9060XT конкурент 5060ti.


Это 16 гиговая. А 8 гиговая вполне себе конкурент 5060.
https://www.ixbt.com/news/2025/06/05/ra ... -5060.html

Radeon RX 9060 XT с 8 ГБ памяти не оставляет шансов GeForce RTX 5060 при равной цене


ixbt считает что у 5060 нет шансов, а Вы говорите "нет конкурентов". Мнения как-то слишком разошлись.


А по ценам 5060 заметно дешевле и в европейских магазинах.


А при чем тут европейские, бразильские и австралийские магазины?
Я в РФ живу тут разница между ними примерно 1-2 похода в магазин за продуктами.
AMD отпускает чипы исходя из рекомендованных цен, если какой-то рынок оценил 9060 xt 8гб немного дороже чем 5600, это значит что AMD хорошо работает, а не наоборот.

-- Добавлено спустя 14 мин 55 с --

Главное 4060 уже снята с производства


Покупатель приходит в магазин, а не на завод, пока 4060 есть в продаже по хорошим ценам она будет рассматриваться. Вот когда через 3 года она кончится в магазинах и на складах и пропадет из продажи или взлетит в цене, как антиквариат, тогда и будем смотреть, а какие у 5050 альтернативы кроме 4060. Вполне возможно к тому времени и rx radeon 11050 будет продаваться.
О чём спорите?
Я написал Arc 580 — с ограничениями, и вы пишите что с ограничениями.
Я написал что 9060 XT с 8 ГБ дороже чем 5060 (что в РФ что в Европе) — и вы это подтверждаете.

Я исхожу из того что самую младшую видеокарту берут в бюджетные сборки и апгрейды старых ПК (где и условному БП 550ВТ уже 7+ лет).
А вы похоже что делаете акцент при сборке новых ПК с нуля, где бюджет позволяет брать и что-то получше.

В статистике стима кстати 5060 (как и все 5ххх) уже есть, а вот 9ххх там нету до сих пор. Что как бы намекает на выбор покупателей.

О чём спорите?


О том есть конкуренты от AMD у 5060 или нет. Вы говорите что нет, а я считаю что есть.
10-15% разницы в цене карты и 3-5% в стоимости всего компа, это не значит, что карты не конкурируют по цене.
Это значит, что рынок работает, и та карта, что лучше — стала дороже.


В статистике стима кстати 5060 (как и все 5ххх) уже есть, а вот 9ххх там нету до сих пор. Что как бы намекает на выбор покупателей.

Скорее на рукожопость команды развития и поддержки стима. AMD c весны рапортует о сотнях тысяч проданных карт, ретейлеры рапортуют о тысячах проданных 9070/XT, я сам играю в с включенным стимом на 9070XT вторую неделю, а стим про них не в курсе. Либо они их тупо игнорят, либо сыпят в "Other", "AMD Radeon(TM) Graphics" или "AMD Radeon Graphics". Скорее первое.

Как говорится, есть ложь, есть наглая ложь и есть статистика.
по статистике стима CS2 лучшая игра в мире а 4060laptop и 3060 лучшие карты. Миллионы пользователей не могут ошибаться,

-- Добавлено спустя 5 мин 2 с --
Насколько я помню, стим явно предлагал опрашивать состав железа у пользователя. И в этому году у себя я такого запроса не видел. Значит с точки зрения стима я продолжаю играть на 3060Ti или вообще на интеловской встройке от Core i9. Мне не жалко.
Если он появление RTX50 замечает а RDNA4 нет, значит кому-то это было нужно.

-- Добавлено спустя 25 мин 32 с --
Ну вот тоже намекают на выбор стима не исправлять баги, мешающие им видеть 9070
https://www.reddit.com/r/radeon/comment ... ure_steam/

И сколько еще таких разнообразных багов, которых еще никто не нашел в этой кривой поделке под названием "статистика стима"? Тезисами про "их слишком мало потому не видно" в статистике можно ведь оправдать все что угодно.

-- Добавлено спустя 1 ч 41 мин 46 с --
Steam пишут что они видят 69 миллионов активных юзеров в день.
И дают данные с точностью до 0.01%.
0.01% это 6900 пользователей.
Что, они хотят сказать что нет 7К пользователей 90x0 в мире?
Ну это очевидная ложь.

-- Добавлено спустя 1 ч 55 мин 11 с --
Один только Амазон продал 5300+ карт с rdna4 только за июнь (9070XT+9070+9600XT), а 9070/XT продаются c марта
https://wccftech.com/geforce-rtx-5070-t ... -gpu-list/
За все время Амазон наверняка тысяч 10-15 продал уже rdna4. Все скрываются от статистики стима? И таких амазонов в мире десятки.

4060laptop и 3060 лучшие карты. Миллионы пользователей не могут ошибаться,



Не лучшие, а самые распространённые, тк выбирают лучшее в определенной бюджетной нише, а не в целом по линейке карт.
Ну так по логике "статистика показывает что восстребовано" , раз их выбирает больше народа, значит они лучше. А те карты и игры, которые выбирают мало народа значит плохие и проблемные, слишком дорогие, глючные и т.п.. Никто же себе не враг, плохое себе не выберет.

-- Добавлено спустя 9 мин 18 с --
А иначе, если статистика не показывает все лучшее, то нафиг она нужна конечному юзеру типа нас?
Она может нужна разработчикам игр, чтоб спланировать, какой процент часов тестирования на каких картах потратить, чтоб снизить вероятность бага и/или под какой уровень карт делать играбельную графику. Какие эффекты и технологии включить, какие нет.
Вот допустим есть видеокарта А за 300$. Она лучшая из лучших, в том числе по количеству кадров за 1$.
А у человека есть максимум 200$. Что ему до видеокарты А, на неё нет денег. Он вынужден будет выбирать среди видеокарт за 200$ +-5%. Логика ясна?

И раньше в топах были 1050, 1650, 1060, rx470/570, а не что-то из старших карт.
Если "у него его есть максимум 200$", то он не может "выбирать среди 200$ +-5%" потому как 200+5% = 210 > 200. Логика не должна противоречить арифметике.

Кроме того, не верю в существование людей, у которых "есть максимум 200$" и которые их готовы потратить на видеокарту. Человек, потерявший источники дохода, который не сможет к 200$ через месяц чего-то доложить, точно не будет тратить последние деньги на видеокарту. Он отложит их на пельмени и чай и будет искать работу.

А если человек может к 200$ через месяц доложить 20$ и купить карту на 10% лучше (или вместо Palit-а — MSI/ASUS), которая сейчас есть на рынке, то существенный процент так и поступит.
А вот если надо доплатить 20-30% то уже вероятность сильно ниже.

-- Добавлено спустя 1 ч 11 мин 34 с --

И раньше в топах были 1050, 1650, 1060, rx470/570, а не что-то из старших карт.

Ну то есть никогда статистика стима и не имела никого отношения к относительному качеству карт на тот момент,
Когда вовсю продавались 1070/1080 а потом уже и 2070е, в топе стима с большим отрывом лидировали 1060 3Gb и 1050Ti 4gb
https://www.youtube.com/watch?v=yZN_whA-c3Q

Топы стима это всегда был ширпотреб нижнего (в лучшие годы среднего) уровня, покупая который, можно было быть уверенным максимум, что если сейчас купишь такое, то год-два минимум большинство выходящих игр пойдут хотя бы в средних настройках в мин. разрешении.
Ну что поделать видеокарты из темы от 100$ до 200$, благодаря инфляции доллара и картельному сговору теперь тут в теме от 200$ до 400$
Нравится или нет, но именно "ширпотреб" карты определяют раздел долей рынка.

именно "ширпотреб" карты определяют раздел долей рынка.

не очень понятно только, должно ли это беспокоить кого-то кроме акционеров и разработчиков.

-- Добавлено спустя 41 мин 19 с --

благодаря инфляции доллара и картельному сговору теперь тут в теме от 200$ до 400$


Картельный сговор кмк тут лишнее. 100$ образца 1998года сейчас это просто 200$ чисто из-за инфляции.
Ну и сложность карт выросла очень сильно как и себестоимость. По факту карты сейчас это небольшой компьютер в компьютере, просто по числу элементов, микросхем, сложности и себестоистоимости чипов — разве можно сравнить TNT2 и RTX 5090? Число транзисторов в чипе выросло в 6000 раз с 15млн. до 90млрд. Цена выросла всего в 5 раз учетом инфляции. С 200$(400$ сегодняшних) до 2000$.


Последний раз редактировалось Ruslan73 12:50 06.07.2025, всего редактировалось 1 раз.
Ну процессор Pentium 66 стоил 900$ а Core Ultra 9 285K стоит 600$, транзисторов 3,1 млн против 25+ млрд соответственно.
Материнские платы стоили 200-400$, сейчас 120-350.

И платы и процессоры стали сложнее, но дешевле.

Нейросеть объясняет рост стоимости видеокарт так:
Спрос со стороны майнинга и AI. Криптовалютный бум (например, Ethereum до 2022 г.) и развитие нейросетей резко увеличили спрос на GPU. В 2017–2021 гг. цены на видеокарты взлетели в 2–3 раза из-за дефицита.
Сложность архитектуры. Современные GPU (например, NVIDIA RTX 4090) — это не просто графические ускорители, а гибридные процессоры с тензорными ядрами для AI, что удорожает разработку.
Технологические “скачки”. Внедрение трассировки лучей (RTX), DLSS и увеличение объёма VRAM (до 24 ГБ) требуют дорогих компонентов. Например, память GDDR6X на 20–30% дороже обычной GDDR6.
Рост энергопотребления. Топовые видеокарты теперь потребляют 400–600 Вт, что ведёт к удорожанию систем питания и охлаждения.
GPU стали нишевым продуктом. Высокий сегмент (4K, AI) занимает 70% прибыли NVIDIA, поэтому компании выгоднее продавать меньше единиц, но дороже.
Процессоры остаются массовыми. Даже бюджетные ноутбуки требуют CPU, тогда как встроенная графика снижает спрос на дешёвые видеокарты.

Итог: Видеокарты превратились в высокотехнологичные «люксовые» устройства с узким целевым рынком, тогда как процессоры и материнские платы остаются товарами широкого потребления, где конкуренция и масштабирование производства сдерживают цены.
p66 по сути выполнял тогда многие функции видеокарты тоже.
Поэтому стоил так заслуженно.
TNT2 сильно позже вышла чем p66. Она ровесница Pentium III скорее. Так что прогресс в процах с 1999го в 2600 раз в транзисторах примерно. (9.5млн->25млрд)
Плюс видеокарта это не только чип но и память еще и плата и система охлаждения, все усложнилось.
Но да бум майнинга повлиял сильно.
Я помню rx 580 купил в конце 2019го за 15К всего (250$) а через 3 года его продавали за 25-30K (~500$)

-- Добавлено спустя 20 мин 2 с --
Плюс еще игры стали все больше нагружать видеокарту и все меньше зависеть от процессоров, спрос на топовые процы упал. Доля видеокарты в стоимости системника неуклонно росла 25 лет.
Новая тема    Ответить  [ Сообщений: 2254 ]  На страницу Пред.  1 ... 53, 54, 55, 56, 57


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
cron

Удалить cookies конференции

Пишите нам | Radeon.ru