Гонка графических титанов продолжается

Автор clearing, 15 июня 2005 11:05:14

« назад - далее »

0 Пользователи и 2 гостей просматривают эту тему.

MoroseTroll

Цитата: Boris3000 от 26 августа 2018 22:41:04Куда более быстрые видюхи не работают в ХР (crossfire из 7990 с почти киловаттом потребления всерьёз рассматривать не будем).
Конечно, 7990 - это перебор, но что насчёт HD 7970, она же HD 8970 OEM, она же R9 280X? Единый PCI-идентификатор всех трёх моделей равен 6798, и он точно встречается в драйверах версии 14.4 для WinXP, а значит, полноценно ими поддерживается. Эти видюхи быстрее твоей R9 270 в 2 раза.
Цитата: Boris3000 от 26 августа 2018 22:41:04Сколько надо ждать после выхода игры, чтоб без заморочек просто поставить все ползунки вправо и насладиться нормальной картинкой? 10 лет? 20?
С твоим подходом - нисколько, т.е. никогда.
Цитата: Boris3000 от 26 августа 2018 22:41:04За это время просто забрасывается поддержка той ОС, под которую оптимизирована игра, да ещё и устаревших видеоинтерфейсов.
Поддержка старых видеокарт и старых же интерфейсов - невероятно сложная и дорогая задача. Даже такой монстр, как nVidia, перестала выпускать свежие драйверы для семейства Fermi (GeForce 4** и 5**), которые всё ещё поддерживают D3D11 и 12, но уже не тянут Vulkan. На очереди - Kepler (GeForce 6** и 7**). Что уж говорить об AMD, у которой ресурсов в разы меньше. Просто смирись с тем, что ты не можешь управлять этой ситуацией, отпусти её и иди дальше.

Призрак Boris'а3000

Цитата: MoroseTroll от 27 августа 2018 10:38:06
что насчёт HD 7970, она же HD 8970 OEM, она же R9 280X?
270/270Х -- это последняя карта, официально работающая под ХР. 280 и выше/моложе уже усё. Поэтому смотреть можно только в сторону предыдущих поколений. И сначала я действительно хотел взять 7950, но после этого случая передумал.
Так что при всём богатстве выбора альтернативы для 270 нет.

Цитата: MoroseTroll от 27 августа 2018 10:38:06
Эти видюхи быстрее твоей R9 270 в 2 раза.
Эту проблему я решу докупкой второй 270. Они хорошо работают в кроссфайре и по производительности находятся между GTX 780 и 780Ti.
Только дело в том, что для той сцены из Батлы, про которую шла речь, в 2 раза -- это мёртвому припарки. Там раз в 5 надо повышать производительность, т. е. даже две 7970 не справились бы.

А топовые карты я, кстати, как раз не люблю -- за их выходящую за все разумные рамки прожорливость. У меня психологический рубеж 150-200 ватт. Даже две 270-ых при грамотном даунвольте можно запихать в 200 ватт, в то время как 79хх может преподнести сюрприз, как по ссылке выше.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

MoroseTroll

#662
Немного о быстродействии GeForce RTX 2080. Понятное дело, что 3D Mark - синтетика, но всё же:

1) Формула GeForce Titan Xp     = 3840:240:96. Пиковая частота ядра = 1582 МГц. TimeSpy = 10180.
2) Формула GeForce RTX 2080   = 2944:184:88. Пиковая частота ядра = 1710 МГц. TimeSpy = 10030.
3) Формула GeForce GTX 1080   = 2560:160:64. Пиковая частота ядра = 1733 МГц. TimeSpy =   7330.
4) Формула Radeon RX Vega 64 = 4096:256:64. Пиковая частота ядра = 1546 МГц. TimeSpy =   7240.

Количество ROP-ов у RTX 2080 и GTX 1080 соотносится, как 88 / 64 = 1,375. Их пропорция по TimeSpy равна 10030 / 7330 = 1,368. С учётом почти одинаковых частот ядра (1710 и 1733 МГц, соответственно), я прихожу к выводу, что тест 3D Mark TimeSpy практически линейно зависит от количества ROP-ов. Это же подтверждает и чрезвычайно низкий результат Vega 64, количество ROP-ов которой равно таковому у GTX 1080 (т.е. 64), что выливается в почти одинаковые цифры в данном тесте.

Возвращаясь к теме превосходства RTX 2080 над GTX 1080: 36,8% - приличный результат, но это только синтетика. В реальных играх всё может быть куда меньше: и 30%, и 20%, и даже 10%. Многие будет зависеть от настроек игр, выбора разрешения и сглаживания.

P.S. Кстати, новая версия драйверов для GeForce, похоже, будет иметь номер 411 или около того.

MoroseTroll

Я валяюсь :lol:! nVidia будет контролировать каждого обзорщика своих новых видеокарт.

MoroseTroll

Вот это поворот!
Цитироватьтехнический директор DICE Христиан Холмквист (Christian Holmquist) в беседе с журналистами PCGamesN разъяснил, что версия Battlefield V с поддержкой RTX для максимальной эффективности требует гораздо больше ядер CPU, чем указано в стандартных системных требованиях.
Мы не готовы пока назвать точные требования к системе, потому что всё ещё может измениться, но шестиядерный процессор — частоты не обязательно должны быть высокими, но очень желательна поддержка 12 аппаратных потоков — это то, на что мы рассчитывали при разработке. Впрочем, восьмипоточного CPU с высокой тактовой частотой тоже может оказаться достаточно.
Мораль сей басни такова: движок Frostbite при работе с ray tracing будет использовать очень много потоков - пока 12, но это, возможно, не предел. Ежели кто собирается прикупить GeForce RTX, мотайте себе на ус.


MoroseTroll

Некоторым движкам Direct3D 12 противопоказан: Battlefield V, ровно как и Battlefield 1, в режиме Direct3D 11 работает и быстрее, и стабильнее, хотя, по логике, должно было быть наоборот. Как думаете, пуркуа почему?

Force

MoroseTroll, если это не риторический вопрос - то потому, что архитектура движка не заточена для работы с графическим дх12/вулкан-конвеером.

MoroseTroll

Цитата: Force от 06 сентября 2018 12:48:55... потому, что архитектура движка не заточена для работы с графическим дх12/вулкан-конвеером.
Возможная причина этого - уход его ведущего разработчика в Epic. Так что, есть вероятность, что, со временем, Frostbite начнёт "хиреть и сохнуть", хотя сейчас он, конечно, в великолепной форме и, подозреваю, по сумме своих качеств, является лучшим игровым движком вообще.

Force

Ну, игровой движок - это огромный, сложный проект, а поскольку работа с ресурсами у двух этих конвееров (дх11 и дх12) различается очень сильно, готовить ресурсы и эффективно работать с ними движок надо специально "учить". То есть, это такие нехилые изменения в фундаментальной архитектуре. Так что да, нужно много работы и знаний, чтобы оптимально заточить что-то старое под новый режим отрисовки. Причем выигрыш от такой серьезной переработки в максимуме может достигнуть лишь 20-30%, поэтому есть мысль, что компании просто мало заинтересованы в столь дорогостоящей доработке, ради такого невысокого результата. Проще включить "эмуляцию" режима, "пустив ресурсы по старому пути, но в новые места". Вот новые движки/версии движков делать, ориентируясь на вулкан - это да, правильный путь, а перекраивать старые - не думаю, что многие на это пойдут, особенно если главные люди их покидают...

MoroseTroll


MoroseTroll

Если кто ждёт недорогие GeForce RTX 2*** (Turing) в обозримом будущем, то, боюсь, ждать придётся очень долго. В Сети циркулируют слухи, что nVidia не планирует пока уводить с рынка поколение GeForce GTX 1*** (Pascal), ибо и так всё хорошо. Микросхемы семейства Turing по площади куда крупнее Pascal, даже несмотря на уменьшившийся техпроцесс с 16 до 12 нм. Поэтому, с т.ч. зрения окупаемости, nVidia нет особого смысла гнать лошадей - кому нужны самые шустрые и дорогие модели, те их всё равно купят за любые деньги, а всем остальным придётся подбирать крошки со стола.

Force

MoroseTroll
Да, я об этом где-то год-полтора назад тоже слышал :)

MoroseTroll

Ну-с, как и предполагалось, видюхи Turing среднего уровня (RTX 2060 и 2050) появятся лишь в следующем году. От себя добавлю: и это точно не будет 1-го января, а, в лучшем случае, весной.

MoroseTroll

#674
Прелести монополизма, продолжение.

Говорят, что nVidia собиралась производить Turing не на 12-нм техпроцессе TSMC, а на 10-нм техпроцессе Samsung, но, как говорится в подобных случаях, что-то пошло не так...
От себя добавлю, что это только цветочки. GloFo уже отказалась от внедрения техпроцессов ниже 14 нм, да и то последний у неё был даже не свой, а лицензированный у Samsung.
Intel вляпалась со своим 10-нм техпроцессом по самое не хочу и сейчас в темпе вальса пытается хоть как-то заставить его работать - ходят слухи, что то, что получится в 2020-м, будет называться 10-нм техпроцессом номинально, а по сути будет лишь 12 нм, т.е. тем, что у TSMC имеется уже сейчас.
Про производителей второго и третьего эшелона даже не говорю - они уже давно сошли с дистанции, и покорение 7 и даже 10 нм им даже не снится.
А вот TSMC - молодец! Создали отличные 16 нм (nVidia Pascal/GeForce 1***, Sony PS4 Pro, Microsoft XBox S&X) и 12 нм (nVidia Volta и Turing/GeForce 2***, возможно, и новые Radeon-ы), а сейчас вовсю дорабатывают 7 нм (вот результат предполагаемого 64-ядерного AMD Epyc в Cinebench).
Если дела и дальше будут идти так же, то на рынке полупроводниковой продукции скоро, в ближайшие 7-10 лет, останется всего один, максимум два производителя, предлагающих современные техпроцессы. Остальные же просто разорятся или будут поглощены.