Гонка графических титанов продолжается

Автор clearing, 15 июня 2005 11:05:14

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Vorob

100% это проблемы у тебя. Должна быть 99%.

А вообще забавно, интел разродилась новыми процами только когда амд им стала в спину дышать. А нвидия выпускает рвущие всё на свете видяхи даже без конкуренции реальной. Чуваки просто испепеляют.

MoroseTroll

#646
Turing - просто слегка обновлённая Volta. Не верьте вы во всякие бредни об ускорении в 6 раз и в прочую хрень. RayTracing не пойдёт в народ ещё лет 10, не меньше, потому что это невероятно затратная технология, даже при всех тех плюшках, что JHH воплотил в Turing. Ведь куча народу (сотни миллионов человек) до сих пор сидит на теперь уже якобы устаревшем железе, а значит, по-настоящему эту технологию массово поддерживать будут ещё не скоро.
Касательно же обычных параметров новых GeForce скажу, что они немногим лучше, чем у предыдущего поколения. 4352 шейдерных блока у GF 2080Ti - это не сильно больше, чем 3584 у GF 1080Ti, и уж точно меньше, чем 5120 у GF Titan V. Да, память станет пошустрее, но не так, чтоб уж сильно - 14 ГГц у GF 2080Ti против 11 ГГц у GF 1080Ti. Т.е., чисто теоретически, 2080Ti будет лишь в полтора раза быстрее 1080Ti, а на деле будет и того меньше, потому что количество ROP-ов осталось тем же (88), а значит, игры, завязанные на пропускную способность памяти, получат ускорение не больше, чем 27% (14 ГГц / 11 ГГц = 1,27). А вот, кстати, и первая ласточка.

MoroseTroll

Насчёт проигрыша AMD: давайте не будем путать тёплое с мягким, ведь в играх на id Tech 6 в режиме Vulkan, Radeon RX 580/8ГБ обгоняет GeForce GTX 1060/6ГБ на величину до 60%; хотя да - в большинстве DX11-игр преимущество заметно меньше. Да, AMD основательно протупила с Vega, оснастив её всего лишь 8 ГБ сверхдорогой HBM2 (вместо GDDR5X), но ведь на топ-моделях весь свет клином не сошёлся, верно? Вы же не думаете, что GeForce 1080 Ti - сверхходовой товар, за которым выстраиваются километровые очереди? Если так, то какая вам разница, что Radeon RX Vega 64 до него не дотягивает? У вас самих-то видюхи двумя ступенями ниже.

spy

Цитата: Vorob от 21 августа 2018 14:56:49
100% это проблемы у тебя. Должна быть 99%.



Как говорится кэр то элабораэт?

Играю с модом на изменение фова,щас фов 100 или 110? против оригинального 60-80 или сколько там

ФПС реально так просаживается на 20-30 фпс  :lol:

MoroseTroll

Ну что, при тех же самых настройках, с разрешением 4K, GF 2080 быстрее GF 1080 в те самые полтора раза, о которых я и говорил. По ссылке ещё говорится о некоем передовом методе сглаживания DLSS (Deep Learning Super-Sampling), с использованием которого (в поддерживающих его играх) разница может достигать двух и более раз, но там пока не совсем понятно, насколько честно и качественно всё делается.

Force

ЦитироватьDeep Learning Super-Sampling
Без интернета не будет работать? :) Либо дрова будут по 16 гигов, как среднестатистическая современная игра?  :biggrin:
Мне у нвидии понравилась другая тема - денойзинг. Стало интересно скрестить их денойз с рейтрейсингом ограниченной выборки и посмотреть на скорость/результат. Может быть именно на этом построена их "революционная" технология?

MoroseTroll

Я не знаю, как именно работают de-noising и DLSS, но насчёт последнего могу предположить, что будут задействованы тензорные ядра. Размер дров (версия 400?) вряд ли сильно увеличится.

Force

MoroseTroll, что такое тензорные ядра я как-то тоже не интересовался.

MoroseTroll

Они появились ещё в Volta. Используются как раз для того самого глубокого обучения посредством матричных вычислений. Поскольку эта технология стала очень популярной, тензорные ядра теперь суют во всё, что умеет хотя бы складывать и вычитать, даже в сотовые телефоны. Скоро, кстати, и обычные x86-процессоры обзаведутся ими: расширения AVX512_VNNI, AVX512_4VNNIW, AVX512_4FMAPS. По правде говоря, последние два расширения уже работают в Xeon Phi 72xx, но назвать их обычными x86-процессорами у меня язык не поворачивается - это всё-таки больше ускорители вычислений.

MoroseTroll

Внутри AMD что-то сдохло: страница загрузки драйверов резко ... похорошела (в смысле удобства) :aaa:. Теперь выбрать нужную модель видеокарты стало гораздо проще и быстрее, чем было раньше. Плюс, к каждой видеокарте добавили техническое описание - для перцев, вроде меня, я так понимаю :biggrin:. В общем, мне очень нравятся эти изменения.

Небольшой вброс говна: конфигурация GeForce RTX 2070, как минимум, наполовину схожа с конфигурацией Radeon RX 480&580:

1) Столько же шейдерных блоков - 2304.
2) Столько же текстурных модулей - 144.

Разнятся, правда, количество блоков растеризации (RTX 2070 = 64, RX 480/580 = 32), значительно - частоты памяти (RTX 2070 = 14 ГГц, RX 480/580 = 8 ГГц) и немного - частоты ядра. Так что в играх, основательно привязанных к ПСП, разница между двумя этими видюхами будет приличной. С другой стороны, движков, завязанных на ПСП, совсем немного, так что, дорогие телезрители, приготовьтесь к тому, что большистве игр GeForce RTX 2070 будет превосходить Radeon RX 480&580 не в два и даже не в полтора раза, а где-нибудь процентов на 10-20 :biggrin:.

Призрак Boris'а3000

Цитата: MoroseTroll от 26 августа 2018 14:48:55
Небольшой вброс говна: конфигурация GeForce RTX 2070, как минимум, наполовину схожа с конфигурацией Radeon RX 480&580:

1) Столько же шейдерных блоков - 2304.
2) Столько же текстурных модулей - 144.
А у nVidia с AMD стали настолько схожие архитектуры, что их можно сравнивать по этим цифирям?

Цитата: MoroseTroll от 26 августа 2018 14:48:55
движков, завязанных на ПСП, совсем немного
Сглаживание на максимум -- и любой движок становится завязанным на ПСП. Видеокарты, которые тщедушны в тяжёлых режимах, интересны только для майнинга.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

MoroseTroll

Цитата: Boris3000 от 26 августа 2018 16:16:29А у nVidia с AMD стали настолько схожие архитектуры, что их можно сравнивать по этим цифирям?
На мой взгляд, да. Разумеется, средних и мелких различий на самом дело много, вроде размера кэш-памяти разных уровней, размера плитки тайла, разрядности и устройства внутренних шин, алгоритмов экономии ПСП и т.д., но считаю, что, в общем и целом, сходства между ними немало.
Цитата: Boris3000 от 26 августа 2018 16:16:29Сглаживание на максимум -- и любой движок становится завязанным на ПСП.
Я считаю, что полноэкранное сглаживание - зло в чистом виде, потому что ресурсов жрёт в разы больше, а толку, с повышением разрешения, почти нет.
Цитата: Boris3000 от 26 августа 2018 16:16:29Видеокарты, которые тщедушны в тяжёлых режимах, интересны только для майнинга.
Вот слова человека, который презирает всех, кто не в состоянии купить дорогую видеокарту.

Призрак Boris'а3000

#657
Цитата: MoroseTroll от 26 августа 2018 18:59:27
Я считаю, что полноэкранное сглаживание - зло в чистом виде, потому что ресурсов жрёт в разы больше, а толку, с повышением разрешения, почти нет.
Ну, во второй Батле на прозрачных текстурах (заборы всякие) будь здоров какая разница. Также с более далёкого расстояния перестают мельтешить разные детали на земле (ну и на стенах с потолками тоже), волны на воде видны до бОльших расстояний, не исчезая до зеркальной поверхности (да, всё это результат работы именно сглаживания, а не анизотропки). Деревья более реалистичны.

Цитата: MoroseTroll от 26 августа 2018 18:59:27
Вот слова человека, который презирает всех, кто не в состоянии купить дорогую видеокарту.
Гневно молвил Каррас, указывая перстом на съёжившегося в углу язычника.

Однако это слова человека, который, думая, что уж теперь-то -- купив карту 2013-2014 годов (или 2011-го, если топовыми мерить) -- наконец-то полностью избавится от тормозов в игре 2005-го (!) года, в очередной раз обломался.
R9 270 с ПСП под 200 гигов не в состоянии даже близко обеспечить 60 фпс при разрешении 1024х768 в игре 10-летней для этой видюхи давности! Разумеется, речь о самой тяжёлой сцене с максимальным сглаживанием. Тормоза такие, что в лучшем случае справился бы Crossfire из R9 290, не меньше.

Ради справедливости надо сказать, что то качество сглаживания, которое обеспечивает R9 270, попросту отсутствует на моих предыдущих 9600GT и GTS250. С тем качеством, которое было доступно на этих видеокартах, R9 270 не тормозит нигде.
Но суть в другом -- максимальный уровень сглаживания, который доступен на R9 270, фактически неюзабелен даже в игре, которая на 10 лет старше карты. А в тяжёлых сценах тормоза вообще такие, что заставляют вспомнить времена до GeForce FX, когда к движку сглаживания даже прикасаться было нельзя. Ничего с тех пор не поменялось. Что это за "ускоритель", который не тянет сам себя? Ты можешь представить аудиоускоритель, который бы тормозил и заикался? Или сетевую карту с функциями разгрузки процессора, которая бы тормозила и дропала пакеты? А видеоускоритель, который тормозит, это почему-то нормально.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

MoroseTroll

Запускать игру в разрешении 1024*768 с полноэкранным сглаживанием в 4x - по сути, то же самое, что и просто увеличивать разрешение в ней до 2048*1536, но без сглаживания. А это по площади ровно в полтора раза больше, чем обычное сейчас FHD (1920*1080), и лишь немногим (~15%) меньше, чем QHD (2560*1440), которое может позволить себе далеко не каждый современный поклонник игр даже с куда более быстрой видюхой. И ты ещё удивляешься, что твоя не тянет 60 кадров, хоть и в старой, но довольно технологичной для своего времени игре :o?

Призрак Boris'а3000

Цитата: MoroseTroll от 26 августа 2018 21:31:15
которое может позволить себе далеко не каждый современный поклонник игр даже с куда более быстрой видюхой
Куда более быстрые видюхи не работают в ХР (crossfire из 7990 с почти киловаттом потребления всерьёз рассматривать не будем).

Цитата: MoroseTroll от 26 августа 2018 21:31:15
И ты ещё удивляешься, что твоя не тянет 60 кадров, хоть и в старой, но довольно технологичной для своего времени игре :o?
Да. Сколько надо ждать после выхода игры, чтоб без заморочек просто поставить все ползунки вправо и насладиться нормальной картинкой? 10 лет? 20? За это время просто забрасывается поддержка той ОС, под которую оптимизирована игра, да ещё и устаревших видеоинтерфейсов. В итоге сглаживание максимального качества -- как морковка, подвешенная перед идущим ослом.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26