А что собственно умерло?

Автор Vorob, 23 сентября 2014 22:57:06

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Vorob

Друзья, понял что я так и не знаю ответа на вопрос, почему внезапно похерились цвета в сисшоке втором и сифе втором? Что отвалилось в винде или видеокарте, что пропал дизеринг, плавные текстуры и т.д.

Я просто щас гоняю всё и вся и обнаружил что на встроенной, современной, Intel HD 4000 все ок с цветами, а на Nvidia Geforce 660m убиты они. Это на версии без ддфикс и ньюдарк.

Vorob

В реквиеме такая же шляпа,

Нвидия:

Интел:

Vorob

Т.е. я щас пытаюсь понять чисто технически, что произошло? И каким образом это сохранилось в интеловской карте, которая во времена вин 8 вышла аж. Дизиринг, кстати, тоже имеется на ней.

Дж Риф и Мороз, вам слово!

LongShad

Я не вижу никакой разницы. Ты точно здоров?

Vorob

#4
Цитата: LongShad от 24 сентября 2014 07:29:55
Я не вижу никакой разницы. Ты точно здоров?

Ох... Разверни на весь экран тогда.

Zontik

У меня тоже обе картинки абсолютно идентичны:

А, собственно, в чем предубеждение против New Dark? Поставь и не мучайся.
Дайте глазам отдохнуть! Тёмное место

Vorob

Мне нужен зрячий Мороз и Рифф. Эксперты. А вы, судя по всему, на элт мониторе сидите, друзья.


Vorob

А вопрос мой не про ньюдарк, а про то что было удалено из видях нвидии и амд и почему. И почему это осталось у нвидии. Потому нужны эксперты.

DJ Riff

Насколько я помню, до самой сути вопроса, т.е. до конкретной функции, которая перестала поддерживаться, так и не докопались, что на форуме AMD, что на форуме nvidia. Раскопки сами собой заглохли с появлением DDfix, который обошёл проблему, переведя игру на 32-битный рендеринг. Вкратце остановились на понимании того, что при переходе на DX10 и выше что-то поломали или выбросили в отображении 16-битного цвета. Новые драйвера со старыми DX9 видеокартами при этом продолжали работать нормально, т.е. проблема либо в железе, либо в исполнении драйвера для конкретного железа. Что характерно, nvidia на самом деле начала портить 16-битную палитру несколько раньше, с появлением видеокарт серии 6ххх — 7ххх в тенях уже появлялись заметные разводы, но дизеринг ещё был.

И да, LCD на работе сдох, сижу за ЭЛТ...
Тьма тоже распространяется со скоростью света.

MoroseTroll

#9
Vorob: Собственно, DJ Riff всё по делу сказал: проблемы в 16-битных режимах экрана начались в DX10-железе и были унаследованы дальше. То ли MS такие спецификации DX10 разослала разработчикам GPU, то ли это сговор был их общий, я толком не знаю. А та же nVidia картинку начала портить ещё давно, с 1999-го по 2002-й годы, в своих линейках GeForce 1..4 (включая даже XBox 1!) - там были проблемы с прозрачностью в формате DXT1, самом популярном, кстати, из-за чего разработчикам игр поголовно приходилось конвертировать текстуры в DXT3, весивший ровно в два раза больше. Итогом стало увеличение объёмов места, занимаемых текстурами в играх, в два или около того раза и, соответственно, увеличение нагрузки на видеокарту, что приводило к снижению fps до полутора раз (мои эксперименты с Kreed и Star Trek - Elite Force II это подтверждали) на средних и слабых видеокартах.

Касательно твоих опытов с Requiem на GeForce 660M и Intel HD 4000: разница видна (разводы в левой нижней части экрана), но в динамике, думаю, она не сильно бросается в глаза. Настоящий, ядрёный дизеринг в 16-битном режиме замечается обычно сразу, так что, возможно, драйвер видео Intel либо толком справляется с 16-битным цветом, либо по-тихому включил 32-битный, обманув игру, т.е. сам сделал трюк наподобие DDFix, либо поверх игрового рендерера драйвер пустил свой внутренний сглаживающий шейдер. Если кто помнит, 3D-разработки Intel все начинались с i740 (1997-98 гг.), прославившегося в своё время самым качественным 16-битным цветом, так что, вполне возможно, что Intel HD 4000 сохранил эти наработки где-то глубоко внутри, из-за чего 16-битная картинка выглядит лучше конкурентов.

Призрак Boris'а3000

#10
[off]
Цитата: Vorob от 24 сентября 2014 09:58:07
вы, судя по всему, на элт мониторе сидите, друзья
На таком? http://hsto.org/storage1/6aa39087/ad6777b0/927a291c/75b4d76d.jpg
Думаю, они "сидят" как раз на LCD, но на недорогом и небольшом. То есть худший вариант из всех возможных (хотя нет - совсем древний монохромный ЭЛТ ещё хуже).
Видна разница, видна на ЭЛТ - цветовые границы резкие у нВидии. Но если скрины свёрнуты, яркость в ноль, и сидеть за метр от монитора (как я обычно текст читаю), то отличий действительно нет.

Цитата: MoroseTroll от 24 сентября 2014 12:41:26
разница видна (разводы в левой нижней части экрана),
Э, не - они по всей его площади.
Так-с, хто тут на чём сидит?..
[/off]

Цитата: DJ Riff от 24 сентября 2014 11:10:44
nvidia на самом деле начала портить 16-битную палитру несколько раньше, с появлением видеокарт серии 6ххх — 7ххх в тенях уже появлялись заметные разводы, но дизеринг ещё был
Хоть разводов и не было, но звёзды пропали, и в тёмных местах появилась некая сетчатость ещё раньше - на GeForce FX, т. е. с началом поддержки DX9.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

Vorob

ЦитироватьКасательно твоих опытов с Requiem на GeForce 660M и Intel HD 4000: разница видна (разводы в левой нижней части экрана), но в динамике, думаю, она не сильно бросается в глаза. Настоящий, ядрёный дизеринг в 16-битном режиме замечается обычно сразу, так что, возможно, драйвер видео Intel либо толком справляется с 16-битным цветом, либо по-тихому включил 32-битный, обманув игру, т.е. сам сделал трюк наподобие DDFix, либо поверх игрового рендерера драйвер пустил свой внутренний сглаживающий шейдер. Если кто помнит, 3D-разработки Intel все начинались с i740 (1997-98 гг.), прославившегося в своё время самым качественным 16-битным цветом, так что, вполне возможно, что Intel HD 4000 сохранил эти наработки где-то глубоко внутри, из-за чего 16-битная картинка выглядит лучше конкурентов.

Дело не только в реквиеме. Тот же сиф 2 если включить на 660, там все как в печальные времена, убитые цвета, нет звезд и т.д. А на интеле работает замечательно. Не могу понять как так.

MoroseTroll

Похоже, Intel просто забыла испортить дизерингом 16-битные режимы экрана.

Vorob

Что зн. испортить дизеренгом? Он был вместе с нормальными цветами. А потом пропал и все игры стали кислоту показывать.

Дизеринг на интеле есть.

MoroseTroll

Vorob: Показанный тобой скрин из Реквиема говорит обратное.