Direct X

Автор Flora, 18 марта 2007 02:05:22

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Flora

MoroseTroll
ЦитироватьДа и игр, реально получающих преимущества от DX11, в этом году, думаю, не будет.
думаешь к премьере W7 не подкинут вкусненького, чтобы продажи повысить? ;)

Vorob

Flora К висте подкинули? Нет с е3 нет ниодного проекта под пк. Всё только порты. Где-нибудь видели порт где прикрутили фенечки ради кайфа, не для того чтоб хоть как-то продать на пк?))

MoroseTroll

ЦитироватьFlora написал(а) 16 июня 2009 21:15
думаешь к премьере W7 не подкинут вкусненького, чтобы продажи повысить? ;)
На все сто не уверен, но, судя по тому, что nVidia только сейчас всё-таки внедрила DX10.1 в свои чипы, как-то не очень верится в скорое воплощение DX11.
Кстати, с DX10.1 у nVidia вышло как-то некрасиво. Помнишь, в своё время она визжала, что, дескать, "на #ер этот DX10.1 никому не нужен", когда полтора года назад ATI/AMD выпустила чипы с поддержкой оного? Да не просто визжала, а даже заставляла кое-какие игровые фирмы избавляться от DX10.1 в своих играх (Assassin's Creed v1.00->1.02). А сейчас вдруг такое:o. Кажется, это называется лицемерие?
Vorob: Ну, вроде один из новых Battlefield-ов будет поддерживать DX11. Может, ещё и Shattered Horizon, учитывая его Vista-направленность, но это лишь моё предположение.

Flora

ЦитироватьКажется, это называется лицемерие?
Не. Это сообразительность. С некоторой задержкой... :lol:

MoroseTroll

Сообразительность, говоришь? Мы это уже проходили. Помнишь ситуацию с шейдерами 1.4, что появились впервые у Radeon 8500 восемь лет назад? Точно такая же была картина: nVidia (и не только она) визжала тогда примерно то же самое, что и в последнем случае с шейдерами 4.1, а потом вышло семейство GeForce FX, в котором эти самые "ненужные" шейдеры 1.4 волшебным образом "вдруг" появились. Это лицемерие, что ни говори;).

Flora

MoroseTroll, каждой технологии свое время. Сначала она м.б. не нужной, опередившей время, зато потом - самое оно! Время покажет.
Я даже готов смириться с отсутствием массовых DX11 видеокарт до 11 года (каламбурчик!), если NVidia доведет до ума свою платформу Tegra.

MoroseTroll

Flora: Tegra уже прописалась в Microsoft Zune HD.

Vorob

MoroseTroll Видишь, ты даже с трудом назвал 2 игры. О чем тут может идти речь?)

MoroseTroll

Vorob: В общем, да, рановато пока держать уши востро на DX11.

MoroseTroll

В общем, поздравляю ATI/AMD с почином в области DX11. Ситуация напоминает ту, что была семь лет назад, когда ATI выпустила исключительно удачную линейку Radeon 9500&9700, обогнав nVidia как по срокам, так и по производительности. Хотелось бы, чтобы и в этот раз та ситуация повторилась. Ибо не дело это, когда доля одного производителя дискретных видеочипов (nVidia) превышает долю другого (ATI/AMD) в два с половиной раза. Нужен какой-никакой баланс.

MoroseTroll

Кажется, сейчас самое время делать ставки, господа, насчёт того, чей флагман в итоге лучше получится. Имеются следующие чипы: ATI/AMD RV870 (он же Cypress) и nVidia GT300 (он же Fermi):
1) оба основаны на технологии 40-нм;
2) RV870 содержит 2,15 миллиарда транзисторов, а GT300 - 3,2 миллиарда, что ровно в полтора раза больше;
3) RV870 содержит 320 ядер (по 5 регистров каждое, итого 320 * 5 = 1600 в терминологии ATI/AMD), а GT300 - уже 512, что в 1,6 раза больше;
4) RV870 имеет 256-битную шину памяти GDDR5, а GT300 - 384-битную, что опять в полтора раза больше;
5) RV870 функционирует на частоте 850 МГц (в составе Radeon HD 5870, причём сразу же начали выпускаться варианты с частотой выше 1000 МГц), а GT300...пока неизвестно.
Вроде бы грядущий флагман nVidia должен получиться раза в полтора быстрее, чем флагман ATI/AMD, но это только при равных частотах, чего точно не будет. Что-то мне подсказывает, что частота GT300 будет куда меньше, чем у RV870, ибо кристалл первого должен получиться по площади как минимум в полтора раза больше второго. Если так и будет, то это, вполне возможно, сравняет пиковую скорость обоих флагманов и тогда всё будет зависеть от оптимизации драйверов под конкретную игру.
Мой прогноз таков: приблизительный паритет по скорости, но продукт nVidia будет явно дороже из-за более высокой себестоимости и фирменных примочек вроде поддержки стерео-очков и PhysX. Кстати, последнее, не исключено, со временем канет в лету, если ATI/AMD удастся уговорить разработчиков игр перейти на открытый многоплатформенный стандарт Bullet Physics.
Ваши ставки, господа :)!
[Исправлено: MoroseTroll, 1 окт. 2009 12:35]

Force

Нвидия по любому будет круче, быстрее и дороже. Но радик есть уже сейчас и гребет лавэ. Снимает сливки :). Пусть, пожируют пока флагман не пришел :). Сколько помню, радеоны всегда грелись сильнее, такой у меня стереотип сложился, даже если это не так, стереотип крепко осел в моей голове. У меня был тот самый Р9800ПРО, который был круче нвидии, и в результате он сам по себе через несколько лет стал перегреваться до подвешивания системы.
Но речь не о том.

MoroseTroll

[off]Force: Вообще-то Radeon 9800 Pro по потреблению электричества был душкой по сравнению со своим конкурентом в лице GeForce FX 5800. А со временем любая видеокарта любого производителя может начать вести себя нестабильно, причём не факт, что в этом есть вина графического процессора. Сам знаешь, причин может быть несколько.[/off]

Force

[off]Да, согласен, я просто делюсь своими ощущениями :).[/off]

coldcorpse

[off]Force, коллеги по работе до сих пор пребывают в стопроцентной уверенности, что АМДшные процы греются сильнее. И идут покупать себе Core2Duo/Quad. Кто-то копит на Core i7. АМД не покупает никто. Чистый маркетинг.
ИМХО очень недальновидное суждение, что чипы одной компании греются/горят/воняют больше. Каждый чип (или линейку, на худой конец) надо смотреть отдельно. :yes:[/off]
Чужие сапоги натерли ноги...