Гонка графических титанов продолжается

Автор clearing, 15 июня 2005 11:05:14

« назад - далее »

0 Пользователи и 2 гостей просматривают эту тему.

xxThief

ЦитироватьТ.е. теперь Intel и AMD смогут сосуществовать в одном корпусе!
А раньше не сосуществовали? Когда еще самые первые пентиумы были (чипсет - интел, проц - амд)?

Flora

Шухер отменяется... :joke:
========================
Заявление Advanced Micro Devices, сделанное в среду и посвященное решению об объединении отделов разработки центральных процессоров и графических ускорителей, вызвало у многих ложные выводы о том, что AMD намерена упразднить имя ATI и продавать видеокарты под брендом AMD.
«Мы будем продолжать разработку видеокарт в различных местах, включая города Маркэм, Орландо и Саннивейл. Графические процессоры Radeon, Mobility Radeon, FirePro и Firestream будут по-прежнему носить имя ATI», — сказал Крис Хук, представитель AMD.
Источник: X-bit labs
========================
Эх, не видать нам графических ускорителей с логотипом АМД... :(

MoroseTroll

Flora: А я что говорил:biggrin:? Рановато пока отказываться от имени "ATI". Потом, когда вся графическая часть полностью перекочует в центральный процессор, это можно было бы сделать, но не сейчас. Лет через 10-12.

Chuzhoi

ЦитироватьПотом, когда вся графическая часть полностью перекочует в центральный процессор
А зачем ей туда?

Flora

ЦитироватьА зачем ей туда?
Называется - интеграция. Интел собирается выпустить такое чудо-юдо уже в этом году. А АМД только через год. Так что никаких
ЦитироватьЛет через 10-12
==============
Первый процессор семейства AMD Fusion, который будет объединять ядро X86 и графический ускоритель, появится лишь в 2011 году, тогда как Intel уже в конце этого года выпустит решение Havendale для настольных ПК — 32-нм двуядерный процессор и 45-нм графическое ядро под одной упаковкой.
Источник: X-bit labs
==============

MoroseTroll

Chuzhoi: Зачем? Всё к тому идёт. Транзисторы на кристалле всё равно надо куда-то тратить, вот поэтому AMD в своё время прикупила по случаю ATI (хотя, говорят, хотела nVidia), а Intel занялась Larrabee. Если nVidia не будет тупить, то либо сама займётся разработкой собственных x86-процессоров, либо купит ту же VIA с её наработками.
Flora: Я не совсем корректно выразился. Мной имелся ввиду момент, когда внешние видеокарты отомрут как класс начисто. А до тех пор, пока последние будут выпускаться, конечно, нет смысла для них менять имя "ATI" на "AMD". Вернее, он может появиться, если имя "AMD" надолго станет символом непревзойдённой производительности центральных процессоров.

Krackly

Ээээ... да это же наверное очень неудобно будет, захочешь видюху поменять-меняй и проц...
Life's too short, so I can't wait!

xxThief

Думаю, дальше встраивания простецкой видеоподсистемы дело не пойдет. Просто перенесут из чипсета встроенное видеоядро в процессор (т.к. там контроллер памяти), а внешние видяхи как класс останутся. Кто ж даст убить такой огромный рынок?

Flora

ЦитироватьКто ж даст убить такой огромный рынок?
Дык то-то и оно, что рынок. Все хотят откусить и производители камней тоже... :)

MoroseTroll

Супротив статистики не попрёшь, братие и сестрие. А оная гласит, что процентная доля ПК, оснащённых встроенным видео, постоянно увеличивается, а оснащённых внешним видео - уменьшается. Понятное дело, что это перераспределение идёт весьма неторопливо, но оно идёт. А встроенное видео рано или поздно "переедет" из чипсета в центральный процессор.

[Исправлено: MoroseTroll, 12 мая 2009 11:40]

Force

Интересно, а наступят времена, когда у юзеров будет аж две лишних видяхи - помимо основной, одна - в проце, вторая - в мамке? :)

MoroseTroll


Flora

Цитироватьу юзеров будет аж две лишних видяхи
А я как раз думаю что никогда. Просто их мощность легко можно будет задействовать в играх под расчет физики/ расчет ИИ, либо еще какой фишки, которую обязательно придумают. Так что лишними они уж точно не будут, как сейчас.

Force

На мой взгляд намного эффективнее и универсальнее было бы наращивать ядерность процессоров, чем засовывать туда какие-то части отвечающие за графическую визуализацию. Ведь ядра и так можно использовать параллельно и под совершенно любые нужды, а если там будет какая-то особенная часть, которая отвечает только за графику, тогда как мы используем гФорс, её нужность становится под вопросом... Тем более обычно в БИОСе эти штуки отключаются на глубоком системном уровне и, боюсь, если кто-то у себя это отключит, использовать её будет невозможно. А уж про запары с кодом я вообще молчу. Никто, думаю, не будет париться и использовать часть проца, предназначенную для вывода графики, для расчетов чего-то ещё (если это вообще будет возможно), когда есть огромное количество ядер ГПУ + нормальные ядра самого проца.

Zontik

Гонка ядерных вооружений продолжается...
Дайте глазам отдохнуть! Тёмное место