Апгрейд

Автор false, 20 ноября 2006 09:51:57

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Maxim

MoroseTroll, спасибо.
Цитироватьи чем она быстрее
То есть существует не только объём кэш-памяти, но ещё и её скорость как отдельный показатель?

Boris3000 Спасибо за сведения в развёртке.
Блин, сижу и думаю насколько же я в джунглях увяз в обнимку с динозаврами. В принципе привык за жизнь, что почти никогда не было каких-то топовых показателей в компьютерах (почти, потому что однажды помню прикупил планку реально лучшей на тот момент памяти. это времена, когда 512 было круто), а они всегда были какие-то более-менее на момент, скажем так, "текущей современности", но потом очень долго в этом состоянии простаивали, когда мир вокруг обновлялся. Т.е. апгрейды редки. Ну да, приоритеты же в плане денег не в компьютерной сфере всегда были, но всё равно... меня смешит, умиляет вот эта регулярность, то как складывается.
Смешно и как-то дико, от того что смотрю на указанный тобой год 2010, а у кого-то ещё тогда-а-а-а был аж i7. А меня даже i5 никогда не было.
В недавнем прошлом длительно пользовался Core2Duo, Athlon X2. Нынче у меня Amd Phenom II X4 955 Black Edition. Фурычит явно шустрее всех предыдущих и в целом радует. Но я с себя тихо фигею снова  ;D 
Потому что вон у кого-то i7 ещё в 2010 был.
Ё-маёёё...
Хотя, он наверное и стоил в то время всё равно не подъёмно (для меня). Нынешние семёрки понятное дело ещё круче, а стоят всё так же не подъёмно.
Не, посоны, сафари по джунглям продолжается...

P.S. Ну разве что жёсткие 7200 и нормальных объёмов. Да и SSD на 120 Гб нынче за 2 с лишим тыс. можно взять. От тех же Кингстон есть решения. А видяшки — неее.... такое тока б/у брать. Ибо та же 1080 Ti стоит столько, что челюсть сводит.
Ну или учиться зарабатывать больше. Как стимул. Всегда можно плюс найти  ;D
Still they talk anyway
When there's nothing to say
There's so much said in empty words...

Призрак Boris'а3000

#2221
Цитата: Maxim от 28 мая 2018 19:05:50
То есть существует не только объём кэш-памяти, но ещё и её скорость как отдельный показатель?
Так, чтобы можно было выбирать при прочих равных, нет. Просто чем ниже уровень кэша, тем он медленнее (поэтому совершенно некорректно сравнивать 128 метров L4 с твоими 6-ю метрами L2), ну и в целом его скорость растёт вместе с крутизной и новизной процессоров.

Цитата: Maxim от 28 мая 2018 19:05:50
А видяшки — неее.... такое тока б/у брать
Что я позавчера и сделал. Взял на Авито Radeon R9 270 за 6000. И это ещё дорого. Но пришлось, т. к. за 4000 я карту прое... упустил, в общем.
Как обычно, взял крайне мало поюзанную (на ней даже не играли) и со всеми проверками на месте. Разве что не на гарантии.
Спойлер
Зонтику намёк.
[свернуть]

Первый раз в жизни в свою личную тачку Радеон втыкаю. Посмотрим, что это такое...
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

MoroseTroll

Цитата: Maxim от 28 мая 2018 19:05:50То есть существует не только объём кэш-памяти, но ещё и её скорость как отдельный показатель?
Да. На скорость влияют такие вещи, как задержка (в тактах процессора - чем меньше, тем лучше), шина, связывающая кэш-память с ядрами (в битах, чем больше/шире, тем лучше) и расстояние от конкретного сегмента кэш-памяти до ядра, которое запрашивает данные (чем меньше, тем лучше).

Насчёт Phenom II X4 955 BE: для своего времени это был очень даже приличный процессор, на уровне тогдашних Core i5, плюс/минус. Но да, время идёт, а с ним стареет и железо.
Насчёт GeForce 1080 Ti: я считаю, что приобретение такой видеокарты имеет смысл только при наличии монитора/телевизора с разрешением 3840*2160. Для обычного 1920*1080 за глаза хватает и GeForce GTX 1060 или Radeon RX 570/580. Но даже им, чтобы раскрыться по полной, потребуется гораздо более шустрый процессор, нежели Phenom II. Поэтому, если с деньгами напряг, рекомендую обратить внимание на Ryzen 2200G/2400G, которые, при весьма умеренной стоимости, обладают отличным быстродействием по части ЦП и довольно приличной скоростью встроенной графики.

Maxim

Ага, я так понял Ryzen это более совершенная и новая линейка. Но я как-то читал, что у них сильная зависимость от оперативной памяти. То есть в этом плане самодостаточность немного страдает. А ещё казалось бы недавно был наслышан про хорошие FX. Время идёт...
Понимаю, что разговоры какой гигант круче — Intel or AMD это сродни тёркам о религии, но даже если не вдаваться в детали на уровне экспертов, а просто говорить на обывательском уровне поверхностных замечаний по жизни, то могу сказать, что в целом решения от Intel мне кажутся наиболее стабильными. И в тестах даже когда смотрю сравнения, когда показывают игры и экран деляет ещё вертикальной чертой "слева одна фирма, справа другая" и демонстрируют показатели — у AMD вечно хоть что-нибудь, да окажется не так плавно.
Самое главное мне кажется это показатель "на вырост". То есть на будущее. У процессоров, как я понял, этот показатель куда с большим запасом, чем у видеокарт, потому что иногда вижу на ютубе ролики, где люди разгоняют какие-то древние процессоры эпохи 2006-2008 и умудряются играть в современные игры (при наличии достаточной карточки). Видеокарты этим похвастать не могут.
Жаль, что щас всё как-то в тандеме танцевать стало. Или я не знаю, а оно всегда так было? То есть оба компонента должны быть на уровне, чтобы раскрыть друг-друга. Да ещё и игры начали делиться на процессоро-зависимые или от видеокарты.
Да даже если бы денег буррики не жрали, всё равно кому охота устраивать возню с заменами каждый раз? Особенно, если ковыряться в системниках особого удовольствия не приносит. Вот и получается, что рекомендация
ЦитироватьRyzen 2200G/2400G
начинает казаться несколько опасной. Там 4 ядра, а не 8 и в целом может устареть быстро. То есть сэкономишь, но рискуешь продолжить пребывать в джунглях, т.к. может устареть через "пару дней" :)
Похоже, что для того чтобы разорвать круг нужен более-менее стремительный рывок и траты существенней, на что-нибудь из современных решений. Из серии "у всех на слуху". И чтобы с заделом на будущее.

Boris3000
ЦитироватьВзял на Авито Radeon R9 270 за 6000
Классно. А ты взял для майнинга? Или просто себе для игр?
6 тыс. для б.у. именно этой карты действительно дороговато.
Да, б.у. покупать реально не такое уж табу. Хотя есть риск нарваться на какую-нибудь "гретую" карту и получить артефакты. Тут важно внимательно выбирать и уметь заподозрить подвохи. Потому что далеко не всегда есть возможность как у продавца, так и покупателя устраивать личную встречу дома и смотреть на месте. Да и кому охота к себе звать с улицы? Но чаще всего банально другие города, а то и вовсе у китайцев на Али. Именно там я себе взял 750Ti (да, это старьё, но ещё вполне себе может что-то) как своеобразный "временный трамплин" на пути к чему-то более существенному. Цена вопроса 5 с лишним тыс. руб. Но! Я нашёл именно оригинал от Gygabyte! С серийным номером. Решение с одним вентилем, но большим, а от того мало шума. https://images.ua.prom.st/588762083_w640_h640_grggvn730d52gi_1.png
Китаёзы во всю продают двух-вентильные варианты от других производителей, но судя по многочисленным отзывам, это не придаёт тишины. Да ещё и потому что обороты не регулируются. То есть всё какое-то полу-левое. Ну... я не говорю конечно о дельцах, которые перепрошивают биос каких-то древних карт, а потом выдают их за более новые. Просто потому что об этом явлении и так всем известно. Такие до сих пор там есть, да. Поэтому надо быть внимательным. А после получения посылки записывать видео прям со вскрытия и последующих тестов изделия. Потому что тогда спор лучше пройдёт, если что. Всегда док-ва представить можно. 
ЦитироватьПервый раз в жизни в свою личную тачку Радеон втыкаю
У меня тоже Радеон была только раз в жизни. Остальные все джифорски.
Радеоны (во всяком случае старые, ещё до покупки их АМД) отличались какой-то "повышенной чёткостью" и правильностью цветов. Но это из разряда простых разговоров, без точных измерений. Может и накрутства людей. В том числе и у меня.

Осталось монитор тебе прикупить б.у. и с крутой матрицей, шоб было минимум претензий к "богомерзким ЖК". Потому что если я там бегаю с динозаврами, то ты вообще в неолите пребываешь. И это большой парадокс на фоне заявленных в подписи других компонентов. Не то, что белая, а вообще розовая ворона твой монитор. При всём к нему ламповом уважении. Ха ха ха.
Не думал ли что пора уж? Зонтику заметки даёшь (я подписываюсь обеими руками), а сам.... типа таВо.
Still they talk anyway
When there's nothing to say
There's so much said in empty words...

Призрак Boris'а3000

#2224
Цитата: Maxim от 28 мая 2018 21:36:31
Жаль, что щас всё как-то в тандеме танцевать стало. Или я не знаю, а оно всегда так было? То есть оба компонента должны быть на уровне, чтобы раскрыть друг-друга.
С того момента, как появились графические ускорители. Только насчёт этого "раскрытия" я всё же выскажусь, что правды в нём только половина. Да, современные игры упрутся в твой проц, но это лишь там, где на него нагрузка есть, а на видеокарту не очень. А вот как пойдут сцены с крутыми чисто графическими спецэффектами, да в тяжёлых режимах -- со сглаживанием, анизотропной фильтрацией и т. д., так мощная карта будет иметь смысл даже при самом дохлом проце. Поэтому пусть хоть в отдельных сценах, но польза от "неоправданно" мощной видеокарты будет.

Цитата: Maxim от 28 мая 2018 21:36:31
Да даже если бы денег буррики не жрали, всё равно кому охота устраивать возню с заменами каждый раз?
Проц поменять легко, особенно если кулер не сумасшедший -- и переустанавливать ничего не надо. Память добавить ещё легче. Видеокарту сменить тоже пара пустяков -- максимум обновить дрова. Главное -- это мать выбрать, в которую это всё можно будет потом воткнуть. Вот её надо брать на вырост, разгонябельную и не кастрированную. И если не хватает бабок, экономить надо на процессоре, памяти и видеокарте, а не на материнке. И не на блоке питания.

Цитата: Maxim от 28 мая 2018 21:36:31
А ты взял для майнинга? Или просто себе для игр?
Конкретно эту -- для всего. Она будет основной на моей машине. Поэтому должна завестись и на ХР, и на 7, и играть уметь, и майнить с приличным хэшрейтом, и жрать не слишком много. И по сумме всех требований альтернативы для R9 270 просто нет.

Цитата: Maxim от 28 мая 2018 21:36:31
6 тыс. для б.у. именно этой карты действительно дороговато.
Ну, чувак только админил на ней на работе, поэтому и заломил за хорошее состояние. Плюс, уже все осведомлены, что видюхи можно использовать не только для игр. Даже дохлые пытаются за 2000 спихивать.

Цитата: Maxim от 28 мая 2018 21:36:31
Хотя есть риск нарваться на какую-нибудь "гретую" карту и получить артефакты.
Самый первый раз у меня так и вышло (брал без проверки). Но этот первый раз остался единственным. При этом, учитывая, что б/у в 2-3 раза дешевле, то за цену новой можно купить две-три б/у-карты, и уж одна-то окажется нормальной. Поэтому при такой разнице в цене этот риск не имеет значения.
Более того, при покупке новой карты есть другой риск -- брак. Да, есть гарантия, но пользоваться ею никакого удовольствия не доставляет. При покупке же б/у риск нарваться на брак полностью отсутствует, т. к. карта уже обкатана и проверена, а брак, в соответствии с кривой отказов, ломается всегда в самом начале эксплуатации.

Цитата: Maxim от 28 мая 2018 21:36:31
Потому что далеко не всегда есть возможность как у продавца, так и покупателя устраивать личную встречу дома и смотреть на месте. Да и кому охота к себе звать с улицы?
Пока у меня ещё не было случая, чтоб я не нашёл нужный девайс с возможностью проверки на месте. А напокупал я уже прилично. Москва, конечно, но...

Цитата: Maxim от 28 мая 2018 21:36:31
Но чаще всего банально другие города, а то и вовсе у китайцев на Али
Не, никаких других городов и китайцев. Это не наше б/у. Наше -- это только с проверкой на месте или, на худой конец, с обещанием манибэка, если вдруг чего (ну и смотришь, можно ли чуваку верить).

Цитата: Maxim от 28 мая 2018 21:36:31
Именно там я себе взял 750Ti
Её я тоже себе как-нибудь прикуплю -- это последняя карта с VGA-разъёмом у nVidia (конкретно Асус и Микростар). :biggrin: Если б не майнинг, именно её и взял бы сейчас.

Цитата: Maxim от 28 мая 2018 21:36:31
Но! Я нашёл именно оригинал
Не понял. А всё остальное что?

Цитата: Maxim от 28 мая 2018 21:36:31
Решение с одним вентилем, но большим, а от того мало шума.
Это бабушка надвое сказала, в каком случае будет меньше шума. Но одно можно сказать точно -- в случае одинаковых вентиляторов два будут тише, чем один. Потому что уровень шума в зависимости от количества вентиляторов растёт линейно, а в зависимости от скорости вращения -- как минимум квадратично.
И сдаётся мне, что два маленьких вентилятора всё же обеспечат больший воздушный поток, чем один, но побольше. Значит, им потребуются меньшие обороты.
И ещё надо учитывать, что при одинаковых оборотах маленький вентилятор тише большого, потому что у него меньше линейная скорость движения краёв лопастей.
В общем, цель -- понизить линейную скорость лопастей. Этого можно добиться, либо поставив вентилятор побольше, но снизив ему обороты, либо увеличить количество вентиляторов, также снизив им обороты. И какой из этих двух способов окажется более эффективным, невозможно сказать без расчётов или эксперимента для данных моделей вентиляторов.

Если же подходить к вопросу шума бескомпромиссно, то надо сначала посмотреть, какие пассивные кулеры (радиаторы по сути) имеются в продаже. Выбрать радиатор, а потом уж под него подбирать видеокарту. Но для GTX750Ti такой подход необязателен -- у неё TDP всего 60 Вт. Да она уже в стоке должна быть пассивной, на неё лепить вентилятор -- это кощунство. Поэтому тебе надо было искать пассивную 750Ti, а не с одним, двумя, тремя и т. д. вентиляторами.
Для сравнения: моя только что отправившаяся в отставку 9600GT имеет TDP 95 Вт, имеет заводской аппаратный вольтмод для лучшей разгонябельности, и при этом оснащена пассивным кулером -- http://www.infolex.hu/kep/3684/nagy/gigabyte-gv-nx96t1ghp-9600gt-1gb-videokartya.jpg

Цитата: Maxim от 28 мая 2018 21:36:31
https://images.ua.prom.st/588762083_w640_h640_grggvn730d52gi_1.png
Это же 730-я.

Цитата: Maxim от 28 мая 2018 21:36:31
Осталось монитор тебе прикупить б.у.
Он и так у меня б/у. Откуда ЭЛТ не б/у??

Цитата: Maxim от 28 мая 2018 21:36:31
Потому что если я там бегаю с динозаврами, то ты вообще в неолите пребываешь
Зато требования к производительности видеокарты при 1024х768 минимальны. А карта тянет за собой и блок питания.

Цитата: Maxim от 28 мая 2018 21:36:31
Не думал ли что пора уж?
Не, мой час ещё не пришёл. По-прежнему слишком много геморроя с выбором. При этом все мои заё... капризы не подпадают под гарантийный случай, и велик риск хренову тучу денег одним махом просадить в никуда. Не, я лучше пойду за 500 рублей очередную ЭЛТ-шку с рук возьму, когда эта сдохнет.

Цитата: Maxim от 28 мая 2018 21:36:31
Зонтику заметки даёшь (я подписываюсь обеими руками), а сам.... типа таВо.
От моего монитора никому не холодно и не жарко, в отличие от зонтиковской видеокарты. А для снятия скринов переключаюсь в 2048х1536, которые не полезут на твой суперсовременный Full-HD LCD.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

Zontik

ЦитироватьА для снятия скринов переключаюсь в 2048х1536
Это как?! Давно уже не имел дела с ЭЛТ, все забыл. Они могут выдавать разрешение больше заявленного?
Дайте глазам отдохнуть! Тёмное место

Призрак Boris'а3000

Никто не может выдавать разрешение больше заявленного. Вопрос -- а что заявлено? А заявлено максимальное 2048х1536 (и то это ограничение VGA-интерфейса, а не монитора) и оптимальное 1024х768. Это же ЭЛТ -- у него нет "того самого" единственного разрешения, на котором он только и показывает нормально. Какое хочешь, такое и ставь -- от 640х480 до 2048х1536.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

Zontik

Я смутно помню, что на моем старом ЭЛТ изображение шло зигзагами после какого-то определенного разрешения. Видеокарта позволяла, формат VGA позволял, а монитор не тянул. Хотя даже при максимально возможном мелкий текст уже не читался, то есть пределы разумного преодолевались легко.
Вероятно, твой текущий монитор просто получше.
Дайте глазам отдохнуть! Тёмное место

Призрак Boris'а3000

Да, это зависит от ширины полосы пропускания видеоусилителя. У моего 250 МГц. Другие и не беру -- только с "толстым" усилителем, с режимами форсированных яркости и контраста и с хорошими сведением и фокусировкой, чтоб картинку нормальную давали.
А 2048х1536 при 17-ти дюймах неюзабельно, да -- микроскоп нужен. Поэтому использую его только для скринов. Да и зачем девайс насиловать, если и 1024х768 нормально.
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

Force

[off]Boris3000
ЦитироватьПервый раз в жизни в свою личную тачку Радеон втыкаю. Посмотрим, что это такое...
Отлично! Ты взят на заметку! У меня близится новый тестовый билд.[/off]

Призрак Boris'а3000

[off]

Force
Только дрова у меня будут 15.12. Ничё?[/off]
Corsair HX1000i / Gigabyte GA-X48-DS4 / Intel Core2-Quad Q9650@4.1GHz / Hynix 8GB DDR2-800@1100MHz /
EVGA 6GB GDDR5 <GeForce GTX 980Ti> K|NGP|N Edition / Creative SB X-Fi Xtreme Gamer Fatal1ty Pro Edition /
2xSSD Intel X25-M 120GB в RAID 0 / Samsung SyncMaster 957MB (CRT 2048х1536) / UPS PCM SKP-2000A /
Windows XP Professional SP3 VL 32-bit + Windows 7 Enterprise SP1 U 64-bit / ForceWare 368.81 / New-Dark 1.26

Force

Boris3000, я ваще не в курсе :). Что это значит? Они старые или новые? В чем их особенность? У меня был Radeon 9800 pro, когда у Geforce была отстойная линейка 5800... Тогда он был крут. Но потом появились новые шейдеры и мой радеон стал бесполезным... как видяха Зонтика сейчас :), технологии одного уровня. Я так прожил до 2009 года примерно, не помню уже, пересаживался даже на дешевый gf 440mx чуть ранее... Пока не купил gf 285 gtx. Так что, можно считать, радеона у меня не было 10 лет. Поэтому, поясни за дрова!

MoroseTroll

#2232
Цитата: Maxim от 28 мая 2018 21:36:31Ага, я так понял Ryzen это более совершенная и новая линейка.
Да.
Цитата: Maxim от 28 мая 2018 21:36:31Но я как-то читал, что у них сильная зависимость от оперативной памяти.
Чуть большая, чем у Core.
Цитата: Maxim от 28 мая 2018 21:36:31То есть в этом плане самодостаточность немного страдает.
А в чём выражается эта самодостаточность и как она страдает?
Цитата: Maxim от 28 мая 2018 21:36:31А ещё казалось бы недавно был наслышан про хорошие FX. Время идёт...
Процессоры семейства Bulldozer (и его потомки, в лице Piledriver, Steamroller и Excavator) основаны на изначально ошибочной для настольных и переносных ПК схеме "ядра слабые, но их много". Как оказалось, для серверов эта схема тоже оказалась неудачной. Zen (микроархитектура в основе Ryzen, Threadripper и Epyc) - шаг в правильном направлении, в сторону "ядра очень сильные, и их достаточно".
Цитата: Maxim от 28 мая 2018 21:36:31Понимаю, что разговоры какой гигант круче — Intel or AMD это сродни тёркам о религии, но даже если не вдаваться в детали на уровне экспертов, а просто говорить на обывательском уровне поверхностных замечаний по жизни, то могу сказать, что в целом решения от Intel мне кажутся наиболее стабильными.
В чём выражается эта стабильность?
Цитата: Maxim от 28 мая 2018 21:36:31Вот и получается, что рекомендация
ЦитироватьRyzen 2200G/2400G
начинает казаться несколько опасной. Там 4 ядра, а не 8 и в целом может устареть быстро.
2200G - 4 ядра/4 потока (т.е. это аналог Core i5 7***), 2400G - 4 ядра/8 потоков (т.е. это аналог Core i7 7***). Напоминаю, что Intel, в отличие от AMD, пока не выпускает 8-ядерные процессоры для массового рынка (то бишь для платформы LGA 1155), максимум 6-ядерные. Говорят, что 8-ядерные модели скоро появятся, но даже если и так, то стоить они будут в районе 500$. Ты серьёзно планируешь покупку такой модели?
Цитата: Maxim от 28 мая 2018 21:36:31То есть сэкономишь, но рискуешь продолжить пребывать в джунглях, т.к. может устареть через "пару дней" :)
В процессорной части 2200G и 2400G будут устаревать с такой же скоростью, как и Core i5/i7 7***, т.е. они будут актуальны ещё как минимум 5-7 лет.

MoroseTroll

Force: Версии драйверов графики AMD уже давно имеют очень удобную маркировку: <год>.<месяц>.<редакция>. Иными словами, 15.12 - это декабрь 2015-го.

Force

MoroseTroll, ясно, спасибо.
Boris3000, я думаю, проблем не будет. Но возникает вопрос - чем обусловлен выбор именно этих дров? Неужели более новые работают хуже?