Способы определения видеокарт Nvidia Geforce RTX 30 с ограничителем майнинга LHR
Компания Nvidia в мае 2021 года решила все свои игровые видеокарты серии Ampere или RTX 3000 (кроме самой старшей модели RTX 3090) ограничить в производительности по добыче криптовалют. Поэтому новые модели анонсированные в мае: Geforce RTX 3070 Ti и RTX 3080 Ti идут с ограничителем майнинга по умолчанию, а модели RTX 3060 Ti, RTX 3070, 3080, изначально не имевшие ограничений в майнинге, начиная с 22 недели 2021 года так же выпускаются с новой ревизией GPU, в которой так же будет встроена защита от майнинга. Что бы отличать старые (незаблокированные) и новые (заблокированные) ревизии видеокарт, компания Nvidia ввела новый термин LHR (Lite Hash Rate). Особняком здесь стоит видеокарта RTX 3060, которая изначально была выпущена с ограничителем майнинга, но впоследствии это ограничение смогли обойти и компании NVidia пришлось для RTX 3060 так же выпускать новую ревизию GPU с более сильной защитой от майнинга, но при этом видеокарты RTX 3060, как и RTX 3070 Ti, и RTX 3080 Ti в своем названии не имеют обозначения LHR, хотя по факту они такими и являются. Все еще более запутанней становится от того, что почти все бренды, выпускающие видеокарты Nvidia, не указывают на коробке или в названии модели LHR это видеокарта или нет. Собственно в этом материале мы и попытаемся рассказать по каким признакам можно будет отличить LHR видеокарты Nvidia, выпускаемые различными брендами: ASUS, Palit, MSI, KFA2, Gigabyte, Inno3d.
1 Способ. По названию.
Все видеокарты RTX 3090 не имеют ограничений в майнинге.
Видеокарта RTX 3060 имеет два вида блокировки программную, которую уже взломали, и LHR. Маркировка LHR для этой видеокарты так же не указывается, т.к. эти видеокарты изначально выпускались с блокировкой майнинга.
Видеокарты Nvidia RTX 3070 Ti и RTX 3080 Ti все с ограничителем майнинга LHR, даже если это и не указано в названии и на коробке с видеокартой.
Для видеокарт RTX 3060Ti, RTX 3070 и RTX 3080 производитель может указать на коробке или в названии о принадлежности продаваемой видеокарты к новой ревизии, в которой реализованна технология Lite Hash Rate (LHR). В этом случае сразу понятно, что в майнинге такие видеокарты будут показывать заниженный хешрейт.
Если в названии модели нет указаний, что это LHR модель, то к сожалению, это не означает, что это старая ревизия без ограничений в майнинге. Это может быть как LHR так и обычная видеокарта.
По каким причинам производители вводят покупателей в заблуждение: намеренно или нет. Остается только догадываться.
Если Вам попалась видеокарта без обозначения LHR, то для проверки такой видеокарты на ограничение в майнинге воспользуетесь другими способами.
2 Способ. По GPU ID
Это самый надежный способ проверки на наличие LHR в видеокарте компании Nvidia, но для этого необходимо проверяемую видеокарту установить в компьютер и запустить программу СPU-Z или аналогичную в которой есть возможность узнать GPU ID видеокарты.
Понятно, что при покупке видеокарты под заказ или в интернет магазине такой возможности у Вас точне не будет, поэтому такой способ больше подойдет при покупке видеокарт на вторичном рынке или в местном магазине у которого можно вернуть товар в первые дни после покупки.
Все GPU ID видеокарт Nvidia RTX 3000
Видеокарта
GPU ID
LHR
Подробнеее
RTX 3060
GA106-300
—
Программный LHR
GA106-302
LHR
RTX 3060 Ti
GA104-200
—
GA104-202
LHR
RTX 3070
GA104-300
—
GA104-302
LHR
RTX 3070 Ti
GA104-400
LHR
RTX 3080
GA102-200
—
GA102-202
LHR
RTX 3080 Ti
GA102-225
LHR
RTX 3090
GA102-300
—
3 Способ. По обозначению модели
Все видеокарты в зависимости от модели и производителя имеют свой уникальный номер или код продукта. У каждой компании в этом отношении свои правила по обозначению различных моделей видеокарт и их исполнения.
Эти обозначения всегда можно посмотреть на коробке от видеокарты или на самой видеокарте, так же обозначение кода продукта часто указывается на сайтах компьютерных магазинов.
С выходом LHR модификаций все производители выпустили новые ревизии видеокарт, что отразилось в их обозначении:
Кроме обозначения модели у каждой видеокарты есть серийный номер, по которому можно определить дату выпуска данной видеокарты. Обозначение даты выпуска для каждого производителя в серийном номере так же отличается и не имеет единой системы. Поэтому для каждого производителя рассмотрим обозначение дат в серийных номерах отдельно.
Определение даты выпуска видеокарт Nvidia по серийному номеру
Серийный номер компании ASUS: M2 N0CX00Y276001
Серийный номер компании Gigabyte: SN 2125 41020415
где 2125 это 21 год и 25 неделя. Поэтому с большой вероятностью это видеокарта будет с LHR.
Серийный номер компании Palit: B O20 0154221
Серийный номер компании MSI: 602-V389-143SB 2106 000014
где 2106 это 21 год 6 месяц
Для видеокарт Zotac, EVGA, KFA2 и Inno3D мы не нашли информации как определить по серийному номеру дату производства. Если у Вас есть такая информация, то поделитесь ею с нами в телеграм чате Cryptoage.
5 Способ. По маркировке GPU чипа.
Узнать GPU ID видеочипа можно так же разобрав видеокарту и удалив термопасту с чипа, где будет гравировка с GPU ID. В этом способе нет необходимости, т.к. GPU ID можно узнать с помощью программы CPU-Z, тем более что при разборке видеокарты теряется гарантия и вернуть такую видеокарту в магазин по гарантии уже не получится.
Дата производства видеокарты после 22 недели 2021 года, т.е. после мая 2021 года, не означает что все видеокарты выпущенные после этой даты имеют ограничение майнинга LHR, т.к. у производителей еще остались запасы старых GPU чипов, которые они постепенно используют в производстве. Соответственно, чем позже выпуск видеокарты, тем меньше шансов купить видеокарту Nvidia без ограничетеля в майнинге.
Подпишись на наш Telegram канал @cryptoage и Вконтакте, узнавай новости про криптовалюты первым.
Общайся с криптоэнтузиастами и майнерами в Telegram чате @CryptoChat
Лучшие биржи для покупки и обмена криптовалют, токенов:
Биржа
Преимущества
Бонусы при регистрации
Binance
Самая крупная и известная крипто биржа в мире. Надежность и функционал на самом высшем уровне.
Лучшая биржа для торговли крипто фьючерсами. Проводит торги акциями крупных компаний (Apple, Tesla. )
Вся правда о TGP в видеокартах NVIDIA GeForce RTX 30 для ноутбуков
С момента официального анонса нового поколения мобильных видеокарт NVIDIA GeForce RTX 30-й серии для ноутбуков в сети появилось множество разной и в тоже время противоречивой информации о новой графике. Мы расскажем о частотах и энергопотреблении новых видеокарт в наших ноутбуках, а также дадим ответ на вопрос, почему одна и та же видеокарта, установленная в разных ноутбуках, может показывать разную производительность, и как выбрать именно то, что нужно вам.
Почему мобильная графика раньше была медленнее десктопной?
Прежде чем переходить к техническим характеристикам мобильных видеокарт GeForce RTX 30-й серии, стоит вспомнить, с чего всё началось. Откуда появилась технология Max-Q, для чего она создавалась и какие преимущества она предоставила пользователям. Давайте вспомним, с чего всё начиналось.
С момента своего появления мобильная графика отставала от аналогичных по названию десктопных версий. В начале нулевых техпроцесс всё ещё измерялся в десятках и сотнях нанометров, и несмотря на то, что топовая десктопная графика того времени не требовала двух- или трёх-слотовых систем охлаждения, уместить её в ноутбуках не представлялось возможным. Ведь остальные электронные компоненты также были большими и требовали больше места для размещения на материнской плате. К тому же системы охлаждения того времени были не так эффективны, как нынешние. В итоге NVIDIA снижала мощность мобильных видеокарт, чтобы сделать возможной их установку в ноутбуки. Даже драйвера для мобильных и десктопных видеокарт в то время различались и выпускались строго по отдельности.
ASUS V8200 DLX (NVIDIA GeForce3), 2002 год
Чтобы пользователи лучше понимали, какая видеокарта устанавливается в ноутбук, мобильная графика обозначалась иначе, чем десктопная. Когда названия серий состояли из одной цифры, в названии мобильной графики появилось дополнительное слово «Go». Например, видеокарта NVIDIA GeForce 4 MX 460 предназначалась для компьютеров, а NVIDIA GeForce 4 Go 460 – для ноутбуков.
ASUS ENGT220 (NVIDIA GeForce GT220), 2009 год
Когда видеокарты NVIDIA стали наращивать количество унифицированных шейдерных процессоров, одного лишь снижения частот стало недостаточно. Чтобы уложиться в теплопакет, с которым может справиться система охлаждения ноутбуков, NVIDIA стала отключать часть шейдерных процессоров в видеоядре.
Разница в производительности десктопных и мобильных видеокарт сохранялась до 2016 года, пока NVIDIA не представила архитектуру Pascal и видеокарты GeForce GTX 10-й серии. На этом этапе NVIDIA смогла свести к минимуму разницу между десктопными и мобильными GPU. Для обозначения мобильных видеокарт больше не требовались дополнительная буква, индекс или слово.
У NVIDIA GeForce GTX 1080 и GTX 1060, созданных для ноутбуков и компьютеров, стало одинаковое количество ядер CUDA. Даже у мобильной GeForce GTX 1070 оказалось чуть больше CUDA-ядер по сравнению с её десктопным аналогом. Разумеется, частоты у мобильных и десктопных видеокарт немного различались, но разрыв между мобильной и «полноценной» десктопной графикой в рамках одного поколения стал не настолько большим и заметным, как это было ранее. А в зависимости от эффективности системы охлаждения, разницы могло и вовсе не быть, как, например, в случае с ноутбуком ROG G703.
Появление архитектуры Pascal стало прорывом для тех, кто предпочитал играть на ноутбуках которые, в отличии от компьютера, всегда можно взять с собой. Ноутбуки с видеокартами GeForce GTX 10-й серии легко справлялись с играми того времени.
Появление технологии Max-Q
Игровые ноутбуки с топовой графикой, которая справляется с современными играми — это прекрасно. Однако, у любой медали есть две стороны. Производительная видеокарта непременно будет горячей, для неё потребуется большая система охлаждения, которая во многом определяет толщину и вес ноутбука.
Для примера возьмём ROG G703, высокую производительность которого обеспечивал 4-ядерный процессор Intel Core i7-7820HK в паре с видеокартой NVIDIA GeForce GTX 1080. Топовая конфигурация для своего времени! Однако, при толщине в 51 мм и весе в 4,7 кг ROG G703 совершенно точно нельзя назвать ноутбуком, который можно носить с собой на работу каждый день. Скорее, это полноценная замена десктопа, которую при необходимости можно легко перенести в другое место. Главное, не забыть с собой огромный блок питания :).
Пользователям хотелось получить не только мощные, но и тонкие игровые ноутбуки, а производители стремились удовлетворить потребности. Все-таки, ноутбук ассоциируется с компактностью и мобильностью. К тому же, игровые ноутбуки многие используют для работы – мощная начинка одинаково хорошо справляется как с играми, так и с большинством тяжёлых задач, вроде сложных расчётов, обработки фото, видеомонтажа и так далее. Но это требовало создания более энергоэффективных видеокарт, которыми в будущем и стали линейки под названием NVIDIA Max-Q.
В аэродинамике точкой Max-Q называют момент максимальной нагрузки на ракету в атмосфере, который особенно учитывается конструкторами. Компания NVIDIA применила похожий подход при разработке серии видеокарт Max-Q, которые работают на пределе своей энергоэффективности.
Необходимо пояснить, что не стоит путать понятия «энергоэффективность» и «производительность». В первом случае графика работает с максимальной производительностью относительно потребляемой мощности, и не выходит за пределы заложенного лимита энергопотребления. Во втором случае происходит прирост производительности, за который приходится расплачиваться увеличивающимся тепловыделением и энергопотреблением.
Зависимость между потребляемой мощностью и ростом производительности нелинейная. При увеличении потребляемой мощности прирост производительности сперва будет заметным, линейным, а потом, после прохождения точки максимальной эффективности, прирост производительности (который не стоит путать с самой производительностью) замедляется. Проще говоря, видеокарта NVIDIA GeForce GTX 1080 будет быстрее GTX 1080 Max-Q, но при этом потребует улучшенной системы охлаждения и станет потреблять больше энергии.
В результате в 2017 году на рынке появилось два типа ноутбуков: с классической графикой GTX 10-й серии и с графикой Max-Q. Появление линейки Max-Q позволило выпускать тонкие и лёгкие игровые модели, чего не удавалось добиться ранее. Для Max-Q не требуется крупногабаритная система охлаждения. При этом, видеокарты Max-Q остались производительными. Например, топовая версия GeForce GTX 1080 Max-Q оказалась почти в 2 раза быстрее обычной мобильной GeForce GTX 1060.
Благодаря появлению видеокарт Max-Q, мы смогли выпустить тонкие, лёгкие и при этом мощные игровые ноутбуки. Первой моделью стал 15-дюймовый ROG Zephyrus GX501. В ноутбуке толщиной 17,9 мм и весом 2,26 кг была установлена графика NVIDIA GeForce GTX 1080 в дизайне Max-Q в паре с 4-ядерным процессором Intel Core i7-7700HQ. Для рынка ноутбуков 2017 года это стало революцией.
Различия между TDP и TGP
Долгое время энергопотребление видеокарт обозначалось аббревиатурой TDP. Расшифровать эти три буквы можно как Thermal Design Point или Thermal Design Parameter. Значение TDP обозначало, сколько Ватт тепла нужно отводить от кристалла GPU, и не указывало общее энергопотребление видеокарты. Параметр TGP напротив указывает, сколько Ватт потребляет вся видеокарта целиком.
Графика NVIDIA GeForce RTX 30-й серии в ноутбуках ASUS и ROG
За время существования графики NVIDIA GeForce RTX 10-й и 20-й серий, мы успели привыкнуть к тому, что видеокарты для ноутбуков и десктопов стали практически одинаковыми. Однако, выход мобильных видеокарт нового поколения на архитектуре Ampere снова поменял правила игры.
Десктопные видеокарты NVIDIA GeForce RTX 30-й серии оказались не только производительными, но и требовательными к питанию. Согласно официальному сайту NVIDIA, энергопотребление GeForce RTX 3080 составляет 320 Вт, когда как GeForce RTX 2080 Super потребляла 250 Вт. При этом, мы имеем в виду энергопотребление, указанное без заводского разгона и самых пиковых значений.
Разница в энергопотреблении у старого и нового поколения видеокарт оказалась заметной. Впервые видеокарта NVIDIA с одним GPU потребляет более 300 Вт. Учитывая высокое энергопотребление и впечатляющую производительность графики, перед инженерами NVIDIA появилась сложная задача по оптимизации десктопной графики к мобильным реалиям. Если системы охлаждения ASUS и Republic of Gamers легко могут отвести от десктопной видеокарты всё лишнее тепло, то в случае с ноутбуками мы ограничены толщиной корпуса, которая не позволяет установить СО толщиной несколько сантиметров.
ROG Strix GeForce RTX 3080
В результате, инженерам NVIDIA пришлось вынужденно вернуться к старым методикам –отключению CUDA-ядер. Также при разработке ноутбука стало возможным ограничивать TGP видеокарты как в большую, так и в меньшую стороны. Это означает, что на этапах проектирования и производства можно выставить максимальное энергопотребление согласно возможностям системы охлаждения. В результате на рынке появились ноутбуки с одинаковым названием видеокарт, но разной производительностью, что закономерно привело в замешательство многих пользователей.
Мы всегда открыто рассказываем о компонентах своих игровых ноутбуков. Чтобы у наших пользователей не осталось вопроса, какая именно графика используется в заинтересовавшем ноутбуке, мы публикуем таблицу с данными TGP и рабочими частотами для каждой отдельной модели. Скоро эти данные станут доступны на нашем официальном сайте в разделе технических характеристик на страницах новых ноутбуков.
В таблице указано как энергопотребление видеокарты (TGP), так и дополнительная мощность, потребляемая в режиме Dynamic Boost. Вместе с мощностью в таблице указана частота Boost Clock. Стоит отметить, что это скорее базовые частоты, на которых будет работать GPU. Реальная максимальная частота окажется выше, она зависит от системы охлаждения ноутбука и температуры в конкретный момент.
Пример увеличения тактовой частоты GPU у ноутбука Zephyrus Duo 15 SE GX551
Теперь разберёмся с новой мобильной графикой на примере. Рассмотрим пять 15-дюймовых ноутбуков с графикой NVIDIA GeForce RTX 3070: ROG Zephyrus Duo 15 SE, ROG Zephyrus G15, ROG Strix SCAR 15, TUF Dash F15 и TUF A15. Для того, чтобы сравнение стало наглядным, поместим ноутбуки в отдельную таблицу.
В сравнении наглядно видно, что производительная система охлаждения Active Aerodynamic System, которая используется в ROG Zephyrus Duo 15 SE, может отвести 130 Вт тепла от видеокарты. Основная мощность в 115 Вт приходится на стандартное энергопотребление (TGP), и ещё 15 Вт – на Dynamic Boost. Если система решит, что возможностей системы охлаждения ноутбука хватит для увеличения нагрузки на графику, то, благодаря GPU Boost, видеокарта получит дополнительные 15 Вт мощности и сможет работать быстрее. В результате её энергопотребление вырастет до 130 Вт.
Системы охлаждения остальных ноутбуков ROG Zephyrus G15, TUF Dash F15 и TUF A15, сделаны по классическому принципу. В них у видеокарт был снижен параметр TGP, чтобы система охлаждения справилась со своей задачей. Вместе с TGP закономерно снизились частоты примерно на 16%, но при этом энергопотребление платы снизилось на 30%.
Заключение
Мы делаем всё возможное, чтобы предложить нашим пользователям полную и разнообразную линейку ноутбуков с разными форм-факторами, производительностью и ценой. Надеемся, что опубликованная информация по энергопотреблению мобильных видеокарт будет для вас полезной, и поможет лучше разобраться в современном рынке игровых ноутбуков, и понять различия в мобильной графике нового поколения в ноутбуках ASUS и Republic of Gamers.
PS. По просьбам в комментариях добавили скидку в 5000 рублей по промокоду habr на все ноутбуки с графикой NVIDIA GeForce RTX 30-серии в нашем Интернет-магазине.
Естественное желание каждого покупателя — получить максимум отдачи от приобретенного товара. То есть — выбрать из конкурирующих решений наиболее качественное, функциональное, либо просто в большей степени соответствующее вкусам нового владельца.
Это стремление логично и не нуждается в каких-либо пояснениях. Но парадокс заключается в том, что чем более технологичным (а следовательно — более дорогостоящим и менее регулярно приобретаемым) является товар — тем в меньшей степени покупатели склонны оценивать его первостепенные характеристики, обращая внимание на менее значимые моменты или вовсе сводя покупку в область эмоций.
Комплектующие для компьютера — в частности, видеокарты, — отнюдь не исключение из этого правила. Ошибок при их выборе совершается немало, и в данной статье мы постараемся осветить основные из них.
Нужно ли смотреть на объем памяти?
К сожалению, фразы вроде «фу, у этой карты 4 гигабайта, на ней только в пасьянс играть!», «у этой видеокарты всего 6 гигабайт памяти, я лучше возьму вот эту — у ней сразу 8!» или бессмертное «у меня карта на 8 гигабайт, эта игрушка на ультра летает!» буквально заполоняют компьютерные форумы, карточки товаров в интернет-магазинах, социальные сети и прочие смежные ресурсы.
Принято считать, что чем больше у карты набортной памяти — тем выше ее производительность, а прочие характеристики либо второстепенны, либо вовсе не имеют значения.
На самом деле, конечно же, это не так.
Набортная память видеокарты сама по себе не влияет на производительность — это всего лишь хранилище для используемых видеокартой данных. И фраза о преимуществах видеокарты с 8 гигабайтами набортной памяти над картой с 6 гигабайтами звучит буквально как «автомобиль с багажником на 500 литров быстрее, экономичнее, комфортнее и лучше в управлении, чем автомобиль с багажником на 350 литров».
Иначе говоря — представляет собой полный абсурд.
Во-первых, производительность видеокарты определяется в первую очередь характеристиками ее ГПУ: количеством исполнительных блоков, архитектурными особенностями, рабочими частотами. Говоря проще — при одинаковом объеме набортной памяти (6 гигабайт), бюджетная GeForce GTX 1660 никогда не будет равна GeForce RTX 2060, стоящей на пару ступеней выше в линейке продуктов.
Но в качестве наглядного примера мы рассмотрим другие карты аналогичных классов:
Встроенный бенчмарк игры Assassin’s Creed: Odyssey запущен в разрешении FullHD с настройками графики, соответствующими штатному профилю «Высокое качество». Конфигурация ПК полностью идентична, за исключением самих видеокарт.
Слева — Radeon RX 5600 XT в исполнении Sapphire с типичными для этой модели 6 гигабайтами набортной памяти.
Справа — Radeon RX 5500 XT в исполнении MSI в версии с 8 гигабайтами набортной памяти.
Частоты видеокарт, в отличие от ЦПУ и оперативной памяти, не приведены к общему знаменателю, но в данном случае этого и не требуется — разница и без того очевидна.
В первом случае по итогу тестовой сцены мы получаем 74 кадра по среднему фпс, 62 кадра по минимальному и просадки до 59 кадров в 1% редких событиий. Во втором — 60, 50 и 48 кадров соответственно.
Так какая карта оказывается быстрее — с 6 или с 8 гигабайтами памяти на борту?
Во-вторых, как уже говорилось выше, память видеокарты — это хранилище данных. А размеры любого хранилища рассчитываются исходя из объема содержимого, которое в него планируется поместить. В случае видеокарты — исходя из объема памяти, который реально задействуют игры. А требования игр — отнюдь не константа, они находятся в прямой зависимости от разрешения экрана и настроек графики. Говоря проще — одна и та же игра на высоких и на средних настройках будет обладать совершенно разными аппетитами.
Рассмотрим следующий пример:
Red Dead Redemption 2, одна из самых требовательных игр последних лет. Здесь используется одна и та же видеокарта — Radeon RX 5500 XT 8gb в исполнении MSI.
Слева используются высокие настройки графики, справа — средние. Разрешение в обоих случаях — FullHD.
Мониторинг позволяет увидеть, что на высоких настройках используется до 6900 мегабайт набортной памяти, так что 8 гигабайт, чтобы поиграть в RDR 2 на высоких, — вполне реальная необходимость. На средних же потребление памяти снижается до 5500 мегабайт — так что карт с 6 гигабайтами памяти на борту для этих настроек тоже хватит. Однако есть одно большое «НО».
C RX 5500 XT, пусть у него и есть необходимые 8 гигабайт памяти, на высоких настройках мы получаем 45 кадров по среднему фпс, 38 — по минимальному и просадки до 36 кадров в 1%.
Бесспорно, многие назовут этот режим играбельным, но, если подходить к вопросу объективно — для по-настоящему комфортного геймплея настройки следует понижать.
На средних же настройках с тем же RX 5500 XT мы получаем 61, 52 и 49 кадров соответственно. Эти показатели как раз и можно назвать комфортными.
Вывод из примеров выше будет следующим:
Объем памяти — важный параметр, но учитывать его необходимо не в отдельности, а только и исключительно в комплексе всех прочих характеристик видеокарты.
Да, в реалиях сегодняшнего дня, даже если вы выбираете видеокарту для игр в самом ходовом разрешении FullHD, следует ориентироваться на карты с объемом памяти в 6 и 8 гигабайт, НО — только в том случае, если выбранная вами карта способна обеспечить комфортный фпс в интересующей вас игре на тех настройках, где эти 6 или 8 гигабайт реально потребуются.
Если же вас интересуют сетевые игры со сравнительно простой графикой, если вы планируете играть в игры не последних лет выпуска, либо если выбирается очень бюджетное решение, способное тянуть тяжелые новинки только на средневысоких настройках — нет смысла гнаться за большим объемом памяти. Во всех этих случаях либо реальное потребление памяти в игре будет сравнительно низким, либо производительность упрется в возможности ГПУ, а не памяти карты.
Так ли важны характеристики разрядности шины памяти или частоты в отдельности?
Этот и последующий пример можно охарактеризовать так же, как и вопрос с объемом памяти видеокарты. А именно — как стремление не рассматривать характеристики продукта не в комплексе, а максимально упростить их, сведя лишь к одному параметру.
Тезисы, разумеется, здесь звучат максимально похоже: «как можно выпускать в 2020 году обрезок со 128-битной шиной?», «да тут всего 192 бита, а еще в прошлом поколении было 256 — я лучше возьму старую карту, она явно быстрее!» и так далее.
Во-первых, помимо ширины шины памяти, есть такие понятия как рабочие частоты и тип памяти. Итоговую пропускную способность подсистемы памяти эти характеристики формируют не по отдельности, а в комплексе. И современные чипы GDDR6 даже на 128-битной шине могут обеспечить те же, или близкие значения к показателям GDDR5 на 256-битной шине.
224 гигабита в секунду против 256 — совсем не та разница, которую следовало бы ожидать, говоря о вдвое «снизившейся» ширине шины памяти.
Однако, во-вторых, сводя все к одному параметру, пусть даже он является комплексным, мы совершаем ровно ту же ошибку, что и рядовые покупатели. Пропускная способность интерфейса описывает лишь максимальный объем данных, который теоретически можно передать за единицу времени.
Ключевое слово здесь — теоретически. На практике же значение имеет архитектура ГПУ и предполагаемые ей алгоритмы сжатия данных.
Рассмотрим очередной практический пример:
Metro: Exodus, встроенный бенчмарк. Разрешение — FullHD, настройки графики — высокие, тесселяция включена, технологии Hairworks и Advanced PhysX — выключены.
Слева — Radeon RX Vega 56, использующий скоростную память типа HBM2 на 2048-битной шине. Справа –GeForce RTX 2060, с типичной для нее GDDR6 на 192-битной шине.
Казалось бы, при таких вводных данных разница в пользу первого решения должна быть очевидной, но на самом деле с Vega56 по итогу теста мы получаем 67 кадров по среднему фпс и 35 — по минимальному, а с RTX 2060 — 66 и 35 кадров соответственно.
Видеокарта — это крайне сложное и технологичное устройство, буквально «компьютер в компьютере», оснащенный собственным процессором, собственным объемом памяти и интерфейсами для передачи данных. И, как у любого компьютера, у видеокарты есть своя архитектура и свой софт, использующий ее преимущества. Поэтому любой параметр, касающийся характеристик видеокарты, нельзя рассматривать в отдельности, а уж тем более — делать какие-то выводы, основываясь исключительно на одном этом параметре.
Впрочем, не совсем так.
Есть один параметр, который действительно может определять и описывать абсолютно все, и согласно которому можно расставлять видеокарты по умозрительной лестнице предпочтений. И это, как легко догадаться — производительность карты в реальных играх.
Корректно ли сопоставлять количество функциональных блоков чипа при сравнении видеокарт разных поколений и от разных производителей?
Характеристики графического процессора, как и центрального процессора компьютера, определяются в первую очередь его частотой и количеством исполнительных блоков — т.е. универсальных шейдерных процессоров, текстурных блоков и блоков растровых операций.
И, как в случае центральных процессоров 6 ядер на частоте в 4000 МГц будут быстрее 4-х ядер на 3400 МГц, так и в случае ГПУ — чем выше частота и больше блоков, тем выше производительность. Однако, тут тоже есть свое большое «НО».
Как и ЦПУ, графические ядра видеокарт можно сравнивать «по цифрам» только в рамках одного поколения и одной архитектуры. Например, Radeon RX 580 с его 2304 процессорами, 144 TMU и 32 блоками ROP будет всегда быстрее RadeonRX 570, характеристики которого можно записать по формуле 2048/128/32.
Но вот когда заходит речь о картах разных поколений или разных производителей — стоит всегда иметь ввиду, что первостепенное значение имеет архитектура, а не частота или количество блоков. Так, карта нового поколения может иметь 2300 универсальных процессоров, а карта предыдущего поколения — все 3600, но в реальных играх полуторакратной разницы вы не увидите:
World of Tanks — правда, уже довольно старой на сегодня версии 1.5.1.3, актуальной на момент проведения тестов. FullHD, настройки графики — ультра.
Слева — Radeon RX 5700, располагающий 2304 универсальными процессорами, 144 текстурными блоками и 64 блоками ROP.
Справа — Radeon RX Vega 56, его прямой предшественник. 3584, 224 и 64 блока соответственно.
Разумеется, частота ГПУ у новинки немного выше, но 240–250 МГц не могли бы обеспечить столь заметный отрыв в производительности при такой разнице в количестве исполнительных блоков. А вот новая архитектура — еще как может!
Оценивать по количественным параметрам и сравнивать между собой можно только видеокарты одного поколения. Если же говорить о картах на принципиально разной архитектуре — можно прийти к условной ситуации, в которой есть некий чип с 1000 универсальных процессоров и его более старый аналог, у которого их 1500.
Казалось бы, второй вариант будет гарантированно быстрее, но вот незадача: 1500 процессоров на старой архитектуре могут выполнять лишь 2 инструкции за каждый такт, а каждый из 1000 новых процессоров — все 4 инструкции.
Пример, разумеется, полностью умозрительный, и аллюзий на реальные графические чипы не предполагающий. Но суть он передает верно.
Как не ошибиться при расчете питания?
Как и любые другие комплектующие, для своей работы видеокарты требуют определенное количество электроэнергии. Соответственно, встает вопрос о том, с помощью чего запитать видеокарту, планируемую к покупке. И в этом случае могут иметь место две крайности:
В обоих этих случаях пользователь оказывается в проигрыше. Поэтому, чтобы не потратить лишних денег и не получить заведомо нестабильную систему, нужно обязательно помнить следующее:
— Блок питания выбирается не «под видеокарту», а под всю систему в целом.
Видеокарта — это только один из составляющих элементов. Помимо нее, в системном блоке также проживают центральный процессор, жесткие диски, оперативная память, материнская плата и, возможно, какие-то платы расширения вроде звуковой карты. Все они в работе также потребляют какое-то количество ватт, и их также нужно учитывать при выборе блока питания.
— Указанная на вашем блоке мощность не обязательно есть в нем фактически.
Качество блоков питания — довольно скользкая тема, и касаться ее в рамках данной статьи мы не будем. Но все же — напомним, что условный блок на 500 ватт, выпущенный в 2010 году и активно эксплуатировавшийся до сегодняшних дней, и современный блок на те же 500 ватт, в реальных замерах выдадут совершено разную мощность. Поэтому, при расчетах совместимости оперировать нужно не цифрами с этикетки, а реальными моделями блоков питания и их фактическим состоянием.
— Фактическое энергопотребление видеокарты и рекомендуемая мощность блока питания — разные вещи.
В характеристиках видеокарт. Указанных на сайтах производителей и в карточках магазинов, можно обнаружить такой параметр, как «рекомендуемая мощность БП». Некоторые часто путают ее с энергопотреблением видеокарты, что и порождает «авторитетные советы» приобретать блоки мощностью 800 ватт к бюджетным видеокартам вроде GTX 1650 — GTX 1660 — RX 5500 XT.
На самом деле, производители видеокарт как раз прекрасно знают предыдущие два тезиса. И рекомендуемая ими мощность — это как раз мощность для ВСЕЙ системы с установленной в нее видеокартой. Более того — мощность эта намеренно завышена, поскольку тем самым производитель защищает себя от претензий со стороны владельцев низкокачественных БП.
Так как определить реальное энергопотребление интересующей вас видеокарты?
Проще всего — прочесть обзор на нее от авторитетного источника. Да, нередко в обзорах указывается энергопотребление всей системы, а не отдельно видеокарты — но так получается даже более наглядно. Ведь, если тестовая система на условном Core i9-9900K в разгоне показывает пиковое энергопотребление на уровне 580 ватт, то ваш компьютер с опять же, условным Core i5-9400F есть будет очевидно меньше.
Впрочем, если в вас вдруг проснется азарт исследователя, можно пойти и более сложным путем.
Одной из основных характеристик современных видеокарт является лимит энергопотребления. Это программное ограничение (аппаратным может являться, разве что, конфигурация разъемов дополнительного питания), по достижении которого видеокарта начинает сбрасывать частоты и понижать напряжения, чтобы остаться в обозначенных пределах.
К примеру, если видеокарта имеет лимит на 130 ватт, то без разгона и ручного поднятия лимита больше есть она не будет — как бы различные «интернет-знатоки» ни советовали вам покупать для нее блоки мощностью 800 ватт минимум.
А поскольку ограничение это программное — узнать его можно напрямую из биос видеокарты. Для этого нужно либо скачать файл и открыть его диагностической утилитой, либо обратиться, например, к базе данных портала Techpowerup.
Слева — отчет утилиты MorePowerTool о лимитах видеокарты Sapphire Radeon RX 5600 XT Pulse. Лимит энергопотребления для ГПУ составляет 160 ватт. Остальные элементы в данном случае не учитываются, однако их потребление существенно ниже чем у ГПУ, для простоты можно округлить до 30–40 ватт.
Справа — информация о видеокарте Gigabyte GeForce RTX 2060 Windforce OC из базы данных Techpowerup. Здесь уже приводится общий лимит энергопотребления, и он составляет 200 ватт.
Разумеется, лимит энергопотребления — это именно пиковое значение, в реальных задачах видеокарта не всегда будет потреблять максимальное количество электроэнергии, но при расчетах мощности БП следует учитывать именно возможный максимум.
И, конечно же, надо помнить, что при разгоне видеокарты лимит энергопотребления вам придется повышать — а, следовательно, нужно закладывать некоторый запас сверх штатного значения. Опять же, здесь поможет изучение характеристик биос карты — так, на примере выше видно, что для конкретно этой версии RTX 2060 штатными средствами лимит можно поднять лишь на 18%.
При расчетах мощности блока питания для вашей системы следует учитывать всего два фактора: реальное энергопотребление ваших комплектующих и не менее реальные характеристики вашего БП. И с первым, и со вторым поможет вдумчивое изучение обзоров.
В крайнем случае — можно просто сравнить энергопотребление видеокарты, которую вы планируете приобрести, с той, которая стоит в вашем системном блоке сейчас. Хотя современные микросхемы и более сложны, их аппетиты вполне могут оказаться ниже, чем у предшественников.
Важно ли подбирать видеокарту под конкретный процессор?
Сегодня вопросы вроде «а подойдет ли эта видеокарта к моему процессору?» по своему количеству и частоте задавания уже уверенно обходят вопросы совместимости с блоками питания. Можно предположить, что здесь действительно есть какие-то тонкости, однако на самом деле это не так.
Если вопрос касается именно совместимости системы с видеокартой — то модель и семейство установленного процессора ее не определяют. Более того: как правило, если видеокарта использует интерфейс PCI-e и поддерживается в установленной на компьютере ОС — это все, что от нее требуется.
Иначе говоря, если вы собираете ПК на новой платформе, но бюджет не позволяет сразу приобрести видеокарту актуального поколения — можно использовать карту, оставшуюся от предыдущей системы, или бюджетное решение старого поколения, купленное на вторичном рынке.
И обратное тоже верно: в компьютеры, собранные на не самых новых платформах, можно устанавливать видеокарты актуальных поколений, если вам не хватает производительности графической части, или бюджет позволяет заменить только видеокарту.
Встроенный бенчмарк игры Assassin’s Creed: Odyssey утверждает, что тестовая система объединяет процессор Intel Corei7-4930K, выпущенный в 2013 году для уже давно устаревшей платформы LGA 2011, и видеокарту GeForce RTX 2080 Ti, выпущенную в конце 2018 года, и актуальную до сих пор.
Причем, разумеется, пример выше — далеко не единственный. При желании в Интернете можно найти множество сборок даже на более старых процессорах — к примеру, Core i5/i7 Sandy Bridge и FX Piledriver, объединенных с современными видеокартами. И не только в виде статичных картинок, но и видеороликов, посвященных сборке и тестированию получившихся систем.
Безусловно, бывают случаи индивидуальной несовместимости, когда видеокарта напрочь отказывается инициализироваться и работать, хотя сама она гарантированно исправна. Но, во-первых, в современных реалиях это большая редкость, а во-вторых, вопросы в данном случае следует адресовать к материнской плате, а не к процессору.
Однако речь может идти не просто о совместимости и возможности эксплуатировать систему с новой видеокартой, но и об итоговой производительности получившегося компьютера в играх. И здесь все уже отнюдь не так просто.
Мифы о «раскрывашках»
«Раскрывашки», наиболее активно нервировавшие интернет-сообщество в период с 2014 по 2018 год, сегодня уже являются в большей степени забавным мемом и поводом для шуток, нежели серьезной проблемой. Однако и сейчас изредка проскакивают вопросы вроде «а раскроИт ли?», в которых потенциальные владельцы новых видеокарт желают знать, насколько быстрой окажется их система после апгрейда.
Согласно популярному заблуждению, к новым и быстрым видеокартам обязательно приобретать процессоры новых поколений. Причем чем выше будет индекс модели — тем лучше для производительности. Хотя реальные системные требования игр, как и соотношение производительности уже имеющегося у пользователя процессора с рекомендуемой ему моделью значения здесь никакого не имеют.
Если же пользователь не желает приобретать новый процессор (разумеется, вместе с полагающейся к нему материнской платой и в некоторых случаях — оперативной памятью), ему заявляется, что и в апгрейде видеокарты нет никакого смысла, ведь работать она будет на уровне младших моделей той же линейки, а то — и вовсе так же, как и старая видеокарта.
Разумеется, все это — крайности, доведенные до абсурда. И ключевая задача любой «раскрывашки» — не помочь, а именно убедить пользователя потратить деньги на новое железо помимо видеокарты. Чего ему, возможно, вовсе и не надо делать. В реальности, конечно, процессор оказывает существенное влияние на производительность системы. Но, во-первых, не он один, а во-вторых — влияние это не во всех играх одинаково, и уж точно не определяется индексом модели процессора.
Рассмотрим несколько примеров.
Total War: Three Kingdoms. Игра, довольно требовательная к ресурсам центрального процессора и к тому же — использующая преимущества многопотока.
Слева — Intel Core i9-9900KF. Справа — Intel Core i7-9700KF. Оба процессора разогнаны до 5000 МГц, частота кольцевой шины поднята до 4700 МГц, видеокарта RTX 2080 Ti работает в штатном для нее режиме, все прочие условия идентичны.
При этом, в случае с Core i7-9700KF фпс в бенчмарке оказывается… выше!
Да, это исключительно частный случай, связанный с тем, что технология Hyper Threading, отличающая Core i9 от Core i7, в играх далеко не всегда работает корректно, и производительность старшей (. ) модели ЦПУ при прочих одинаковых условиях оказывается ниже, чем у младшей.
Встроенный бенчмарк игры WarThunder, являющейся уже диаметрально противоположным примером. Движок игры по сей день активно использует не более 2-х ядер.
Слева — снова Core i9-9900KF, но на сей раз — в номинальном для него режиме. 4700 МГц по всем ядрам за счет технологии MCE, 4300 МГц на кольцевой шине. Справа — уже Core i5-9600KF, разогнанный ровно до тех же параметров. Все прочие характеристики системы идентичны, в качестве видеокарты опять используется RTX 2080 Ti.
Разница в фпс, опять же, в комментариях не нуждается. В данном случае Core i9 в принципе не может иметь никаких преимуществ над Core i5 — игра попросту не использует «лишние» ядра. А технология Hyper Threading здесь опять ведет себя не лучшим образом, что и позволяет Core i5-9600KF выдавать немного больше кадров в секунду.
И это далеко не единственные примеры, категорически не вписывающиеся в картину мира, предлагаемую раскрывашками.
В реальности у каждой игры свои требования к характеристикам центрального процессора. Так, где-то используется максимально доступное количество ядер — и, например, старые процессоры под ту же платформу LGA 2011 могут не только эффективно справляться с игрой, выпущенной на 7 лет позже них самих, но и обеспечивать более комфортный геймплей, чем современные модели под LGA 1151_v2.
Где-то — наоборот, количество ядер не имеет значения, важна только тактовая частота и производительность в однопоточной нагрузке. Какие-то игры в силу особенностей движка в принципе мало зависимы от процессора и более требовательны к видеокарте. Да и сама «зависимость» от характеристик процессора в одной и той же игре может меняться со сменой разрешения экрана и настроек графики: чем они выше — тем выше влияние видеокарты, и менее заметна разница между более и менее быстрыми ЦПУ.
Раскрывашки же эти факты игнорируют и сводят все к одному простому тезису: «более дорогой и новый процессор — лучше». Но для кого именно лучше — обычно умалчивают.
Заключение
Конечно, в данной статье мы рассмотрели лишь часть распространенных ошибок, совершаемых при выборе видеокарт. Если начинать рассматривать отдельные семейства — да что там, даже отдельные ценовые сегменты! — то легенд и мифов можно будет обнаружить великое множество.
Но и эти, и любые другие мифы рождаются там, где нет четкого знания и подтвержденной информации. Выдумка, изложенная максимально просто и понятно, всегда будет более притягательна, чем факты, которые нужно изучать, анализировать и сопоставлять. Однако опираться на выдумки никогда не стоит.
Если вы хотите получить товар, максимально отбивающий свою цену — стоит сперва потрудиться и изучить сведения о нем сразу в нескольких авторитетных источниках, а не следовать первой попавшейся на глаза рекомендации.