Как работает режим Boost в видеокарте и что это такое?

Видеокарта с Turbo boost О видеокартах

Привет, друзья! Вероятно, многие из вас слышали о разгоне видеокарты или процессора компьютера, а некоторые и сами успешно практикуют оверклокинг. Кроме ручного поднятия частот, возможно активировать режим boost в видеокарте, что это такое, как работает такой режим и какую практическую пользу может извлечь пользователь, поговорим в сегодняшней публикации.

Первая ревизия

Работу GPU тормозят искусственные бенчмарки, которые увеличивали потребление устройством электроэнергии, особенно во время запуска видеоигр. «Сценарий по худшему варианту», на который обычно ориентируются конструкторы при разработке электроники, стал причиной того, что мощность видеокарт искусственно «урезалась», не позволяя включить производительность на полную катушку.

Технология boost помогает отслеживать температуру графического ускорителя и потребляемую им электроэнергию, а при возникновении критической нагрузки, немного увеличивает частоту ядра и памяти, при этом не нарушая пределов безопасности.

Впервые такое решение использовано в 2012 году, компанией Nvidia в картах 600-й серии. Приложение работает на гарантированной минимальной тактовой частоте графического процессора, но в случае необходимости, задействуется дополнительная мощность.

Вторая ревизия

Собрав отзывы множества пользователей, инженеры компании пришли к выводу, что работу видеокарты больше тормозит температура, чем потребление энергии. На основании первой ревизии, разработана технология GPU Boost 2.0, которая впервые задействована в  700-й серии.Графическая карта с двумя кулерамиТакое решение помогает повышать тактовую частоту, пока девайс не нагреется до установленной предельной температуры.

При этом производительность возрастает до 7%, по сравнению с предыдущей ревизией.

Включить и настроить ограничения, относительно ускорения, пользователь теперь может с помощью стороннего ПО. Это позволяет снизить шум и энергопотребление при запуске старых игр или использовать ресурс графического процессора по максимуму, при запуске новинок.

Некоторые нюансы

Как видите, режим boost – по сути, аппаратный разгон видеокарты. Участие пользователя лишь косвенное и сведено к минимуму – он может запустить энергоемкое приложение, но на работу видеокарты уже никак не влияет.

Инженеры, которые любят вставить куда надо и куда не надо «защиту от дурака», внесли свою лепту и в этот режим. Не прибегая к стороннему ПО, отключить буст видеокарты можно только при входе в её BIOS, а он обычно залочен.

С другой стороны, зачем его вообще отключать, если он создан специально для комфорта юзера, не так ли?

Может возникнуть закономерный вопрос: а почему бы изначально не активировать на заводе предельную мощность видеокарты, оставив такие настройки дефолтными? Все упирается в энергопотребление – разогнанная карта «жрет» порядочное количество электричества.

При этом она еще и греется, поэтому шумит кулер. Более рационально перевести графический чип на большую частоту, только в случае необходимости, а при отсутствии таковой, заставить ее работать в штатном режиме.

Кстати, у видеокарт с жидкостным охлаждением, возможности разгона потенциально больше, так при использовании Boost 2.0 температура чипа не критична и можно подать на него максимальное напряжение.Видяха с жидкостным охлаждением

Это не значит, что нужно уже бежать в магазин и покупать систему жидкостного охлаждения – авторазгон прекрасно справляется со своей задачей и на стоковых моделях.

В качестве возможного варианта могу рекомендовать MSI GeForce GTX 1060 GAMING X 6G – устройство не только с эффективным boost-режимом, но и неплохим потенциалом для ручного разгона.

Также советую ознакомиться с публикацией «Разрядность шины или битность: что это и на что влияет» и «Режим работы Turbo boost в процессоре». Про правильный выбор видеокарты вы можете почитать здесь.

Спасибо за внимание, дорогие друзья, и до следующих встреч на страницах моего блога. Не забывайте делиться статьями в социальных сетях и подписаться на новостную рассылку.

 

С уважением, автор блога Андрей Андреев.

Оцените статью
Блог Андрея Андреева
Добавить комментарий