Всем привет! Сегодня разберем графический процессор — что это такое в компьютере и зачем он используется.
Что такое графический процессор
GPU (аббревиатура с английского термина graphics processing unit) — компонент компьютера, игровой консоли, планшета или смартфона, который предназначен для рендеринга графики, то есть преобразует код в изображение, преимущественно 3D. Массовое применение таких девайсов началось с 2000 года.
До этого и разработчики, и пользователи обходились возможностями центрального процессора: игры и программы были слишком примитивны, чтобы задействовать дополнительный компонент. Отрисовка нескольких пикселей, какими и были первые игры и графические редакторы, не требует большой вычислительной мощности.
С началом развития 3D графики и появлением первых игр этого формата ситуация изменилась. Оказалось, что CPU, который прекрасно справляется с арифметическими операциями, даже не примитивной низко полигональной графике уже начинает «захлебываться».
Дальнейшее развитие к этому направлению привело к тому, что современная видеокарта, где и используется GPU — очень мощное устройство, которое идеально справляется с поставленными задачами. Оно и неудивительно: кат-сцены современных игр класса ААА уже практически не отличаются от 3D мультфильмов.
Технические особенности GPU
По сравнению с центральным процессором графический имеет меньший набор исполняемых команд (который ограничен осознанно) и несколько иную архитектуру, «заточенную» под обработку текстур и трехмерных объектов.
Изначально ГПУ проектировался как много потоковый компонент со множеством ядер, чем и обусловлена такая высокая мощность. В то время как ЦП проводит последовательные арифметические вычисления, графический процессор рассчитан на одновременную обработку множества объектов, то есть массовые параллельные вычисления.В плане технической реализации GPU разделяются на интегрированные, которые выполнены на одном кристалле с ЦП, и дискретные, которые наряду с видеопамятью и некоторыми другими компонентами являются частью видеокарты.
Если сравнивать вычислительную мощность, то последние более производительны. Интегрированные обычно графические ускорители начального уровня, которые можно использовать для несложных вычислений.
Конкурентная борьба между разными брендами привела к тому, что сегодня на рынке осталось только 2 компании, выпускающие графические чипы для видеокарт — Nvidia и AMD. Последние поглотили ATI, ранее независимого производителя, выпускающего видео чипы Radeon.
Относительно того, какой бренд лучше, то вопрос, по моему мнению, некорректный: такое сравнение — одна из тем для «священных войн», которые ведутся в интернете вокруг «железа» уже пару десятков лет. У каждого есть как удачные, так и не очень модели, и при покупке графического адаптера надо рассматривать конкретную модель.
Наличие конкуренции же между этими двумя «китами» для обычного пользователя значит только их непримиримую гонку — в погоне за деньгами потенциального покупателя каждый стремится создать GPU с лучшими характеристиками, который будет дешевле, чем у «заклятого врага».
Ну а появление новых моделей автоматически влечет за собой удешевление старых.
Зачем и где используется GPU
Первое, что приходит на ум для юзера, который хотя бы немного знаком с компьютерами — видеоигры. Это действительно так: киберспорт — отрасль, где графические адаптеры используются по максимуму. Сегодня сложно представить «серьезную» игру, которая реализована не в 3D.Большинство из игр в чем-то похожи: действие происходит в трехмерном мире от первого или третьего лица, а все это должна отрисовывать видеокарта. В играх других жанров, где используется изометрическая картинка, то есть вид сверху, например стратегиях или МОБА, давно уже используются такие же 3D модели.
Однако видеоигры — не единственная отрасль, где нужен GPU. Вспомните недавний хайп по поводу майнинга криптовалют, в частности биткоина, и последующее массовое появление на вторичном рынке графических адаптеров, ранее используемых для майнинга.
Сегодня эта тема теряет актуальность: трудолюбивые китайцы изобрели майнеры — девайсы, в которых нет графического чипа, но которые майнят даже лучше, чем видеокарты.
Также графический адаптер используется для обработки любого изображения — будь то просмотр видео на Ютубе или редактирование фотографий в «Фотошопе». Соответственно, если мощности GPU недостаточно, с запуском «прожорливых» в плане вычислительной мощности приложений могут быть проблемы.
Также для вас полезно будет почитать «Что такое технология CUDA в видеокартах Nvidia?» и «Что означает Dual в маркировки видеокарты и что это дает покупателю». Все про пропускную способность видеокарты можно узнать в этом посте.
Подписывайтесь на меня в социальных сетях, чтобы быть в курсе о поступлении новых материалов. До скорой встречи!
С уважением, автор блога Андрей Андреев.