На что мы смотрим в первую очередь, выбирая себе смартфон? Если на минутку отвлечься от стоимости, то в первую очередь мы, конечно, выбираем размер экрана. Затем нас интересует камера, объем оперативной, количество ядер и частота работы процессора. И тут все просто: чем больше, тем лучше, а чем меньше, тем, соответственно, хуже. Однако в современных устройствах используется еще и графический процессор, он же GPU. Что это такое, как он работает и почему про него важно знать, мы расскажем ниже.

GPU (Graphics Processing Unit) — это процессор, предназначенный исключительно для операций по обработке графики и вычислений с плавающей точкой. Он в первую очередь существует для того, чтобы облегчить работу основного процессора, когда дело касается ресурсоемких игр или приложений с 3D-графикой. Когда вы играете в какую-либо игру, GPU отвечает за создание графики, цветов и текстур, в то время как CPU может заняться искусственным интеллектом или расчетами механики игры.

Архитектура графического процессора не сильно отличается от архитектуры CPU, однако она более оптимизирована для эффективной работы с графикой. Если заставить графический процессор заниматься любыми другими расчетами, он покажет себя с худшей стороны.


Видеокарты, которые подключаются отдельно и работают на высоких мощностях, существуют только в ноутбуках и настольных компьютерах. Если мы говорим об Android-устройствах, то мы говорим об интегрированной графике и том, что мы называем SoC (System-on-a-Chip). К примеру, в процессоре интегрирован графический процессор Adreno 430. Память, которую он использует для своей работы, это системная память, в то время как для видеокарт в настольных ПК выделяется доступная только им память. Правда, существуют и гибридные чипы.

В то время как процессор с несколькими ядрами работает на высоких скоростях, графический процессор имеет много процессорных ядер, работающих на низких скоростях и занимающихся лишь вычислением вершин и пикселей. Обработка вершин в основном крутится вокруг системы координат. GPU обрабатывает геометрические задачи, создавая трехмерное пространство на экране и позволяя объектам перемещаться в нем.

Обработка пикселей является более сложным процессом, требующим большой вычислительной мощности. В этот момент графический процессор накладывает различные слои, применяет эффекты, делает все для создания сложных текстур и реалистичной графики. После того как оба процесса будут обработаны, результат переносится на экран вашего смартфона или планшета. Все это происходит миллионы раз в секунду, пока вы играете в какую-нибудь игру.


Конечно же, этот рассказ о работе GPU является весьма поверхностным, но его достаточно для того, чтобы составить правильное общее представление и суметь поддержать разговор с товарищами или продавцом электроники либо понять — почему ваше устройство так сильно нагрелось во время игры. Позднее мы обязательно обсудим преимущества тех или иных GPU в работе с конкретными играми и задачами.

По материалам AndroidPit

Главный чип на материнской плате – это центральный процессор (CPU – Central Processor Unit). Центральный, потому что управляет всеми остальными подсистемами, с помощью системы шин и чипсета.

Подсистема, которая управляет визуализацией и выводом информации на экран называется видеосистемой. Она интегрируется в материнскую плату через слот в виде видеокарты. Видеокарта – инженерное решение и представляет собой плату с собственным процессором (тем самым GPU) и оперативной памятью.

GPU NVidia Nv45 на видеокарте

Процессор на видеокарте называют GPU (Graphic Processor Unit), чтобы подчеркнуть:

  1. Что это процессор.
  2. Что он не центральный, то есть подчиненный для CPU.
  3. Что он ориентирован на обработку специальных данных – графики.

Расположение GPU на материнской плате

Поскольку обработка графики – это специализация в обработке данных, GPU – это специализированный CPU. Логически специализация выражается отделением GPU от CPU, физически – тем, что GPU устроен иначе.

CPU содержит десятки ядер, GPU - тысячи

Такая физическая реализация GPU обоснована необходимостью обрабатывать тысячи параллельных задач, связанных с отрисовкой. Центральный процессор ориентирован на обработку данных – долгие и последовательные задачи.

Современный ЦП (CPU) может включать в себя графический процессор.

Четрыехядерный процессор с дополнительным графическим ядром GPU

Такое решение позволяет компьютеру обойтись без видеокарты за счет встроенного в центральный процессор GPU. Это снижает потребляемую энергию от 30 до 180%. Стоимость процессора при этом возрастает не более чем на 20%.

Главный минус такой реализации – низкая производительность. Такое решение подходит для офисных компьютеров, где работают с документами и базами данных, но современную компьютерную игру на нем не запустишь, Фотошоп будет притормаживать, а Автокад может зависнуть намертво.

Как узнать GPU в компьютере

Для пользователя GPU прочно ассоциируется с видеокартой, хотя это только процессор. Знать, какой графический адаптер установлен в компьютере полезно в трех случаях:

  • при установке или обновлении драйверов;
  • при оценке компьютера на соответствие системным требованиям программного обеспечения;
  • чтобы хвастаться перед друзьями.

Ели на компьютере установлены все драйвера, то самый быстры способ – посмотреть в диспетчере устройств, в разделе видеоадаптеры:

Просмотр GPU в диспетчере устройств

Если драйвера не установлены диспетчер устройств покажет только надпись о неизвестных устройствах:

GPU в диспетчере устройств в случае отсутствия драйверов

В этом случае скачайте утилиту CPU-Z, запустите и перейдите на вкладку «Графика» (Graphics в англ. версии):

Просмотр GPU в программе CPU-Z

helpadmins.ru

GPU что это в компьютере?

Всем привет GPU это обозначение видеокарты, если быть точнее то графический процессор. Данное слово, ну то есть аббревиатуру часто можно встретить в каких-то характеристиках, ну вот например в характеристиках процессора Intel есть такое понятие как Integrated GPU, что означает встроенная видеокарта. Ну все верно, она реально встроена, видео чип сидит прямо в процессоре, это не новость как бы

То есть вывод мы уже сделали, GPU это видюха. Но что еще важно понимать? Я вот писал, что GPU встречается в характеристиках, все верно, по помимо этого также можно встретить и в программах, которые показывают температуру. Я думаю что вы такие проги знаете.. Ну или не знаете, короче в любом случае, то что я сейчас напишу, то это вам будет полезно знать. Значит речь идет про температуру GPU. Многие уверяют, что видюха может работать и при 80 градусах, а вот я заявляю что это слишком высокая температура! Да и вообще я считаю что выше 70 это не норма!

Кстати GPU расшифровывается как Graphics Processing Unit

А вот и сам графический чип, ну то есть GPU, вот я его стрелочками указал на плате:

Но какая тогда норм температура? До 60 градусов, ну максимум 66, ну 70 градусов это уже потолок… Но выше я думаю что это уже не оч хорошо, просто срок службы точно не продлит такая температура, согласны со мной? Ну и еще есть интересный момент, короче если видюха прилично греется, то блин она еще и выкидывает свое тепло в корпус, ну в нем явно не будет прохладно, а тут и процессу станет жарко, короче веселуха! Помните, что именно ТЕМПЕРАТУРА способна снизить срок работы устройства! Вот на старых материнках от высокой температуры взрывались электролитические конденсаторы.. Если не верите, то можете сами посмотреть в интернете..

Ну вот скажите мне, вам тут все было понятно? Честно, буду надеяться что да! Ну а если что не так, ну так уж извините!

На главную! видеокарта 17.05.2017

virtmachine.ru

Что означает GPU?

GPU (Графический процессор видеокарты)

GPU (графический процессор) - высокотехнологическое устройство отвечающее за обработку графики в компьютерах, ноутбуках, мобильных телефонах. Современные GPU обладают специализированной конвейерной архитектурой, благодаря чему очень эффективно обрабатывают графическую информацию в сравнении с типичным центральным процессором. Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

Основные отличия GPU от CPU:

  1. Архитектура (максимальный упор на обработку графических текстур)
  2. Ограниченный набор исполнительных команд

Высокая скорость и мощность процессоров GPU на данное время объясняется особенностями архитектуры построения. Если современные CPU состоят из 2-6 ядер, то GPU считается многоядерной структурой, использующей сразу до сотни ядер. CPU предполагает обработку информации последовательно, а GPU рассчитан на многопотоковую параллельную работу с массивом информации.

windows-gadjet.ru

Что такое GPU и для чего нужен

Графический процессор или на английском GPU – Graphics Processing Unit – это устройство, представляющие собой микросхему, чип, являющуюся частью видеоадаптера (видеокарты) или материнской платы.

Графический процессор отвечает за построение (рендеринг) изображения.

Упрощенно роль и значение GPU можно описать так:

GPU получает от центрального процессора (CPU) данные на обработку, требуемые для построения изображения, после обрабатывает их и подготавливает для дальнейших операций, тем самым многократно ускоряет процесс формирования изображения и снижает нагрузку на центральный процессор

Графический процессор является необязательным компонентом, его работу способен выполнять центральный.

В отличие от центрального процессора, графический, в силу различия архитектур (строения, устройства), способен обрабатывать в десятки, сотни, тысячи раз быстрее определенные типы операций, например, обработку данных для построения изображения и не только.

GPU может быть дискретным, то есть входить в состав видеокарты, выполняемой в виде платы (устройства) расширения, устанавливаемого в слот расширения материнской платы.В таком случае все дополнительные компоненты располагаются на одной печатной плате, которую в любой момент можно легко извлечь или заменить.

Или является интегрированным, частью самой материнской платы устройства.В таком случае, графический процессор располагается на материнской плате, все дополнительные компоненты расположены неподалеку. Применяется в персональных компьютерах, смартфонах, игровых приставках и так далее.

19-06-2017, 20:38 Detaillook

www.detaillook.com

NVIDIA GPU и сравнение GPU и CPU

Облачные вычисления кардинально изменили все отрасли промышленности, демократизировав дата-центры и полностью изменив принципы работы предприятий. Самые важные активы компании теперь хранятся в облаке выбранного вами провайдера. Однако, чтобы извлечь максимальную пользу из имеющихся данных, требуется подходящее высокопроизводительное вычислительное решение.

ПО NVIDIA Deep Learning создано для обеспечения максимальной производительности на самых быстрых в мире GPU и содержит оптимизированные фреймворки глубокого обучения, библиотеки, драйверы и ОС.Это унифицированное ПО работает на различных вычислительных платформах, начиная от видеокарт TITAN X и GeForce GTX 1080Ti и заканчивая системами DGX и облаком, и доступно круглосуточно.

Облачные вычисления на GPU также доступны по запросу на всех основных облачных платформах.

КАК ПРИЛОЖЕНИЯ ПОЛУЧАЮТ УСКОРЕНИЕ НА GPU

GPU обрабатывает части приложения, требующие большой вычислительной мощности, при этом остальная часть приложения выполняется на CPU. С точки зрения пользователя, приложение просто работает значительно быстрее.


Простой способ понять разницу между GPU и CPU - сравнить то, как они выполняют задачи. CPU состоит из нескольких ядер, оптимизированных для последовательной обработки данных, в то время как GPU имеет тысячи более мелких и энергоэффективных ядер, созданных для выполнения нескольких задач одновременно.

GPU состоит из тысячи ядер для эффективной обработки параллельных задач


Посмотрите видеоролик ниже, что сравнить GPU и CPU

Видео: "Разрушители легенд наглядно показывают мощь вычислений GPU против CPU" (01:34)

Более 400 приложений,-включая 9 из 10 ведущих HPC-приложений, уже получили ускорение на GPU, благодаря чему все пользователи графических процессоров могут добиться значительно повышения производительности для своих задач. Посмотрите в нашем каталоге приложений, имеет ли приложение, с которым вы работаете, GPU ускорение (PDF 1,9 MБ).

Существует три основных метода, чтобы добавить в ваше приложение GPU-ускорение:

  • Использовать GPU-оптимизированные библиотеки
  • Добавить директивы или "подсказки" компилятору для автоматического распараллеливания вашего кода
  • Использовать расширения для языков программирования, которые вы уже знаете, например, C и Fortran

Узнать, как использовать GPU с моделью параллельного программирования CUDA, очень легко.

Бесплатные онлайн занятия и ресурсы для разработчиков доступны на CUDA Zone.

В материнской плате расположено много важных составляющих частей компьютера, которые носят свои уникальные названия: CPU, GPU, HDD, SSD, ОЗУ и так далее. Каждая из этих аббревиатур имеет свою расшифровку, но в данный момент имеет значение, что же это - GPU?

Есть схожее название с этим термином - это CPU. Многие неопытные пользователи путают эти названия, что неверно. Для начала стоит пояснить, что CPU - это центральный процессор, который является мозгом всей системы. Расшифровывается эта аббревиатура так - Central Processor Unit.

Однако стоит знать, что GPU - это тоже процессор, только графического решения. В его задачу входит обработка и вывод на экран изображения. Полное название аббревиатуры выглядит таким образом - Graphic Processing Unit.

Благодаря этим пояснениям можно понять, что GPU - это не центральный процессор, который обрабатывает только данные графического типа. Он подчиняется протоколам центрального процессора и, в отличие от него, имеет свое логическое устройство. Так же, как и у главного процессора, у графического есть ядра, только их не десятки, а тысячи. Такое большое количество ядер необходимо для получения и обработки данных, связанных с прорисовкой и временными многочисленными задачами.

Теперь, когда уже имеется общее представление о том, что GPU - это графический процессор и его задачей является обработка графических данных, можно перейти к перечислению.

На данный момент есть два вида встроенных графических процессоров - это интегрированные в материнскую плату и встроенные в процессор.

В первом варианте чип графического процессора распаян прямо на текстолите материнской платы, и мало кто знает, что это GPU. Выглядит он как обычный чип черного цвета, на котором есть наименование марки, порядковый номер и комбинация цифр, которая указывает на некоторые параметры. Так как такие графические решения не имеют собственного объема памяти, они заимствуют данный параметр у оперативной памяти, используя ее объем.

В случае со встроенным в процессор чипом его сложно увидеть, получится это только при разборе самого центрального процессора. Практически во всех процессорах нового поколения имеется дополнительное ядро, которое именуется графическим. Цена процессора при этом вырастает не намного, зато избавляет от нужды в дискретной видеокарте.

Встроенные графические процессоры позволяют сэкономить на энергопотреблении на несколько десятков процентов, что положительно сказывается на теплоотдаче. Однако есть и значительные минусы, и один из них - это низкая производительность. Такая экономная графика хорошо подходит для работы с офисными программами и приложениями, не требующими больших мощностей.

GPU в компьютере - что это такое и как его определить? Если ранее было представлено два вида графических процессоров в интегрированном виде, то далее можно рассмотреть вариант дискретной видеокарты. Исходя из этого можно понять, что GPU - это такое обозначение лишь процессора, одной из деталей которого является видеокарта. Однако эта деталь является самой важной. Еще на плате видеокарты расположены чипы памяти, конденсаторы, разъем или разъемы для питания, защитный кожух, радиатор и кулер.

Различие интегрированной и дискретной видеокарты в том, что вторая гораздо мощнее и производительнее, чем встроенный вариант. Во-первых, имеется свой объем памяти, что напрямую влияет на скорость отрисовки объектов. Во-вторых, в ее параметры входит шина расширения, битность которой позволяет увеличить пропускную способность для передачи данных.

Такие графические адаптеры требуют дополнительного питания, чтобы просто запуститься и выдавать качественное изображение. Несмотря на всю мощь, есть и офисные варианты дискретных видеокарт, которые мало чем отличаются от интегрированных собратьев. Игровые варианты более мощные по строению и потенциалу, но потребляют гораздо больше энергии.

Температурный режим

Для лучшего функционирования нужно знать, что такое GPU в компьютере и его температура. Как охладить встроенный и дискретный GPU? Для охлаждения интегрированного графического процессора достаточно разместить вентиляторы в корпусе, а у дискретных вариантов есть собственная система охлаждения. В зависимости от того, сколько вентиляторов находится над чипом, будет ясно, как хорошо охлаждается чип.

Система охлаждения видеокарты достаточно проста - чип с помощью нанесенной на него термопасты соприкасается с трубками теплоотвода, они переходят к радиатору, который охлаждается с помощью кулера.

Рабочая температура чипа составляет не более 70 градусов, дальнейшее повышение температуры можно считать перегревом. Чтобы не допустить перегрева видеокарты, достаточно своевременно прочищать от пыли видеокарту, менять при этом термопасту. Для того чтобы узнать нынешнее состояние температуры в видеокарте, достаточно запустить соответствующие программы, например, AIDA 64. Там можно увидеть температуру не только графического адаптера, но и всей системы.

Вы решили купить компьютер. Ходите вдоль торговых рядов, смотрите на ценники, знакомитесь с характеристиками. И возникает вопрос: что такое GPU? Часто вы наблюдаете это сочетание букв, но смысла не видите. Попробуем объяснить.

GPU - что это, и в чем отличие от CPU

GPU расшифровывается как "graphics processing unit", или графический процессор. Он являет собой отдельное устройство игровой приставки, компьютера, фотоаппарата. Отвечает за рендеринг графики, выполняет его. Справляется с этой задачей GPU замечательно, обусловлено это специально предназначенной для данных целей конвейерной архитектурой. Современные GPU куда лучше обрабатывают графику, чем аналогичные им классические центральные процессоры (ЦПУ).

В настоящее время ГПУ применяется в качестве акселератора 3D-графики, но в исключительных случаях он может быть использован для вычислений. Отличает ГПУ от ЦПУ следующее:

  • архитектура: она по максимуму нацелена на высокую скорость расчета сложных графических объектов и текстур;
  • сравнительно низкий набор команд.

Колоссальная вычислительная мощность объясняется именно особенностями архитектуры. Наряду с современными CPU, содержащими несколько ядер (2/4/8, что уже считалось прорывом), GPU изначально разрабатывался как многоядерная структура. Число ядер тут исчисляется сотнями!

Различие архитектуры объясняет и разницу в принципе работы. Если архитектура CPU рассчитана на последовательную обработку данных, то GPU изначально предназначен для работы с компьютерной графикой, поэтому рассчитан на массивные, но параллельные вычисления.

Каждая из этих архитектур имеет свои преимущества. CPU гораздо лучше выполняет последовательные задачи. Для огромных объемов обрабатываемой информации преимущество имеет GPU. Главное условие – в задаче должен соблюдаться параллелизм.

Вы теперь знаете многое о GPU, что такое GPU, и можете даже рассказать друзьям.

Привет, друзья.

Вы любите поиграть в реалистичные игры на компе? Или посмотреть фильм в качестве, при котором четко видно каждую мелочь? Значит, вы должны представлять, что такое gpu в компьютере. Ничего о нем не знаете? Моя статья поможет вам избавиться от этого недоразумения;-).


GPU - это не видеокарта

Неизвестное для многих сочетание букв подразумевает под собой понятие «graphics processing unit», что на нашем языке означает графический процессор. Именно он отвечает за воспроизведение картинки на вашем железе, и чем лучше его характеристики, тем качественнее будет изображение.

Всегда считали, что эти функции выполняет ? Вы, конечно, правы, но она является комплексным устройством, и главным ее компонентом выступает как раз графический проц. Он может существовать и автономно от видюхи. Об этом поговорим немного позже.

GPU: не путать с CPU

Несмотря на сходство аббревиатур, не путайте предмет нашего разговора с (Central Processor Unit). Да, они похожи, как в названии, так и в функциях. Последний тоже может воспроизводить графику, правда, слабее в этом деле. Все же это абсолютно разные устройства.

Они отличаются архитектурой. CPU является многоцелевым девайсом, который отвечает за все процессы в компьютере. Для этого ему хватает нескольких , с помощью которых он последовательно обрабатывает одну задачу за другой.

В свою очередь, GPU изначально разработан как специализированное устройство, предназначенное для выполнение графического рендеринга, с высокой скоростью обрабатывающее текстуры и сложные изображения. Для таких целей его оснастили многопоточной структурой и множеством ядер, чтобы он работал с большими массивами информации единовременно, а не последовательно.

В виду этого преимущества, лидеры среди производителей видеоадаптеров выпустили модели, в которых графические процессоры могут стать усовершенствованной заменой центральным. У бренда nVidia такой девайс называется GTX 10xx, а у его главного конкурента AMD - RX.

Виды графических процев

Чтобы вы могли ориентироваться на рынке GPU, предлагаю ознакомиться с видами этого устройства:

  • Дискретный. Входит в состав видеоадаптера. Подключается к системной плате через специально отведенный разъем (чаще всего PCIe или AGP). Имеет собственную оперативную память. Вы требовательный геймер или работаете со сложными графическими редакторами? Берите дискретную модель.

  • Интегрированный (IGP). Раньше впаивался в материнскую плату, теперь встраивается в центральный процессор. Изначально не годился для воспроизведения реалистичных игр и тяжелых графических программ, однако новые модели справляются с этими задачами. Все же учтите, что такие чипы несколько медлительнее, потому что не имеют личной оперативки и обращаются к памяти CPU.

  • Гибридная графическая обработка. Это 2 в 1, то есть когда в компьютере устанавливается и первый вид, и второй вид GPU. В зависимости от выполняемых задач, включается в работу или один, или другой. Однако бывают ноутбуки, в которых могут работать сразу 2 вида устройств.
  • Внешний тип. Как несложно догадаться, это графический процессор, расположенный снаружи компа. Чаще всего такую модель выбирают обладатели ноутбуков, которым сложно впихнуть в свое железо дискретную видеокарту, но очень хочется получить достойную графику.

Как выбирать?

Когда будете подбирать для себя видеоадаптер, обращайте внимание на такие характеристики:

  • Тактовая частота. Указывается в мегагерцах. Чем цифра выше, тем больше информации за секунду сможет обработать устройство. Правда, не только она влияет на его результативность. Архитектура также имеет значение.
  • Число вычислительных блоков. Они призваны обрабатывать задачи - шейдеры, отвечающие за вершинные, геометрические, пиксельные и универсальные расчеты.

  • Быстрота заполнения (филлрейт). Этот параметр может рассказать, с какой скоростью GPU может вырисовывать картинку. Он делится на 2 вида: пиксельный (pixel fill rate) и текстурный (texel rate). На первый влияет количество ROP-блоков в структуре проца, а на второй - текстурных (TMU).

Обычно в последних моделях GPU первых блоков меньше. Они записывают рассчитанные видеоадаптером пиксели в буферы и смешивают их, что по-умному называется блендинг. TMU выполняют выборку и фильтрацию текстур и другой информации, требуемой для выстраивания сцены и общих расчетов.

Геометрические блоки

Раньше на них никто не обращал внимания, потому что виртуальные игры имели простую геометрию. Этот параметр стали учитывать после появления в DirectX 11 тесселяции. Не понимаете, о чем я? Давайте по порядку.

Является средой (набором инструментов) для написания игр. Чтобы вы ориентировались в теме, скажу, что последняя версия продукта - 12-я, которая вышла в 2015 году.

Тесселяция - это деление плоскости на части для заполнения их новой информацией, что повышает реализм игры.

Таким образом, если вы захотите с головой окунуться в атмосферу Metro 2033, Crysis 2, HAWX 2 и т. п., при выборе GPU учитывайте количество геометрических блоков.

Память

Собрались брать новую видеокарту? Значит, вам нужно учесть еще несколько характеристик оперативки:

  • Объем. Важность RAM несколько переоценена, так как не только ее емкость, но также тип и свойства влияют на производительность карты.
  • Ширина шины. Это более весомый параметр. Чем шире, тем больше информации сможет отправить память чипу и наоборот за определенное время. Для воспроизведения игр необходимо минимум 128 бит.
  • Частота. Тоже определяет пропускную способность оперативки. Но учтите, что память с 256-битной шиной и частотой 800(3200) МГц работает продуктивнее, чем со 128 битами на 1000(4000) МГц.
  • Тип. Не буду грузить вас лишней информацией, а лишь назову оптимальные на сегодня типы - это GDDR 3 и 5 поколения.

Немного об охлаждении

Задумали установить мощный чип? Сразу позаботьтесь о дополнительном охлаждении в виде радиаторов, кулеров, а если собираетесь регулярно выжимать из девайса все соки, можно подумать и над жидкостной системой.

В целом, следите за температурой видюхи. Помочь в этом вам может программа GPU-Z и т. п., которая помимо этого параметра расскажет все об устройстве.

Конечно, современные видеокарты оснащаются защитной системой, которая вроде бы не допускает перегрева. Для разных моделей предельная температура отличается. В среднем, она составляет 105 °C, после чего адаптер сам выключается. Но лучше поберечь дорогой девайс и обеспечить вспомогательное охлаждение.