Nvidia geforce 820m разгон

После наступления нового года компания NVIDIA не заставила ждать своих почитателей. Первой видеокартой анонсированной в 2014 году стала GeForce 820M. Мобильный графический адаптер начального уровня был представлен миру 7 января.

К сожалению, ожидаемого многими релиза микроархитектуры Maxwell пока не состоялось. Более того, новая видеокарта для ноутбуков основана на хорошо знакомом нам графическом чипе GF117 архитектуры Fermi построенном по 28-нм технологии, который встречается у некоторых ранних моделей линейки. К примеру, это GT 620M и прошлогодняя 710M. Как и предыдущие видеокарты начального уровня новинка имеет лишь 96 шейдеров (ядер CUDA) и шину памяти 64 бит. Частота ядра может быть различной — от 775 до 954 МГц.

Из технологий NVIDIA, поддерживаемых видеокартой GeForce 820M, для начала можно отметить GPU Boost 2.0, уже известную нам по 700-й серии. Данная функция дает возможность автоматического разгона графического процессора, если это позволяет его температура. Более подробно узнать об этой технологии вы можете перейдя по ссылке выше. Также новинка поддерживает CUDA, PhysX, Optimus, ну и конечно DirectX 11.2.

В принципе, видеокарта GeForce 820M не имеет значимых отличий от своей предшественницы GT 720M. Следовательно, в игровом плане она является достаточно слабым решением. В новые требовательные игры 2013-2014 года комфортно играть можно будет только при невысоком разрешении и низких настройках. Что касается полноценного мультимедийного использования, то эта модель будет отличным бюджетным выбором.

Итак, начало выпуска видеокарт для ноутбуков серии 800 положено. С интересом ждем продолжения!

Технические характеристики (могут быть изменены производителем):

Игры/Настройки Ультра 1920х1080 px Высокие 1366х768 px Средние 1366х768 px Низкие 1024х768 px
Battlefield 4 10 fps 19 fps 27 fps 37 fps
Call of Duty: Ghosts 11 fps 17 fps 29 fps 55 fps
Metro: Last Light 5 fps 13 fps 27 fps
GRID 2 17 fps 36 fps 54 fps 61 fps
Tomb Raider 2013 10 fps 20 fps 36 fps 74 fps
Skyrim 12 fps 23 fps 32 fps 48 fps
Max Payne 3 7 fps 15 fps 31 fps 38 fps

*В зависимости от модели и конфигурации ноутбука, результаты тестов могут отличаться.

Из статьи читатель узнает об одном из простых, но эффективных способов разгона видеокарт серии GeForce от nV />Для разгона на компьютере необходимо установить несколько небольших бесплатных программ, ссылки на загрузку которых приведены в тексте статьи.

Разгон видеокарты и связанные с ним риски

Разгон видеокарты – это изменение некоторых штатных параметров ее работы, вследствие чего увеличивается ее производительность (в среднем на 5-20%). Во многих случаях разгон позволяет пользователю комфортно играть в компьютерные игры, которые на стандартных настройках его видеокарта не "вытягивает". Следовательно, благодаря разгону можно сэкономить денег, отложив или вообще отказавшись от приобретения более производительной видеокарты.

Но не все так просто, как кажется на первый взгляд. Есть у этого всего и обратная сторона. Дело в том, что видеокарта в разогнанном состоянии более подвержена вероятности выхода из строя. Приступая к разгону, вы должны четко осознавать, что своими действиями вы можете повредить аппаратную часть компьютера . Прибегать к разгону следует, если ради увеличения производительности видеокарты вы готовы рискнуть.

С другой стороны, если к разгону подойти с умом и не пытаться выжать из видеокарты слишком много, этот риск становится не значительным.

Необходимо учитывать, что при разгоне увеличивается мощность электроэнергии, потребляемая видеокартой. Перед разгоном желательно убедиться, что сила тока блока питания по линии +12В с запасом превышает потребности видеокарты. В противном случае блок питания может стать причиной нестабильной работы компьютера.

Об оценке соответствия блока питания требованиям компьютера читайте здесь.

В статье рассматривается один из способов разгона видеокарт серии GeForce. Чтобы сделать статью более наглядной, автор построил ее в форме описания разгона "подопытной" видеокарты GeForce GTS 450. Аналогичным образом можно разгонять любую карту от nV />Если у вас графический адаптер от ATI (Radeon), читать статью смысла нет.

Чтобы разогнать видеокарту пользователю нужно увеличить следующие параметры ее работы:

• частота графического ядра;

Читайте также:  Java not a statement ошибка

• частота шейдерных блоков.

Для обеспечения стабильности работы с новыми параметрами придется также немного повысить напряжение питания видеокарты.

Углубляться в описание указанных параметров не будем. Кому интересно – читайте о них здесь.

Разгон видеокарты GeForce

Перед началом разгона необходимо узнать показатели указанных выше параметров видеокарты в обычном состоянии. С этой целью можно использовать бесплатную утилиту GPU-Z.

После установки и запуска утилита GPU-Z покажет подробную информацию о видеокарте компьютера, в том числе и необходимые нам данные.

На изображении видно, что подопытная GeForce GTS 450 в штатном режиме имеет следующие параметры (обведены красным):

• частота графического ядра (GPU Clock) – 783 MHz;

• частота шейдерных блоков (Shader) – 1566 MHz;

• частота памяти видеокарты (Memory) – 902 MHz (1804).

Обратите также внимание на то, что с такими параметрами видеокарта GeForce GTS 450 демонстрирует следующую продуктивность (обведены зеленым):

• PixelFillrate – 6,3 GPixel/s

• TextureFillrate – 25,1 GTexel/s

• пропускная способность памяти (bandw />Для изменения указанных параметров будем использовать бесплатную программу nV />• nV >⇒ Подробнее о программе | скачать

Программа nV />После этого откроется панель разгона видеокарты (см. изображение).

Сначала поднимем значение частоты ядра (GPU Clock) и частоты шейдерных блоков (Shader Clock). Эти параметры взаимосвязаны. Поэтому повышение частоты шейдерных блоков автоматически повлечет за собой рост частоты графического ядра. Для повышения необходимо ползунок Shader Clock передвинуть вправо. Увеличивать частоту больше чем на 15% от исходной не рекомендую.

Если для нашей GeForce GTS 450 поднять Shader Clock на 15 % от исходных (1566 MHz), получится где-то около 1800 MHz. В случаях с другими видеокартами показатели, естественно, будут другими.

Увеличив Shader Clock можно увидеть, что вслед за ней увеличится и частота графического ядра. Для GeForce GTS 450 Shader Clock был увеличен до 1800 MHz, частота графического ядра автоматически поднялась до 900 MHz (см. скриншот). Чтобы изменения вступили в силу, необходимо нажать кнопку "Apply Clock&Voltage" .

Перед тем, как переходить к повышению частоты памяти видеокарты, необходимо убедиться в стабильности ее работы с новыми параметрами ядра и шейдерных блоков. С этой целью видеокарту нужно протестировать на выполнении какой-то задачи, связанной с обработкой графических данных. Прекрасным тестом стабильности является бесплатная программа FurMark.

Для проверки видеокарты устанавливаем и запускаем FurMark. В окне программы жмем кнопку "BURN-IN test" и наблюдаем за картинкой ("вращающийся волосатый бублик", см. изображение). Если в течение продолжительного времени (не менее 10-15 мин.) на изображении не будет появляться никаких артефактов (мерцание, точки, мигание и другие признаки нестабильности), значит видеокарта с новыми параметрами работает нормально.

Кроме того, во время тестирования FurMark необходимо следить за температурой видеокарты . График температуры отображается в нижней части окна FurMark. Температура не должна превысить 90 градусов С.

Если появятся артефакты или температура станет слишком высокой, необходимо остановить тест (нажав кнопку Escape), немного снизить частоту видеоядра и шейдерных блоков (в программе nV >

Когда будет найдена оптимальная частота для ядра и шейдерных блоков, можно продолжить разгон видеокарты. Возвращаемся в окно программы nVidia Inspektor и таким же способом увеличиваем частоту памяти видеокарты (передвигаем вправо ползунок Memory Clock). После изменения параметров для вступления их в силу не забудьте нажать кнопку "Apply Clock&Voltage".

Стабильность работы видеокарты с разогнанной памятью также необходимо проверить при помощи теста FurMark. Если появятся артефакты, частоту памяти нужно снижать до достижения стабильности.

В случае с нашей подопытной GeForce GTS 450 частота памяти была увеличена на 15 % с 1804 MHz до 2075 MHz.

Определение максимальных рабочих частот для видеоядра, шейдерных блоков и памяти – это самый длительный и сложный этап разгона. После его завершения останется только немного поднять напряжение питания видеокарты чтобы обеспечить более высокую стабильность ее работы. С этой целью в окне программы nVidia Inspektor нужно немного (на 1 "шажок") сдвинуть вправо ползунок "Voltage". Для GeForce GTS 450 напряжение было увеличено с 1,075 V до 1,125 V. Для вступления изменений в силу не забываем нажать кнопку "Apply Clock&Voltage" (см. изображение выше).

Новые настройки видеокарты программа nV />Создадим такой файл для осуществленных нами настроек. Для этого в окне программы необходимо нажать кнопку "Creat Clocks Chortcut". Файл с настройками будет создан на рабочем столе компьютера.

Если вы хотите, чтобы ваша видеокарта автоматически разгонялась при включении компьютера , нужно добавить этот файл в папку с названием "Автозагрузка". Windows во время запуска открывает все файлы, находящиеся в этой папке, благодаря чему видеокарта будет автоматически разгоняться при включении компьютера.

В Windows XP, Vista, 7 папка "Автозагрузка" расположена в меню "Пуск". Нужно найти ее там, щелкнуть по ней правой кнопкой мышки и в появившемся меню выбрать "Открыть".

Читайте также:  Активный трехполосный фильтр схема

В Windows 8 и Windows 10 открыть папку "Автозагрузка" немного сложнее. Подробные рекомендации по этому вопросу расположены здесь.

Видеокарту также можно разогнать "навсегда" , то есть, сделать так, чтобы она постоянно работала на повышенных частотах графического ядра и видеопамяти без использования nVidia Inspektor или какой-то другой программы. С этой целью подходящие для нее повышенные частоты, которые были определены описанным выше способом, необходимо прошить в ее BIOS. Инструкция по перепрошивке BIOS видеокарты размещена здесь.

Проверка результатов разгона

Давайте сравним основные показатели разогнанной видеокарты с показателями без разгона.

До разгона подопытная GeForce GTS 450 демонстрировала следующую продуктивность (см. выше):

• PixelFillrate – 6,3 GPixel/s;

• TextureFillrate – 25,1 GTexel/s;

• пропускная способность памяти (bandwidth) – 57,7 GB/s.

После разгона были получены следующие результаты (см. скриншот):

• PixelFillrate – 7,2 GPixel/s ( прирост 14,2% );

• TextureFillrate – 28,8 GTexel/s ( прирост 14,7% )

• пропускная способность памяти (bandw >прирост 15,0% ).

Для проверки прироста продуктивности в условиях, приближенных к реальным, была также использована программа 3DMark11. Это один из наиболее популярных тестов производительности графических адаптеров.

В 3DMark11 без разгона GeForce GTS 450 показала результат 2272 бала , после разгона – 2573 бала.

То есть, прирост производительности видеокарты на практике составил 13,2 % (см. скриншоты).

После разгона видеокарты

После разгона температурный режим работы видеокарты существенно изменяется в сторону повышения, что может сказаться на состоянии охлаждения остальных устройств компьютера. Кроме видеокарты в системном блоке находятся другие "греющиеся" компоненты – центральный процессор, чипсет материнской платы и др. Поэтому после разгона хотя бы на первых порах желательно тщательно отслеживать температуру всех основных устройств компьютера .

Например, можно использовать бесплатную программу SpeedFan.

Если температура какого-нибудь устройства компьютера окажется слишком высокой, необходимо позаботиться об улучшении циркуляции воздуха в корпусе системного блока, установив дополнительные кулеры (вентиляторы) на вдув и (или) выдув.

Нужно также иметь ввиду, что повышенная температура компьютера или отдельных его устройств может быть вызвана выходом из строя или засорением пылью их системы охлаждения. Порядок устранения указанных проблем описан на нашем сайте в статье о чистке и смазке кулеров.

В мире компьютерных игр в 2018 году произошло событие, которое многие эксперты отнесли к разряду революционных. Речь идет о внедрении в игры трассировки лучей.

Трассировка лучей (англ. Ray Tracing) – это технология отрисовки трехмерной графики, симулирующая физическое поведение света. Используя ее, видеокарта в точности моделирует прохождения лучей от источников освещения и их взаимодействие с объектами. При этом, учитываются свойства поверхностей объектов, на основании чего вычисляются точки начала рассеивания, особенности отражения света, возникновения теней и многое другое.

По сути, это симуляция модели человеческого зрения, которая вплотную приближает компьютерную графику к кинематографическому уровню (см. примеры).

У каждой компьютерной игры есть определенные требования к внутренним устройствам компьютера (видеокарте, процессору объему оперативной памяти и др.). Если компьютер им не отвечает, насладиться игровым процессом вряд ли получится.

В этом каталоге можно подобрать игры с учетом как игровых предпочтений пользователя (жанр, сюжет, особенности геймплея и т.д.), так и быстродействия в них конкретного компьютерного "железа".

Онлайн-сервис сравнения характеристик видеокарт. Построен в виде сравнительной таблицы, в которую можно одновременно добавить неограниченное число графических карт, выбрав их из списка (доступно около 700 дискретных и интегрированных видеокарт nV />Сервис позволяет в удобной форме сравнивать производительность видеокарт в компьютеных играх, частоту графического процессора, тип, размер и ширину шины памяти, а также другие их характеристики.

Рейтинг быстродействия и характеристики десктопных и мобильных видеокарт NV />Есть фильтр, позволяющий отбирать видеокарты по названию модели, разработчику, типу (мобильные, десктопные, дискретные, интегрированные), году выхода, интерфейсу подключения к материнской плате, а также требованиям к блоку питания компьютера.

DirectX – это набор библиотек, входящих в операционную систему Windows, которые используются для создания трехмерной графики. Благодаря DirectX, разработка компьютерных игр стала значительно проще. По сути, DirectX сделал Windows единоличным лидером среди операционных систем для домашних игровых компьютеров.

DirectX, как и другое программное обеспечение, постоянно усовершенствуется. Появляются все новые и новые его версии. Если какая-то компьютерная игра была создана с использованием DirectX определенной версии, для ее полноценной работы необходимо, чтобы компьютер поддерживал эту же версию DirectX или более новую.

Поддержка компьютером той или иной версии DirectX зависит от установленной на нем Windows, а также от возможностей его видеокарты.

Из статьи читатель узнает о том, как получить информацию о видеокарте, даже если она не идентифицируется компьютером, ее драйвер установлен не правильно или отсутствует.

Читайте также:  Удаление движений не удалять автоматически

Узнать, какая на компьютере установлена видеокарта, можно несколькими способами. Порядок действий будет зависеть в первую очередь от того, установлен на компьютере драйвер видеокарты (первые два способа) или нет (третий способ).


ПОКАЗАТЬ ЕЩЕ

Технические характеристики

Основные технические характеристики Nvidia GeForce 820M нельзя назвать впечатляющими – работающая на графическом процессоре GF117 модель имеет частоту шины всего 64 бит. Частота шейдерных ядер карты всего в 2 раза превышает аналогичный показатель GPU. Зато её можно разгонять с помощью технологии GPU Boost 2.0, ориентируясь по эффективности охлаждения видеоадаптера.

Тактовые частоты у карты во многом зависят от конкретной модели ноутбука и могут отличаться друг от друга при прочих равных характеристиках. Есть определённые отличия (скорость передачи данных, fps) у версий с 1 и 2 гигабайтами ОЗУ. Впрочем, первая, гигабайтная карта, практически не использовалась раньше – нелегко обнаружить её и на ноутбуках 2015-го или 2016-го типа, тем более с учетом отсутствия у производителей таких показателей.

Даже 96 шейдерных ядер не обеспечивают GT 820M высокую скорость работы. Сравнивая модель с другой дискретной графикой для ПК и тестируя в играх, можно понять, что геймеру такой мобильный ПК вряд ли подойдёт. Зато устройство поддерживает работу дисплея с диагональю 13-14».

Обзор GeForce 820M

Видеокарта практически не продаётся отдельно от бюджетных ноутбуков, поэтому купить её будет затруднительно. Однако в интернет-магазинах запчастей для компьютерной техники найти её всё-таки можно. Средняя цена Nvidia GeForce 820M составляет 1570 рублей.

Показатели энергопотребления у видеопамяти минимальны – на уровне всего 15 Вт. Благодаря этому отсутствует необходимость в дополнительном охлаждении ноутбука. При этом обеспечивается и небольшое значение шума при работе мобильного ПК.

Как разогнать видеокарту Nvidia GeForce 820M на ноутбуке

Большая часть основных параметров модели имеет отличия от других для нескольких вариантов лэптопов – это обычно касается частоты процессора и его памяти. Причём, чем выше эти характеристики у конкретного мобильного ПК, тем сильнее получится разогнать GPU. Естественно, делается это не для добычи криптовалют, которые с таким устройством будут майниться не лучше, чем с мобильного телефона.

Разгон GDDR3 позволяет увеличить частоту fps в игровых приложениях или с большим уровнем комфорта просмотреть, например, в сети видео на максимальных настройках. Размер увеличиваемых показателей видеопамяти пропорционально связан с их начальными значениями. При показателе в 775 МГц можно получить не меньше 0,9 ГГц.

Для такого улучшения способности применяют специальные утилиты типа MSI Afterburner 4.3.0, а для контроля получившихся частот – бенчмарк Unigine Heaven Benchmark 4.0. Проверки с помощью этих программ показали разогрев GPU до температуры 90 градусов – выше, чем положено, но всё равно в пределах допустимого уровня.

Какие игры потянет GeForce 820M

С учётом того, что видеокарта устанавливается только на ноутбуках (причём, далеко не на самых топовых моделях), её показатели в играх вполне устроят владельцев. Так, например, fps GeForce 820M в играх 2013-го года Battlefield 4 и Total War: Rome II модель показала на средних настройках 26,3 и 36,8 кадров в секунду, соответственно.

Можно поиграть с помощью этой карты и в Batman: Arkham Origins, Call of Duty: Ghosts, Titanfal, Skyrime, Risen 3: Titan LordsRisen 3: Titan Lords и Fifa 15 – в каждой из них видеоадаптер показал около 25-30 fps на средних настройках и больше 40 на минимальных.

Не рекомендуется использовать ноутбук с этой картой для игры в Civilization: Beyond Earth, Middle-earth: Shadow of Mordor, Wolfenstein: The New Order, Assassin´s Creed IV: Black Flag и Dragon Age: InquisitionDragon Age: Inquisition. В каждой из них параметры изображения находятся на грани допустимых даже на минимальных настройках.

Большинство более современных игровых приложений, выпущенных с 2015-го года и позже, с такой видеокартой даже не запустятся или обеспечат такие показатели fps, что отобьют любое желание играть.

Обновление драйверов

Для того чтобы скачать драйвер Nvidia GeForce 820M для ноутбука, достаточно прейти на официальный сайт производителя карты и найти версию, соответствующую установленной операционной системе.

Последние обновления для этого GPU выходили осенью 2017-го года. Набор управляющих программ для этой карты включает версии для Windows 10 и 7, Linux х86/х64 и FreeBSD.

Для Windows 7, 8.1, 8 и Vista

Для Windows 10

32-bit 64-bit

Размер файла:

400.00 МБ
Версия драйвера: 391.35 (WHQL) от 27.03.2018;
Язык: Русский
Операционная система: Windows 10 32/64-bit, Windows 7 32/64-bit, Windows 8.1 32/64-bit, Windows 8 32/64-bit, Windows Vista

На что способна видеокарта в играх: Видео

Оцените статью
ПК Знаток
Добавить комментарий

Adblock
detector