Torgholodmash.ru

ТоргХолодМаш
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

На что обратить внимание при покупке монитора

На что обратить внимание при покупке монитора

Покупая новый компьютер большинство из нас интересуются тем, насколько быстрый его процессор, какая у него видеокарта, сколько в нем оперативной памяти. Эти характеристики, несомненно, важны, поскольку они напрямую влияют на производительность компьютера. Тем не менее, часто люди забывают о другом обязательном атрибуте любого ПК, а именно мониторе.

В этом материале мы намерены убедить вас, что дисплей компьютера – это куда более важный компонент, чем вы думаете, а также дадим несколько полезных советов о том, на что обратить внимание при выборе монитора и как получить от него максимальную отдачу.

Разделительные линии

Для чего обычно используется компьютер? Есть два наиболее распространенных сценария – работа и развлечения. Конечно, это крайне грубое обобщение, но объективно оно примерно соответствует реальному положению дел.

Большинство пользователей используют свой компьютер как для развлечений, так и для выполнения серьезных задач. Но во многих случаях всегда преобладает один из этих двух вариантов, то есть компьютер используется в преимущественно для игр, просмотра фильмов и сериалов, или в основном для работы.
Монитор во многих отношениях является одним из ключевых компонентов, определяющих качество развлечений или профессиональной деятельности. Здесь речь идет о естественном (родном) разрешении, типе матрицы, диагонали и, что не менее важно, уникальных функциях и особенностях дисплея.

О мониторе и играх

Современные компьютерные мониторы используют некие жидкокристаллические матрицы и, соответственно, характеризуются определенным максимальным разрешением, обычно именуемым родным (естественным). Мы говорим о разрешении, при котором дисплей может предложить максимально возможное качество изображения: мельчайшие детали, лучшие цвета и контраст.

Большинство ЖК-матриц также работают с фиксированной частотой обновления 60, 75, 85, 100, 120 Гц или больше, в зависимости от модели. Другими словами, изображение, которое они отображают, обновляется со скоростью 60 (75, 85, 100, 120) циклов в секунду. В то же время графический адаптер компьютера работает на разных скоростях в зависимости от задач, которыми он нагружен. Если говорить о тривиальном 2D-изображении, то даже самые слабые видеокарты без особых проблем будут «доставлять» кадры с частотой, совпадающей с частотой обновления монитора или телевизора, к которому подключен компьютер.

Совсем иначе ситуация обстоит с тяжеловесными 3D-играми. Каждая сцена происходящего на экране связана с миллионами сложных вычислений, поэтому очень часто скорость «рисования» кадров видеокартой не совпадает с частотой обновления монитора. Несоответствие между герцовкой экрана и количеством кадров в секунду, на которое способна видеокарта, вызывает различные визуальные дефекты изображения: разрывы, размытие, графические артефакты. Таким образом, если вы хотите получить от компьютерных игр максимальное удовольствие, дисплей и видеокарта должны работать синхронно.

Проблема в том, что чем выше разрешение экрана в играх, тем сложнее аппаратному обеспечению ПК поддерживать «железные» 60 или больше кадров в секунду. Поэтому, выбирая монитор для игр, отталкивайтесь от быстродействия используемой видеокарты. Если в ПК установлена графическая карта ранга Nvidia GeForce GTX 1660 или AMD Radeon RX 590, возможно, вам не понадобится панель с высоким разрешением 4K. При таком разрешении речь идет о более чем 8 миллионах пикселей, которые в любой момент должны быть отображены на дисплее, и это должно происходить со скоростью не менее 60 кадров в секунду, чтобы избежать неприятных графических дефектов, которые мы уже упоминали.

Такое редко под силу даже самым мощным и дорогим графическим адаптерам, доступным в продаже сейчас, особенно если объединить с разрешением 4K максимальный уровень графических настроек.

Даже топовая видеокарта Nvidia GeForce RTX 2080 Ti с ценой более 90 000 рублей имеет проблемы с визуализацией игр вроде Borderlands 3 и Shadow of the Tomb Raider в разрешении 4K при скорости 60 кадров в секунду и ультравысоких настройках графики.

С другой стороны, на мониторе с разрешающей способностью 1920 x 1080 пикселей эти игры и выглядят великолепно, и работают с постоянной скоростью 60 fps с высокими настройками графики даже на Nvidia GeForce GTX 1660 и AMD Radeon RX 590.

Синхронизируйте, но правильно

Другой возможный вариант – просто выбрать модель монитора с поддержкой технологии адаптивной синхронизации, которая элегантным способом решает проблему несоответствия между частотой обновления матрицы и количеством кадров в секунду, которое может обеспечить видеокарта.

Например, 27-дюймовый AOC 27G2U/BK – это великолепный игровой монитор, обеспечивающий молниеносное время отклика пикселей (1 миллисекунда), высококачественную насыщенную яркую IPS-матрицу и, самое главное, поддержку технологии FreeSync. Это разновидность упомянутой функции адаптивной синхронизации, разработанная AMD, которая изначально поддерживалась только видеокартами Radeon. С прошлого года их основной конкурент – Nvidia, обеспечил поддержку FreeSync для видеокарт GeForce серии 1000 и 2000. В то же время Nvidia развивает свою версию адаптивной синхронизации, называемую G-Sync. Однако в обоих случаях принцип действий весьма схож.

Это специальный алгоритм, который обеспечивает динамическую синхронизацию между видеокартой и монитором. Благодаря этой технологии частота обновления монитора «подгоняется» (в определенных пределах) под частоту кадров. С FreeSync/G-Sync, даже если у вас скромное оборудование (видеокарта и процессор), не способное выдавать стабильные 60 fps при выбранном вами игровом разрешении, вы все равно получите удовольствие от игры без разрывов и артефактов.

Если вы счастливый владелец высокопроизводительной видеокарты (Nvidia RTX 2070 Super или лучше), то при максимальном разрешении, а у AOC 27G2U/BK этот показатель составляет 1920 на 1080 пикселей, вы сможете играть на сверхвысоких частотах, поскольку этот монитор способен обновлять кадры с частотой 144 Гц.

Некоторое время назад Nvidia опубликовали свое собственное исследование, убедительно доказав, что игра на дисплее с аналогичными параметрами (супер высокая частота обновления) приводит к большему успеху в соревновательных играх. Другими словами, в динамичных играх по типу Overwatch, Fortnite и Apex: Legends высокая частота обновления, в сочетании с соответствующей высокой частотой кадров и низким временем отклика, может дать вам значительное конкурентное преимущество. Не удивительно, что AOC 27G2U/BK – это одна из ключевых игровых моделей компании, разработанная совместно с одной из самых элитных киберспортивных команд в мире: G2 Esports.

«Рабочие лошадки»

Если работа – ваша основная причина сидеть за компьютером, тогда вам нужен профессиональный дисплей. Это отдельная категория мониторов, которые предлагают специальные функции, предназначенные для профессионалов: видео- и фоторедакторов, людей, занимающихся допечатной подготовкой, инженерным и архитектурным проектированием и т.д.

Речь идет о таких моделях, как например, Philips 329P9H/01 Brilliance – 32-дюймовая 4K-панель с высококачественной IPS-матрицей, предлагающей фантастическую цветопередачу и покрывающей 87 процентов цветового пространства Adobe RGB и 90 процентов цветовой гаммы NTSC (в общей сложности 1 миллиард цветовых оттенков). Не менее важным является тот факт, что монитор поставляется с заводской калибровкой.

Philips неслучайно выбрал панель IPS – эта технология характеризируется достаточно большими углами обзора и, следовательно, не страдает этим врожденным дефектом огромного разнообразия ЖК-дисплеев, снижающим контраст и насыщенность цвета, когда пользователь смещается относительно дисплея по вертикали и горизонтали. В случае более дешевых моделей важно находиться прямо напротив монитора, чтобы получить максимально хорошее изображение.

Philips 329P9H/01 обеспечивает область обзора 178 градусов, то есть даже люди, стоящие в стороне (например, клиенты, которым демонстрируется готовый проект), увидят изображение такого же высокого качества, что и вы, стоя прямо перед монитором.

Будучи профессиональным устройством, Philips 329P9H/01 оснащен специальной подставкой, которая позволяет регулировать экран по высоте и поворачивать его практически в любое положение, в том числе на 90 градусов (так называемый портретный режим). Для фотографов это крайне важно – наличие портретного режима позволяет им демонстрировать свои фотографии в полном размере без раздражающих огромных черных линий сбоку.

При организации комфортного рабочего места не следует пренебрегать и вопросом кабельной разводки для подключения различных периферийных устройств. Philips 329P9H/01 позволяет подключать USB-устройства непосредственно к нему, поэтому он может помочь упростить и упорядочить рабочее пространство. Благодаря наличию порта USB-C на задней панели дисплея, вы можете подключить к нему ноутбук с таким же интерфейсом, используя всего один кабель, который передает изображение, звук и данные. Поверьте, это очень удобно. Более того, через USB-C ноутбук заряжается напрямую от монитора без использования зарядного устройства. В Philips 329P9H/01 даже встроен порт Ethernet для подключения кабеля компьютерной сети.

Ни в коем случае не стоит пренебрегать и эргономикой использования. Например, Philips 329P9H/01 поддерживает технологии FlickerFree и LowBlue Mode, которые снижают нагрузку на глаза даже при длительном использовании.

Когда дело доходит до действительно профессиональной работы, одно из важных условий, позволяющих получить максимальную отдачу даже от самой дорогой модели монитора, заключается в его правильной калибровке. К сожалению, такая операция обычно требует специального оборудования и знаний. Тем не менее, довольно точно откалибровать монитор можно и без специального оборудования. Подробно этой темы мы коснемся в одной из следующих статей.

Что такое вертикальная синхронизация

VSync помогает видеокарте и монитору взаимодействовать для правильного отображения картинки в играх – вот, что это, если сказать кратко. Графический адаптер способен выдавать определённое количество изображений в единицу времени, монитор – тоже, но эти величины могут не совпадать.

Разрыв кадра в игре

Если ничего не предпринять, то по умолчанию изображение будет подчиняться возможностям экрана. Вертикальная синхронизация отвечает за гармоничную работу обоих компонентов и тонкую настройку.

Читать еще:  Регулировка звука на компьютере колонки

Что такое G-Sync, FreeSync, V-Sync и HDMI VRR? — Разбор

Всех ПК-геймеров планеты Земля, да и консольных игроков тоже, объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:

  • V-Sync,
  • G-Sync,
  • FreeSync
  • А ведь еще есть Adaptive Sync
  • А в HDMI 2.1 недавно добавили VRR.

Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.

Для тех кто не в курсе. А в чём собственно проблема?

Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:

  1. графический процессор должен подготовить кадр и передать его на монитор,
  2. ваш монитор должен показать этот кадр.

Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.

А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.

Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.

Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.

Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.

V-Sync

Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.

Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.

При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.

Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.

Но история с кратными значениями — не самая главная проблема технологии. Есть другой неочевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть создаёт Input Lag.

Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?

Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.

  1. Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке ниже). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
  2. Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
  3. Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).

Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.

G-Sync

Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!

Представляете? Так тоже можно было!

В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.

А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.

Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?

Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.

Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.

VESA Adaptive Sync

Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?

Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!

А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.

AMD FreeSync

В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.

Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.

Кстати, чуть позже, FreeSync 2 переименовали в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.

Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.

И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?

До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.

G-Sync Compatible

Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.

Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.

С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.

Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.

Читать еще:  Программа для регулировки кулера для ноута

Итоги

Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!

Есть ли практическая польза от SLI?

Перед тем, как объединить видеокарты в SLI, желательно ознакомиться с опытом использования таких конфигураций другими геймерами и изучить спецификации своих карт, а также характеристики более производительных решений в линейке. Нередко ни в плане экономии, ни по производительности, выигрыша двухкарточная конфигурация не дает. К примеру, две GTX950 в SLI демонстрируют результаты, сравнимые с одной GTX970. Разница в цене (около 200 и 400 долларов, соответственно) самих карт оправдана, но если учесть дополнительные затраты на мощный БП, двухслотовую материнскую плату, качественный и хорошо вентилируемый корпус – выглядит она сомнительно.

Совсем иная ситуация, если подключение двух видеокарт SLI – составляющая часть процедуры апгрейда имеющегося ПК, купленного пару лет назад. Карточки уровня GTX650Ti или GTX750 все еще можно встретить в продаже по разумной цене (разница с новыми моделями примерно эквивалентна различиям по быстродействию), а технический прогресс за 3 года не преподнес ничего революционного для видеокарт (разве что память HBM, представленную AMD, но Nvidia это пока не касается). Поэтому добавление еще одного графического процессора – вполне рациональный шаг для таких игроков.

Что такое G-Sync, FreeSync, V-Sync и HDMI VRR? — Разбор

Всех ПК-геймеров планеты Земля объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:

  • V-Sync,
  • G-Sync,
  • FreeSync
  • А ведь еще есть Adaptive Sync
  • А в HDMI 2.1 недавно добавили VRR.

Но легче от этого не становится. Только больше путаешься. Чем все эти технологии отличаются? Какую выбрать видеокарту и монитор? И будет ли это всё работать на телевизоре?

Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.

Для тех кто не в курсе. А в чём собственно проблема?

Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:

  1. графический процессор должен подготовить кадр и передать его на монитор,
  2. ваш монитор должен показать этот кадр.

Вроде бы всё просто! Но тут кроется небольшой конфликт. Монитор работает по строгому расписанию. Нужно обновлять изображение на экране через равные промежутки времени, строго определённое количество раз в секунду. Этот параметр называется частотой обновления и измеряется он в герцах.

Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.

А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.

Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.

Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.

Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.

V-Sync

Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.

Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.

При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.

Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.

Частота обновления монитораВозможные частоты V-Sync
60 Hz20, 30, 60
120 Hz20, 24, 30, 40, 60, 120
144 Hz24, 36, 48, 72, 144
240 Hz20, 24, 30, 40, 48, 60, 80, 120, 240
300 Hz20, 25, 30, 50, 60, 75, 100, 150, 300

Но история с кратными значениями — не самая главная проблема технологии. Есть другой не очевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть Input Lag.

Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?

Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.

  1. Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
  2. Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
  3. Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).

Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.

G-Sync

Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!

Представляете? Так тоже можно было!

В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.

А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.

Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?

Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.

Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.

VESA Adaptive Sync

Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?

Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!

А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.

AMD FreeSync

В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.

Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.

Читать еще:  Iphone admin не удалось синхронизировать так как этот компьютер

Кстати, чуть позже, FreeSync 2 переименовали в в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.

Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.

И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?

До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.

G-Sync Compatible

Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.

Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.

С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.

Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.

Итоги

Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!

Сколько видеопамяти нужно

Память Video RAM – это выполнения вычислений графическим процессором.

На выбор объема видеопамяти влияет:

  • Разрешение, в котором Вы хотите играть или работать – минимальное значение для разрешения Full HD – 4 ГБ видеопамяти. Больше требуется для WQHD – 6 ГБ VRAM, а для использования преимуществ 4K необходимо 8, а лучше 11 ГБ видео памяти.
  • Уровень детализации и дополнительных эффектов , таких как вертикальная синхронизация. Если вы хотите играть на высоких настройках, выбирайте карту, по крайней мере, с 4 ГБ видеопамяти, но для ультра настроек инвестируйте в модель на 6 гигабайт.
  • Формат экрана монитора . Хотя это может показаться неважным, для монитора формата 16:9 достаточно будет 4 ГБ видеопамяти, в то время как дисплей 21:9 потребует 6 ГБ видеопамяти.
  • Сегмент игр . Киберспортивные игры, то есть CS:GO, LoL или Dota, не особенно требовательны и для них вполне достаточно 4 ГБ VRAM. А сегмент ААА, такие как Ведьмак или Battlefield 1, имеют большой аппетит на память VRAM, поэтому следует купить видеокарту с памятью не менее 6 ГБ, хотя, без сомнения, надежнее брать модель с 8 ГБ VRAM.

Кроме количества, имеет значение также и тип видеопамяти. Самые популярные модули GDDR5 и GDDR5X, отличающиеся высокой пропускной способностью. В играх, где передаются большие объемы данных, это имеет огромное значение.

Память VRAM HBM2 (High Bandwidth Memory) используется в видеокартах Radeon RX Vega. Работает, правда, на более низких тактовых частотах, но благодаря более широкой шине обеспечивает большую пропускную способность, а, следовательно, удобство в играх.

Синхронизация видеокарты и компьютера

gsync-logo_0.jpg

NVIDIA G-Sync — эта революционная технология для мониторов, которая обеспечивает самый быстрый и плавный игровой процесс в истории. Революционная производительность G-SYNC достигается за счет синхронизации скорости регенерации изображения дисплея с GeForce GTX GPU, установленным в вашем ПК или ноутбуке. Это устраняет разрывы и минимизирует дрожание и задержки изображения. В результате сцены появляются мгновенно, объекты выглядят четче, а геймплей становится суперплавным, обеспечивая потрясающие визуальные впечатления и серьезное преимущество над соперниками.

КАК РАБОТАЕТ NVIDIA G-SYNC?

Синхронизируя частоту обновления дисплея и скорость рендеринга GPU, G-SYNC устраняет проблему разрыва кадров и минимизирует дрожание и задержки изображения, обеспечивая самый плавный игровой процесс без артефактов.

Когда важен каждый кадр, необходима феноменальная производительность изображения, которую может обеспечить только NVIDIA G-SYNC. Сцены появляются мгновенно, объекты выглядят более четкими и яркими. Геймплей приобретает динамику и отзывчивость, что обеспечивает быстроту реакции и серьезное конкурентное преимущество в процессе игры. Любая игра приобретает такую картинку, скорость воспроизведения и атмосферу, как и задумывалось разработчиком игры.

ПРОБЛЕМА: СТАРЫЕ ТЕХНОЛОГИИ

К моменту изобретения персональных компьютеров в начале 80-х годов, технология катодно-лучевых телевизоров прочно заняла свое место и была самой простой и рентабельной технологией для создания компьютерных мониторов. 60 Гц и фиксированная частота обновления стали стандартом, а сборщики систем научились извлекать максимум возможностей из более чем неидеальной ситуации.

За последние три десятилетия несмотря на то что технология катодно-лучевых телевизоров эволюционировала в технологию LCD и LED телевизоров, ни одна крупная компания не осмелилась бросить вызов этому стереотипу, и синхронизация GPU со скоростью обновления монитора остается стандартной практикой в отрасли и по сей день.

Проблематично то, что видеокарты не осуществляют рендеринг изображения с постоянной частотой. В действительности, частота смены кадров на GPU будет значительно отличаться даже в одной сцене в одной и той же игре в зависимости от текущей нагрузки GPU. А если мониторы имеют фиксированную частоту обновления, то как же передать изображения с GPU на экран?

Первый способ – это просто игнорировать частоту обновления монитора и обновлять изображение в середине цикла. Nvidia называем это отключенным режимом VSync, именно так по умолчанию играют большинство геймеров. Недостаток заключается в том, что когда один цикл обновления монитора включает два изображения, появляется очень заметная «линия разрыва», которую обычно называют разрывом экрана. Хороший известный способ борьбы с разрывом экрана заключается в том, чтобы включить технологию VSync, которая заставляет GPU отложить обновление экрана до начала нового цикла обновления монитора. Это приводит к дрожанию изображения, когда частота смены кадров на GPU ниже частоты обновления дисплея. Это также увеличивает время ожидания, которое приводит к задержке ввода — заметной задержке между нажатием клавиши и появлением результата на экране.

Что еще хуже, многие игроки страдают от чрезмерного напряжения глаз из-за дрожания изображения, у других развиваются головные боли и мигрени. Это заставило Nvidia разработать технологию Adaptive VSync, эффективное решение, которое было хорошо принято критиками. Несмотря на создание этой технологии, проблема с задержкой ввода все еще остается, а это неприемлемо для многих геймеров-энтузиастов и совершенно не подходит для профессиональных геймеров (киберспортсменов), которые самостоятельно настраивают свои видеокарты, мониторы, клавиатуры и мыши, чтобы минимизировать досадные задержки между действием и реакцией.

РЕШЕНИЕ: NVIDIA G-SYNC

NV-Gsync-640x353.jpg

Встречайте технологию NVIDIA G-SYNC, которая устраняет разрывы экрана, минимизируя задержку ввода и дрожание изображения. G-SYNC обеспечивает такие революционные возможности, синхронизируя монитор с частотой обработки кадров на GPU, а не наоборот, что приводит к более скоростному и плавному изображению без разрывов, которое поднимает игры на качественно новый уровень.

Гуру отрасли Джон Кармак (John Carmack), Тим Суини (Tim Sweeney), Джохан Андерсон (Johan Andersson) и Марк Рейн (Mark Rein) были впечатлены технологией NVIDIA G-SYNC. Киберспортсмены и лиги киберспорта выстраиваются в очередь, чтобы использовать технологию NVIDIA G-SYNC, которая раскроет их настоящее мастерство, требующее еще более быстрой реакции, благодаря незаметной задержке между действиями на экране и командами клавиатуры. Во время внутренних тестирований заядлые игроки проводили обеденное время за онлайн матчами по локальной сети, используя мониторы с поддержкой G-SYNC, чтобы одержать победу.

Если вы, как и киберспортсмены, хотите получить самый четкий, плавный и отзывчивый игровой процесс, то мониторы с поддержкой NVIDIA G-SYNC – это совершенный прорыв, подобного которому больше нигде не найти. Настоящая инновация в эру доработок, NVIDIA G-SYNC кардинально изменит ваш взгляд на игры.

голоса
Рейтинг статьи
Ссылка на основную публикацию
ВсеИнструменты
Adblock
detector