Монитор обновляет картинку на себе столько раз, сколько герц стоит в настройках. Обычно это 59 и 60 герц, то есть 59 и 60 раз в секунду. Давно появились мониторы, у которых частота обновления выше. Чтобы понять зачем, рассмотрим, как это работает:
FPS это количество кадров в секунду, которое отрисовывает и выдаёт на монитор видеокарта. Совсем не обязательно, что эти кадры равномерны во времени. Может быть пять кадров подряд, затем задержка, а потом в ускоренном темпе остальные кадры, по этому вы видите на экране какой-то кадр дольше, словно это микрозависание, а потом игровой процесс скажем бега, где часть пути вы преодолеваете как на ускоренной перемотке.
Если не брать в расчёт эти задержки, а рассматривать ситуации, когда видеокарта выдаёт кадр за кадром, на мониторы 60 герц и 120, то:
Если видеокарта выдаёт 30 кадров в секунду
Результат = оба монитора покажут одинаковую картинку
Если видеокарта выдаёт 120 кадров в секунду
Результат = Монитор с частотой обновления 60 герц покажет 60 кадров, а монитор с частотой обновления 120 герц, покажет все 120 кадров, что будет плавнее
Наглядно посмотреть, разницу вы можете не отрываясь от монитора, зайдя на ютуб и посмотрев например это видео
у меня монитор 60 Гц игра выдает 120 FPS это нормально или мне нужен монитор 120 Гц?
Смотря с каким монитором,если моник поддерживает g sync или amd free sync в зависимости от видюхи то связано а если обычный даже игровой то будет обман зрения т.п. и fps будут отдельно.
FPS и частота обновления монитора никак не связаны между собой, только если не используется адаптивная технология синхронизации типа G-Sync, FreeSync, V-Sync и подобные.
Жаркая дискуссия ))Никто, до конца не понимает, где "раки зимую"?!)))