Разница между Full HD и HD

Многие люди при выборе телевизора или монитора для своего компьютера в первую очередь обращают внимание на фирму, стоимость, наличие тех или иных функций, диагональ и, конечно же, разрешение экрана. На сегодняшний день, экран с разрешением 1080, он же стандарт HD, является довольно популярным среди покупателей. При этом стоит отметить, что он, в свою очередь делится на два вида: разрешение 1080 со значением «p» и со значением «i». Но в чем же разница между ними?

На самом деле, разница между этими двумя видами в способе вывода изображения на экран. 1080p – это прогрессивный способ вывода, а 1080i – чересстрочный. Каждый из них обладает своими достоинствами и недостатками. Именно это влияет на показатели данных типов разрешения и определяет, какой из них лучше.

Виджет от SocialMart

1080i

Данный стандарт рассчитан на получение цифрового сигнала и экран с соотношением сторон 16х9. При этом экран должен быть по высоте 1080 пикселей, а в ширину – 1920. Данный формат способен транслировать видео разного формата, в том числе и в формате Full HD.

Мониторы с разрешением HD чаще всего обладают частотой обновления картинки в 60 или 50 Гц. Ее можно настроить самостоятельно, зайдя в программные настройки в телевизоре или мониторе.

Формирование картинки происходит в два этапа. Для начала на экран выводятся четные строки, то есть вторая, четвертая и далее, а после уже нечетные. Обычному человеку это невидно, так как каждое поле высвечивается за одну секунду около 30 раз. Из-за такого способа отображения информации, качество изображения становится не достаточно четким. Именно это является главным недостатком телевизоров с разрешением 1080i.


К положительным качествам устройств с разрешением HD можно отнести их небольшую стоимость. Также такая технология позволяет уменьшить поток видеоданных в 2 раза, а схемо-техническое решение в таких устройствах будет намного проще.

1080p

Данный стандарт ничем не отличается в плане разрешения матрицы. Однако помимо стандартных частот обновления, таких же как у стандарта 1080i, также поддерживается и частота равная 24 Гц. Кроме того, изображение выводится не построчно, а в один такт, в результате чего картинка получается более четкой. Правда данная технология немного сложнее, в результате чего и стоимость таких телевизоров становиться выше.

В телевизорах с таким стандартом отображения картинка сглаживается, что делает ее более приятной. К тому же на таком экране намного лучше будет читаться текст написанный мелким шрифтом, а видео с быстрой сменой кадров или высокой скоростью будет долее четким и без разрывов.

В чем разница

Просмотрев технические характеристики стандарта 1080i и 1080p можно выделить основные отличия:

  • 1080i разбивает кадр на два и отображает их в виде строк по очереди, в то время как 1080р делает это последовательно без разбивки кадра;
  • 1080р отличается более четким изображением, а при движении отсутствуют артефакты;
  • Современные телевизоры дополнительно обрабатывают сигнал 1080i, сглаживая изображение, в то время как сигнал стандарта HD со значением «р» в этом не нуждается;
  • Стандарт HD со значением «i» обладает меньшими требованиями, чем 1080р к полосе пропуска канала;
  • Изображения в формате HD со значением «p» не теряет качества при масштабировании, а текст, написанный любым шрифтом и кеглем, читается намного лучше.


Что лучше

Подведя итоги сравнения можно отметить, что стандарт 1080р на порядок лучше, чем 1080i. Картинка будет обновляться чаще и при этом будет более четкой, в результате чего нагрузка на глаза зрителя будет сведена практически к минимуму. Однако стоит участь, что стоимость устройства с таким типом разрешения и отображения изображения будет на порядок выше, чем цена за телевизор со стандартом 1080i.

Устройства с однотактовым отображением картинки также поддерживают некоторые нестандартные видеофайлы. Также следует учесть и тот факт, что устройства со стандартом 1080р могут при необходимости работать и в стандарте 1080i. Для этого необходимо просто установить данное разрешение в настройках. Работа с двумя стандартами стала возможна благодаря тому, что разложить один кадр на два можно, а вот наоборот сложить два кадра, которые читаются по очереди, а не одновременно, - невозможно.

Однако стоит учитывать, что мало телеканалов эфирного телевидения транслируется именно в этом стандарте. Но не стоит переживать, так как, по мнению специалистов, в скором времени многие каналы все-таки перейдут на данный формат. По сути, качество изображения телеканалов будет на порядок выше, чем сейчас. Но, все такие есть некоторые нюансы, касающиеся телевизионного сигнала.


Телевизионный HD сигнал

Когда вы смотрите фильмы по телевизору, то вы можете заметить, что качество изображения цифрового, кабельного или спутникового телевидения на порядок ниже, чем качество видео, которое просматривается с помощью Blu-Ray плеера. Если вы думаете, что проблема в недостаточно большом разрешении экрана, то вы ошибаетесь. Проблема заключается совсем в другом.

Компании, которые позволяют своим клиентам смотреть до трех тысяч каналов в качестве HD, делают это следующим способом. Для того чтобы вместить такое большое количество данных в довольно насыщенный поток информации, видеосигнал очень сильно сжимают, в результате чего цветовая градация, резкость и четкость изображения, которая была вначале, практически исчезает.

Когда нам с гордостью демонстрируют телевизоры, мониторы, дисплеи с маркировкой FullHD, это “высочайшее” разрешение представляется высшим благом. Но телевидение высокой четкости или видео HD пришли к нам относительно недавно, так что потребовать замены в соответствии с обновлением технологий еще не успели. Естественно, что при довольно незначительной иногда разнице в цене, например, телевизоров FullHD и HD ready, потребитель хочет знать точно, что именно он приобретает и не ошибся ли в выборе. Демонстрируемые картинки не всегда дают возможность определиться: качество изображения зависит не только от разрешения, но и от многих других факторов (яркости, контрастности, углов обзора экрана и т.д.), и субъективное мнение снова топчется на месте. Посмотрим, в чем же разница между основными приманками теле- и видеотехники — разрешениями FullHD и HD.

Определение

Стандарт разрешения HD (High Definition) включает в себя любое разрешение, превышающее формат стандартного (то есть 720х576). Сегодня разрешение HD (маркировка HD ready) означает минимальные требования к разрешению 1280х720, однако к стандарту высокой четкости относят и менее распространенные разрешения, к примеру, 1920х1440. Маркетинг же вводит обозначение HD ready для обозначения матриц, способных отображать стандарт HD наравне со стандартным разрешением.

По сути, Full HD — это HD c разрешением 1920х1080, то есть выше, чем у HD.

Сравнение

Именование Full HD не является стандартом качества — это маркетинговая бирка, созданная для привлечения покупателей и не дающая им путаться в цифровых значениях разрешений. Существует стандарт HD ready 1080p, соответствующий разрешению 1920х1080, но не эквивалентный Full HD: часто видеотехника технически не соответствует упомянутому стандарту, ограничиваясь соответствием разрешения. HD ready же — стандартизированное обозначение приемников.

Для потребителя разница между разрешениями Full HD и HD заключается в качестве изображения. Высокая четкость обусловлена повышением детализации за счет увеличения количества пикселей матрицы экрана. Соответственно, изображение формата Full HD содержит больше информации, нежели HD или изображение стандартной четкости. По оценкам специалистов, разница в количестве информации может достигать четырехкратного размера.

Также матрицы дисплеев Full HD способны отображать как картинку с разрешением 1920х1080, так и 1920х720, и стандартную 720х576, тогда как HD ready на более высокое разрешение не замахивается. Это не значит, что при воспроизведении видео иного формата мы получим телесетку или “снег”. HD-дисплеи увеличивают стандартное разрешение видео до разрешения установленной матрицы, картинку HD720 отображают без изменений, а HD1080 уменьшают — опять же, до физических возможностей матрицы. Full HD-дисплеи любое разрешение ниже 1920х1080 “дотягивают” до собственной матрицы. Как правило, большие экраны предполагают воспроизведение медиа-контента, так что качество картинки будет принципиально важным, и выбор остается за Full HD.

Что касается развертки, то HD подразумевает исключительно прогрессивную, хотя с небольшим искажением такие устройства могут воспроизводить и (чресстрочная развертка). FullHD предполагает и чресстрочную, и прогрессивную развертки. Такой компромисс дает возможность получать сигнал, например, со спутника без проблем с потоком данных и пропускной способностью канала.

Сегодня ценовой диапазон теле и видеотехники имеет очень широкий разброс, так что говорить об однозначном преимуществе в стоимости того или иного класса устройств не приходится. Однако большинство производителей в дополнение к матрицам Full HD формата устанавливают мощные процессоры, способные быстро обрабатывать изображение, так что при равенстве диагоналей такие модели могут оказаться существенно дороже. Еще один важный момент: Full HD не равно HD1080p, так что технически несоответствующие стандарту качества модели телевизоров и мониторов могут маркироваться Full HD (без обмана потенциальных покупателей), но стоят такие устройства намного дешевле тех, что имеют маркировку HD1080p.

Выводы сайт

  1. Минимальное разрешение матриц Full HD 1920х1080, тогда как HD — 1920х720.
  2. Качество изображения на Full HD дисплеях выше, чем на HD.
  3. Стандарт HD ready предъявляет высокие технические требования к технике (за исключением разрешения матрицы), маркировка Full HD фактически отвечает только за разрешение.
  4. Full HD поддерживает чресстрочную развертку без изменения изображения.
  5. Full HD может не соответствовать стандарту качества HD1080p.
  6. Производители часто снабжают Full HD устройства мощными процессорами, что сказывается на функциональности и быстродействии.
  • Страшно большие скидки! Промокод SKELET
  • Новейший хит среднего сегмента Motorola G5S - уже в Ситилинк

Вы можете отметить интересные вам фрагменты текста,
которые будут доступны по уникальной ссылке в адресной строке браузера.

1920х1200 и 1920х1080: что лучше для игр?

Gabe Logan 04.08.2010 12:47 Страница: 1 из 2 | | версия для печати | | архив
  • Стр. 1: Часть 1
  • Стр. 2: Часть 2

Вступление

Давно перестали быть роскошью мониторы с поддержкой Full HD (1920х1080, соотношение сторон 16:9) разрешения. Некоторые модели отдают в руки всего за 6000 рублей. Однако, помимо Full HD, есть модели с разрешением 1920х1200 (соотношение сторон 16:10). И у многих пользователей часто возникают вопросы: в чем разница между ними, как это может повлиять на производительность системы в играх, на само изображение? Этот вопрос я сегодня и постараюсь прояснить.

Участники тестирования

Для проведения тестов было выбрано два видеоадаптера, с обеими вы все очень хорошо знакомы. Это Radeon HD 5870 и Radeon HD 5850. Читатели, пропустившие курс молодого бойца, могут наверстать упущенное в прошлом обзоре. А так как суть заметки заключается не в изучении строения и мощности видеоадаптеров, то мы незамедлительно переходим не только к изучению скриншотов из игр, снятых при разных разрешениях, но и к анализу результатов.

Тестовая конфигурация

  • Материнская плата: ASUS P6T Deluxe Palm\OC, bios 1611;
  • Процессор: Core i7 920, D0 @4000 Мгц, HT off;
  • Система охлаждения процессора: Scythe Mugen 2;
  • Оперативная память: 3х2 Гбайт DDR3 1600 МГц Corsair XMS3 1600 7-7-7-20;
  • Видеокарты:
    • ATI Radeon HD 5870 1024 Мбайт;
    • ATI Radeon HD 5850 1024 Мбайт;
  • Жесткий диск: SATA II 1000 Гбайт, Western Digital WD1001FALS, 7200 об/мин, 32 Мбайт;
  • Привод: Sony Nec Optiarc AD-7173S;
  • Блок питания: Corsair CMPSU-850HXEU 850 Ватт;
  • Монитор: Samsung T240, 1920x1200.


Программное обеспечение:

  • Операционная система: Windows Seven Ultimate x64;
  • Драйверы для видеокарт: Catalyst 10.6.

Список тестовых приложений:

  • Call of Duty: Modern Warfare 2 (DirectX 9);
  • Call of Duty: World at War (DirectX 9);
  • F.E.A.R. 2 (DirectX 9);
  • Left 4 Dead 2 (DirectX 9);
  • Race Drive Grid (DirectX 9);
  • Battlefield: Bad Company 2 (DirectX 11);
  • Prototype (DirectX 9);
  • Colin McRaе: DiRT 2 (DirectX 11);
  • Crysis Warhead (DirectX 10);
  • Far Cry 2 (DirectX 10);
  • Resident Evil 5 (DirectX 10);
  • S.T.A.L.K.E.R.: Call of Pripyat (DirectX11).
  • Unreal Tournament 3 (DirectX 9);
  • Grand Theft Auto IV (DirectX 9);
  • Aliens vs Predator 3 (DirectX 11);

Синтетические тесты в данном тестировании отсутствуют, ибо неактуальны. Все игры тестировались только в двух разрешениях: 1920х1200 и 1920х1080.

Результаты игровых тестов

Call of Duty: Modern Warfare 2





Настройки игры:

  • Версия игры: 1.1.195
  • DirectX 9.0
  • Тени - включено
  • Карты бликов - включено
  • Глубина резкости - включено
  • Сглаживание дыма - включено
  • Модель повреждений - включено
  • Следы пуль - включено
  • Размеры текстур - экстра
  • Размер карт нормалей - экстра
  • Размер карт бликов - экстра
  • Метод тестирования: FRAPS
AA4, 16AF

1920 x 1080


1920 x 1200

Включите JavaScript, чтобы видеть графики

Разница в производительности между двумя разрешениями крайне низка - пять процентов без малого. На глаз она незаметна.

Верхний скриншот снят в разрешении 1920 х 1080, а нижний в 1920 х 1200. И вот тут-то автора ждал сюрприз. Я наивно полагал, что чем больше пикселей, тем больше видно в самой игре. Все оказалось иначе: при соотношении сторон 16:9 на экране отображается больше информации, нежели при соотношении 16:10. Во многих играх это очень важный показатель, дающий возможность увидеть противника раньше, чем он вас. Конечно, в авто-симуляторах данный момент особо не важен, но в стратегиях или шутерах все решают доли секунд и количество получаемой с экрана информации.

Call of Duty: World at War





Настройки игры:

  • Версия игры 1.3.1080
  • DirectX 9.0
  • Полноэкранное сглаживание (MSAA) - 4х
  • Анизотропная фильтрация (AF) - 16х
  • Вертикальная синхронизация - выключено
  • Тени - включено
  • Specular map - включено
  • Ocean simulation - включено
  • Dynamic foliage - включено
  • Следы пуль - включено
  • Размеры текстур - экстра
  • Размер карт нормалей - экстра
  • Размер карт бликов - экстра
  • Метод тестирования: demo

AA4, 16AF

1920 x 1080

Включите JavaScript, чтобы видеть графики
1920 x 1200

Включите JavaScript, чтобы видеть графики

Ситуация мало отличается от предыдущей, что и не удивительно, ведь перед нами –«родственники». Производительность "прыгает" в пределах десяти процентов, что не играет серьезной роли. Картинка не сильно разнится, хотя, опять же, заметна большая "вытянутость" той, что сделана при разрешении 1920 х 1080.

F.E.A.R.2





Настройки игры:

  • Версия игры 1.0.2240.0
  • DirectX 9.0
  • Полноэкранное сглаживание (MSAA) - 4х
  • Анизотропная фильтрация (AF) - 16х
  • Вертикальная синхронизация - выключено
  • Effects Detail - Максимум
  • Particle Bouncing - Максимум
  • Shell Casings - Включено
  • World Detail - Максимум
  • Cerpse Detail - Максимум
  • Sound Quantity Limit - Максимум
  • Water Resolution - Максимум
  • Texture Level of Detail - Максимум
  • Enable Shadows - Включено
  • Light Detail - Максимум
  • Shadow Detail - Максимум
  • HDR - Включено
  • Model Decals - Максимум
  • Motion Blur - Включено
  • Reflections and Displays - Максимум
  • Ambient Occlusion - Включено

AA4, 16AF

1920 x 1080

Включите JavaScript, чтобы видеть графики
1920 x 1200

Включите JavaScript, чтобы видеть графики

Обзор происходящего на экране снова сильно отличается в пользу разрешения 1920 x 1080. Разница в производительности чуть меньше пяти процентов.

Left 4 Dead 2



За последние годы эволюция экранов достигла такого прогресса, что мало кого можно удивить качественной картинкой на Full HD разрешении в 1920х1080 точек с частотой 120 Гц. Казалось, бы что ещё для наслаждения от просмотра нужно? Но Full HD уже не предел мечтаний. На рынке уже вовсю продаются модели с 4К и Ulta HD разрешением.

Небольшое замечание по поводу Частоты которая применима к экранам различного разрешения. Что она даёт? Это (грубо говоря и упрощенно объясняя) скорость мерцания Вашего экрана и связанная с этим задержка между кадрами изображения. Чем ниже частота — тем хуже воспринимается смена кадров: они становятся «рваными». Напротив, чем выше — тем меньше пауза между кадрами, изображение становится плавным и хорошо воспринимается.

Разница между HD, UHD, 4K и 8K

Телевизоры высокой четкости (HDTV) являются стандартом, который используется уже в течение последнего десятилетия. Сейчас трудно зайти в магазин и купить телевизор, который не является по меньшей мере HD Ready , что означает «способный отображать разрешение 1280 х 720 точек (720p)». Но абсолютное большинство современных телевизоров, которое можно купить, являются Full HD , что означает «способный отображать с разрешением 1920 х 1080 точек (1080p)».

Буква «p » в обоих вариантах означает прогрессивный , а это означает, что все изображение рисует каждую строку кадра последовательно, и таких строчек 720 или 1080 соответственно. Альтернативой является буква «i «, которая означает чересстрочная развертка (1080i является стандартом HDTV). Нечетные и четные строки отображаются поочерёдно в каждом кадре, что приводит к небольшому ухудшению качества изображения.

Термин 4K относится к любому формату дисплея с разрешением по горизонтали около 4000 пикселей. Это немного сбивает с толку, так как в более низких разрешениях формат записывают значением количества пикселов по вертикали, т.е. 1080i или 720p.

UHD или Ultra HD — тоже самое что и , за исключением одного: он больше подходит для потребителей и телевидения, также имеет меньшее разрешение 3840×2160 точек (), чем .

Таким образом:

  • (DCI ) стандарт Digital Cinema Initiatives — профессиональный производственный стандарт, который является наиболее распространенным для цифрового производства под разрешение 4096 х 2160 точек.
  • UHD-1 , часто называют 4K UHD или просто 4K , а иногда, как 2160p , который стал стандартном для телевизоров, имеющих разрешение 3840 х 2160 точек, которое в четыре раза превышает количество пикселей в формата Full HD.

Большинство современных телевизоров UHD-1 не использует более широкое соотношение сторон DCI 4K , так как оно не годится для большинства телевизионного контента.

Существует также формат Full HD Ультра , иногда его называют 8K , он имеет разрешение 7620 х 4320 точек. На Яндекс Маркете представлено несколько телевизоров, которые могут похвастать таким разрешением экрана и безупречной картинкой, но рекомендуется выбирать телевизор Full HD Ultra с диагональю не менее 85 дюймов. На меньшей диагонали Вы просто не увидите всё великолепие картинки, которое возможно на 8К.

4K vs. UHD

Простейший способ определения разницы между 4K и UHD таков: 4K это профессиональный производственный стандарт, а UHD это потребительский дисплей и стандарт вещания. Чтобы узнать, почему их так часто путают, давайте взглянем на историю этих двух терминов.

Термин “4K” изначально происходит из консорциума цифрового кино DCI (Digital Cinema Initiatives), который стандартизирует спецификации для производства цифрового кино. В этом случае 4К это разрешение 4096 на 2160 пикселей, что в четыре раза больше, чем предыдущий стандарт цифровой обработки и проекции (2K или 2048 х 1080). 4К это стандарт не только разрешения, он также определяет, как кодируется контент. DCI 4K сжимается с помощью JPEG 2000, может иметь битрейт до 250Мбит и использует 12-битную 4: 4: 4 глубину цвета.
Ultra High Definition, или UHD для краткости это следующая ступень Full HD, официального названия дисплея разрешением 1920 х 1080. UHD увеличивает разрешение до 3840 х 2160. Это не тоже самое, что 4K, так как разрешение 4К выше, но, тем не менее, почти каждый телевизор или монитор с разрешением UHD рекламируются, как 4К. Конечно, есть панели с разрешением 4096 х 2160 и соотношением сторон 1.9:1, но подавляющее большинство это 3840 х 2160 с соотношением 1.78:1.

Почему не 2160p?
Безусловно, производители знают разницу между 4K и UHD. Но, вероятно, из маркетинговых соображений она придерживаются термина 4К. Но, чтобы не уступать в конфликт с настоящим стандартом DCI, они часто используют фразу 4K UHD, хотя некоторые пишут просто 4К.

Еще больше запутывает то, что, UHD фактически разделен на две части — 3840 х 2160 и затем значительно увеличенное разрешение 7680 х 4320, которое также называют UHD. Чтобы различать их используются термины 4K UHD и 8K, но, если быть более точным, 8K UHD должно быть переименовано в QUHD (Quad Ultra HD). Реальным решением был бы отказ от названия 4К и использование обозначения 2160р. Стандарты вещания и дисплеев всегда используют меньшее значение с буквами “i” или “p, в результате чего мы имеем 720p, 1080i, 1080p и так далее.

Хотя, скорее всего, уже слишком поздно менять обозначения, так как 4К телевизоры уже доступны по всему миру. Более важной проблемой является отсутствие контента для такого разрешения. Пока что лишь единицы, как Netflix и Amazon Instant Video предлагают нечто подобное. А ведь без качественного и доступного видео 4К и UHD вряд ли наберут популярность в ближайшее время.

А стоит ли брать что то выше Full HD?

Стоит, только при условии что у Вас есть достаточно источников видео 4К или UHD. Это могут быть как видеофайлы, так и провайдеры которые могут представить такой контент. Следует отметить что провайдеров предоставляющих такой контент пока немного.

Т.е. если у вас появляются горизонтальные полосы — это значит что изначальный формат видео просто слегка не подошёл к Вашему устройству просмотра 🙂

Видео с размером 4К

Подсказка: Вам нужно запустить ролик и развернуть его на полный экран.