منو

۴K ،۸K یا HDR؟ مسئله این است

به گزارش ای ماسیس :

اگر در بازار تلویزیون و نمایشگر چرخی زده باشید و بخواهید یکی از تازه ترین مدل های موجود را به خانه بیاورید، آن وقت حتما با اصطلاح های گیج کننده ای مانند ۴K، اولترا اچ دی (یا UHD) و ۸K مواجه شده اید. آیا این اصطلاح ها به تفاوت خاصی اشاره می کنند؟

مجله همشهری دانستنی ها: اگر در بازار تلویزیون و نمایشگر چرخی زده باشید و بخواهید یکی از تازه ترین مدل های موجود را به خانه بیاورید، آن وقت حتما با اصطلاح های گیج کننده ای مانند ۴K، اولترا اچ دی (یا UHD) و ۸K مواجه شده اید. آیا این اصطلاح ها به تفاوت خاصی اشاره می کنند؟
معنای هر کدام از این ها چیست؟ آیا چشم انسان می تواند تفاوت را تشخیص بدهد؟ اصطلاح نورسیده HDR یعنی چه؟ اگر می خواهید درباره این استانداردها بیشتر بدانید معنای هر کدام از آن ها چیست، این مطلب دقیقا برای شما نوشته شده است!
اچ دی، یو اچ دی، ۴K و۸K
HDTV (High Definition Television)یا «تلویزیون با کیفیت بسیار بالا» استانداردی است که نخستین بار از طرف یک شبکه تلویزیونی ژاپنی معرفی شد. این استاندارد تقریبا از ۱۰ سال پیش به استاندارد غالب نمایشگرها تبدیل شد و اکنون پیدا کردن تلویزیونی که اچ دی نباشد ،کاری ناممکن یا دشوار است. منظور از این استاندارد این است که نمایشگر می تواند تصویری با رزولوشن ۱۲۸۰ در ۷۲۰ پیکسل نمایش دهد. استانداردی که به اختصار ۷۲۰p هم خوانده می شود.
البته این روزها استاندارد ۷۲۰p هم قدیمی شده و بیشتر تلویزیون های جدید حداقل از استاندارد فول اچ دی (Full HD) بهره می برند که رزولوشن تصویر در آن ۱۹۲۰ در ۱۰۸۰ پیکسل است. این استاندارد با اصطلاح ۱۰۸۰p هم شناخته می شود که باید دقت کرد حرف p در آن مختصر شده progressive یا «جلورونده» است. توجه داشته باشید که این استاندارد را نباید با ۱۰۸۰i اشتباه بگیرید چرا که حرف i در آن مختصرشده interlaced یا «یکی در میان» است.
برای فهمیدن تفاوت این دو استاندارد، باید توجه داشته باشید که ابعاد نمایشگر در هر دوی این ها برابر است: ۱۹۲۰خط عمودی و ۱۰۸۰ خط افقی در استاندارد ۱۰۸۰p هنگام ساخته شدن تصویر هر قاب، خط های افقی یکی پس از دیگری روشن می شوند و تصویر مورد نظر را می سازند. ولی در استاندارد ۱۰۸۰i این خط ها یکی در میان روشن می شوند و هر قاب تصویر به کمک فقط خط های زوج یا خط های فرد پدید می آید. به همین دلیل است که در استاندارد ۱۰۸۰i رزولوشن تصویر عملا نصف می شود.
4K، 8K یا HDR؟ مسئله این است

اصطلاح ۴K به نمایشگرهایی اشاره دارد که رزولوشن افقی (با تعداد خط های «عمودی» آن) تقریبا چهار هزار پیکسل باشد. این استاندارد می تواند کمی گیج کننده باشد. چون تا این جا برای نام گذاری استانداردهای ۷۲۰p و ۱۰۸۰p از رزولوشن عمودی «یا تعداد خط های «افقی») استفاده کرده ایم.

در حال حاضر یکی از رایج ترین رزولوشن هایی که به عنوان ۴K معرفی می شود، درواقع UHD-1 است. UHD-1 با عبارت های ۴K UHD و گاهی ۲۱۶۰p هم شناخته می شود و رزولوشن آن عبارت است از ۳۸۴۰ در ۲۱۶۰ پیکسل. استاندارد دیگری که شاید گاهی به گوشتان خورده باشد، استاندارد «فول اولترا اچ دی» (Full Ultra HD) است که اغلب ۸K خوانده می شود. تصویر در این استاندارد با ۷۶۲۰ در ۴۳۲۰ پیکسل پدید می آید. درحال حاضر تلویزیون های اندکی هستند که چنین رزولوشنی دارند و در رده های بالا و گران قیمت بازار تلویزیون قرار می گیرند. بد نیست بدانید کوچک ترین تلویزیون ۸K موجود، ۸۵ اینچ قطر دارد.

آیا واقعا لازم است تلویزیون UHD بخریم؟

پاسخ کوتاه این است که فعلا نه، اما در آینده شاید این استاندارد فراگیر شود. گذشته از قیمت بالای تلویزیون های این رده، هنوز محتوای ویدئویی چندانی در دسترس نیست که با رزولوشن تلویزیون های UHD سازگار باشد. تماشای فیلم های بلو- ری و ویدئوهایی با کیفیت ۱۰۸۰p هم نمی تواند حداکثر کیفیت این تلویزیون ها را به نمایش بگذارد. (به عبارت دیگر، اگر تلویزیون تان ۴K باشد، به این معنا نیست که هر چیزی که می بینید رزولوشن ۴K خواهدداشت).
نکته دیگر این که حتی هنگام تماشای ویدئوهای ۴K در این نمایشگرها، نمی توانید متوجه تفاوت کیفیت شوید. البته اگر در فاصله چند سانتی متری یک تلویزیون ۸۵ اینچی بایستید و چشمان قدرتمندی هم داشته باشید، آن وقت ممکن است متوجه این تفاوت بشوید. اما در فاصله های دورتر و با نمایشگرهای کوچک تر و با قدرت دید پایین تر، متوجه تفاوت چندانی در کیفیت تصویر ۴K و فول اچ دی نخواهید شد. در بسیاری از این موارد، تفاوت، اگر هم وجود داشته باشد، ناچیز است. بنابراین تقبل هزینه ای بالا برای بهبود ناچیز و نامشهود در کیفیت، کاری غیرمنطقی است.

4K، 8K یا HDR؟ مسئله این است

HDR چطور؟

نکته های دیگری هم وجود دارد که بد نیست به آن ها هم توجه کنید. برخی تلویزیون های UHD (و نه همه آن ها) امکانات و قابلیت هایی دارند که شاید شما را برای خرید راضی کنند. یکی از این موارد استاندارد جدیدی است که با عنوان HDR شناخته می شود و نمایشگرهای سازگار با این استاندارد، گستره رنگی وسیع تری (بیش از یک میلیارد رنگ) دارند. در حال حاضر نمایشگرهای UHD یا ۴K که با این استاندارد سازگارند، با عنوان Ultra HD Premium هم شناخته می شوند. اما منظور از HDR چیست؟
HDR هم مانند بسیاری از این استانداردها مخفف اصطلاح خاصی است و د راین مورد مخفف «High Dynamic Range» یا «دامنه دینامیکی وسیع». «دامنه دینامیکی» در حقیقت عبارت است از میزان تفاوت روشنایی بین تاریک ترین و روشن ترین نقطه های تصویر. وسیع تر بودن این دامنه به این معناست که قسمت های تیره تصویر سیاه ترند و قسمت های سفید، روشن تر.
ممکن است به نظرتان برسد این موضوع به کنتراست تصویر هم ربط دارد که درست است. اما قضیه فقط در کنتراست خلاصه نمی شود و پای رنگ ها هم در میان است. برای آن که نمایشگری HDR باشد، به کنتراست و گستره رنگی ویژه ای نیاز دارد.

4K، 8K یا HDR؟ مسئله این است

کنتراست و گستره رنگی HDR

کنتراست، در اصل، نسبت میزان روشنایی روشن ترین بخش تصویر به تیره ترین جای آن است. هرچه این نسبت بیشتر باشد، تصویر در اصطلاح «دینامیک» بیشتری خواهدداشت. در محاسبه کنتراست، نسبت مهم است نه دقیقا میزان روشنایی و تیرگی. به همین دلیل است که برای نمایشگرهای HDR از دو کنتراست متفاوت استفاده می شود.
در استاندارد اول، لازم است روشن ترین بخش تصویر بیش از هزار نیت (nit) روشنایی داشته باشد و تیره ترین قسمت کمتر از پنج صدم نیت. در استاندارد دوم روشن ترین قسمت تصویر باید بیشتر از ۵۴۰ نیت روشنایی داشته باشد و تیره ترین بخش کمتر از پنج صدهزارم نیت.
اما از نظر گستره رنگی، نمایشگرهای HDR باید بتوانند رنگ های بیشتری به نمایش بگذارند.
تا همین اواخر، بیشتر محتواهای ویدئویی و نمایشگرها (مانند دیسک های بلو-ری و تلویزیون های اچ دی) با فضای رنگی هشت بیتی (استانداردی به قدمت ۲۵ سال) سازگار بودند که در این فضای رنگی امکان تولید حداکثر ۱۶ میلیون رنگ وجود دارد.
اما نمایشگرهای HDR باید بتوانند با فضای رنگی ۱۰ بیتی سازگار باشند. فضایی که امکان تولید بیش از یک میلیارد رنگ در آن وجود دارد. نتیجه این که نمایشگرهای HDR می توانند تصاویری نزدیک تر به واقعیت به نمایش بگذارند، البته به این شرط که محتوایی هم که در آن ها به نمایش در می آید، با استاندارد HDR سازگار باشد.

نکته

واحد سنجش روشنایی: برای سنجش روشنایی، میزان نور عبوری از یک سطح یا گسیل یافته از آن را در یک زاویه فضایی مشخص اندازه می گیرند. یکی از پرکاربردترین واحدهای اندازه گیری برای سنجش روشنایی «نیت» (nit) است.



لینک منبع

دسته بندی ها: تکنولوووژی

دیدگاه ها