HDR vs. Ultra HD vs. 4K: to są różnice
HDR, Ultra HD, 4K & Co. Prawdopodobnie natknąłeś się już na te nazwy. Dowiedz się, jakie są różnice w tej praktycznej wskazówce.
Ultra HD, 4K i 8K: jaka jest różnica?
Termin „rozdzielczość 4K” faktycznie pochodzi z obszaru kina i opisuje rozdzielczość 4096 × 2160 pikseli. Ponieważ jednak proporcje obrazu 16: 9 są zwykle stosowane w telewizorach, producenci używają również oznaczenia „4K” dla telewizorów o rozdzielczości 3840 x 2160 pikseli.
- „UHD” oznacza „Ultra High Definition”. Rozróżnia się UHD-1 i UHD-2. UHD-1 wykorzystuje również rozdzielczość 3840 x 2160 pikseli. Klasyczne kino 4K (4096 × 2160 pikseli) jest również nazywane „DCI 4K” lub po prostu „4K”. „DCI” oznacza „Cyfrowe inicjatywy kinowe”. 3840 x 2160 pikseli nazywa się „UHD 4K” lub „UHDTV1”. Inna nazwa to „2160p / i” lub „QFHD (Quad Full High Definition)”, ponieważ połowa szerokości i długości rozdzielczości z kolei daje klasyczną rozdzielczość Full HD. W rezultacie Full HD jest tylko o jedną czwartą większy.
- Oprócz UHD-1 istnieje również UHD-2, który opisuje rozdzielczość 7680 × 4320 pikseli i jest zwykle określany jako „8K UHD” lub „UHDTV2”.
Co to jest HDR?
„HDR” oznacza „High Dynamic Range” i opisuje technologię, która może szczegółowo odtwarzać kontrasty i różnice w jasności.
- W tym miejscu wykonywanych jest kilka zdjęć o różnej ekspozycji i łączonych w jedno zdjęcie. Dlatego na obrazie nie ma prześwietlonych ani niedoświetlonych obszarów.
- Konwencjonalny SDR wykorzystuje głębię kolorów 8 bitów, podczas gdy HDR używa głębi kolorów 10 bitów. Oznacza to, że obrazy HDR nie tylko mają znacznie lepszy kontrast, ale zwykle wydają się znacznie bardziej realne niż klasyczne zdjęcia.
W następnej praktycznej wskazówce dowiesz się, jak samodzielnie tworzyć modele 3D.