HDR10: tutto quello che c’è da sapere sullo standard

Il mondo delle TV (e in parte anche dei monitor) ha vissuto negli ultimi anni una vera e propria rivoluzione. Dopo l’arrivo del Full HD pieno e qualche anno di stallo, giungono 3D, risoluzione 4K e Ultra HD pieno, con tutte le varie certificazioni di sorta. Metabolizzati e capiti un po’ tutti i nomi e le sigle giunte nei prodotti, siamo pronti ad una nuova dicitura, non proprio immediatissima per molti utenti: HDR10. Di cosa si tratta? Che differenza c’è con l’HDR che vediamo nelle fotografie scattate ormai anche su smartphone? Che rapporto c’è con Dolby Vision, altro nome recentissimo? Scopriamo questo e tanto altro su HDR10 in questo focus dedicato.

HDR10: cos’è e cosa cambia per TV e monitor

La premessa è abbastanza chiara. Il 4K lo abbiamo capito in pieno, così come le differenze con l’Ultra HD che è lo standard di risoluzione definito che supera i 3840 x 2160 pixel, toccando i 4096 pixel orizzontali. Ora giungiamo all’HDR10, o in generale all’HDR, e la confusione per i potenziali acquirenti di TV e monitor ricomincia.

Da dove nasce questa nuova sigla? Partiamo dalle basi. Il 4K ha saturato praticamente il mercato di tutti i pannelli, dai più grandi e pensati per il salotto, ai più piccoli, presenti in monitor da scrivania o addirittura monitor da notebook (prevalentemente notebook da gaming, ma non solo). Abbiamo quindi ottenuto dei prodotti con una risoluzione davvero impressionante, pari a ben quattro volte quella del vecchio e caro Full HD, che tanto ci sembrava un passo in avanti. Come migliorare visivamente, quindi, questo livello così elevato? Si passa ai colori, o meglio, alla qualità dei suddetti nell’immagine.

Se il numero di pixel è ormai mostruosamente elevato non significa comunque che tutto ciò che arriva su un pannello 4K, trasmesso mediante i vari mezzi di input (satellite, segnale TV, sorgenti esterne), sia qualitativamente ottimale. Al contrario, l’HDR – High Dynamic Range -, va a spingere dinamicamente colori e contrasto in un range più elevato rispetto al tradizionale, comunque non regolamentato da nessuno standard. Ecco quindi che nasce l’HDR10, un vero e proprio standard open source che va a stabilire delle regole per cui TV e monitor si comportano al meglio – dove il meglio è un concetto sempre relativo – per rappresentare le immagini riprodotte in modo più realistico possibile.

Ma cosa succede, all’atto pratico, in un dispositivo HDR10? Proviamo a spiegarlo in poche e semplici frasi. N.B.: per eventuali eccessive semplificazioni tecniche, lasciate correre, visto che la natura di questo focus è prettamente basica e non vuole fare altro che spiegare, a chi non ha idea, di cosa sia l’HDR10.

HDR10

L’HDR10 ha, come è evidente che sia, qualcosa in comune con l’HDR che abbiamo sulle fotocamere, ma anche sui recenti smartphone. Sono la stessa cosa? Assolutamente no, ma il concetto alla base è simile: l’HDR fotografico utilizza una semplice tecnica di elevazione di esposizione e contrasto di alcuni elementi di uno scatto, creandone poi un secondo dove è il resto a sovraesporsi. L’unione ad hoc dei due scatti ne crea uno unico dove non è l’intera scena ad avere un’unica esposizione e un unico contrasto, ma ben due sue sottosezioni. In tal modo è possibile ad esempio scattare ottime immagini con tutti i relativi dettagli anche se l’illuminazione della scena varia in più punti. Per approfondire in modo più tecnico vi rimandiamo alla nostra guida sulla fotografia HDR, realizzata dai nostri esperti.

Qualcosa in comune con questo concetto, quindi, l’HDR10 in realtà ce l’ha: con determinati algoritmi, offre un’immagine (se ci focalizziamo su un singolo fotogramma di un video) che prova ad andare oltre al range cromatico, ottimizzando quanto più possibile una scena per illuminarla in modo più realistico – schiarendo ma anche scurendo, quindi – le sue diverse porzioni. Volendo fare un esempio, immaginiamo una veduta notturna di mare, ambito in cui l’HDR10 si scatena davvero benissimo. Senza HDR ovviamente l’esposizione viene presa in modo sommario, solitamente scegliendo di ottimizzare porzioni come delle luci illuminate, mettendo in secondo piano le zone più scure. Con l’HDR10, invece, tale immagine potrebbe essere ottimizzata sia per l’esposizione che per il contrasto delle luci artificiali, sia ad esempio per il loro riflesso sullo specchio dell’acqua, che rimarrebbe in secondo piano nel primo caso senza HDR.

L’HDR migliora ciò che il semplice 4K non era riuscito a migliorarePer fare ciò l’HDR10 agisce su due variabili, ovvero il colore e il contrasto. Il primo è garantito da una profondità da ben 10-bit, due in più rispetto alle immagini più classiche dove l’HDR prova ad entrare in gioco (sui prodotti certificati HDR, ma non HDR10 per intenderci). Ciò all’atto pratico comporta un range cromatico più ampio. Ma perché, mancavano i colori nei video non HDR? Erano troppo pochi? No, semplicemente un quantitativo di colori in più consente di godere le immagini in modo più definito, poiché la variazione fra un colore all’altro avviene in modo più progressivo.

Un altro punto cardine dell’HDR è, come detto, il contrasto. Senza un contrasto elevato, e quindi una illuminazione altrettanto elevata, l’HDR non potrebbe funzionare al meglio. È infatti grazie all’illuminazione estrema, a risoluzione molto alta, che si può mettere in risalto una porzione di immagine senza andare a perdere particolarmente nei dettagli – ed ecco perché l’HDR10 si vede, sempre e comunque, solo su prodotti dotati di risoluzione 4K. I prodotti che sfruttano tale standard solitamente necessitano di una luminanza pari a 1000 nit, davvero estrema su pannelli molto grandi.

Ecco quindi spiegato in poche parole l’HDR10: immagini migliori, non solo nella risoluzione, ma anche nel modo in cui vengono rappresentate, in tempo reale, con colori vividi e carichi di espressività.

HDR10 vs Dolby Vision

HDR10

Insieme all’HDR10, un altro standard da qualche tempo inizia a fare parlare di sé: parliamo del Dolby Vision. Insieme a Dolby Atmos, si tratta di una fra le tecnologie nel settore della fruizione di contenuti multimediali, poiché estende la profondità di colore fino a 12-bit, praticamente due in più addirittura del nuovissimo HDR10. A questo punto, sulla carta, facile arrivare alla suddetta conseguenza: il Dolby Vision è superiore all’HDR10. Ma quanto è vero? Solo in parte, in realtà.

Il motivo è che allo stato attuale, i componenti come i pannelli presenti nelle smart TV non riescono a sfruttare a pieno questa profondità di colore: anche tutte le varie periferiche si fermano sommariamente allo spazio a 10-bit. Il tutto è poi da associare anche alla gamma di contenuti che supportano tale tecnologia, che oltretutto non è open source come l’HDR10, ma è bensì fornita solo su licenza da Dolby.

Ciò significa quindi che come rende un contenuto HDR10 rispetto ad un Dolby Vision è totalmente variabile, anche in base al TV o al monitor che riproducono i contenuti in questione presi in analisi – senza contare che già l’HDR, benché sia regolato da uno standard, renda comunque in modo differente da televisore a televisore, in base alla bontà del pannello e all’accuratezza dei colori offerta dal produttore.

Fra qualche anno Dolby Vision tenderà probabilmente a spopolare, un po’ come l’HDR10, grazie al supporto in primo luogo delle piattaforme di streaming come Netflix. Fino a qualche tempo fa pensare già solo allo streaming 4K era utopico: oggi invece, con svariate città coperte dalla fibra addirittura fino a 1000 mega, 4K e HDR10 sono assolutamente a portata di telecomando. Non è da escludere quindi che, risolta la quadra per raggiungere il pieno supporto alla profondità 12-bit, anche Dolby Vision possa acciuffare la fetta che gli spetta, al momento contesa in ugual misura col semplice HDR10. Quest’ultimo si rivela già abbastanza stupefacente così com’è, ma partnership attive con produttori come LG (che offre già il supporto al Dolby Vision, anche se parziale) potrebbero cambiare le carte in tavola

Conclusioni: i prodotti HDR10

In conclusione abbiamo capito che l’HDR10 è una tecnologia che migliora l’esperienza visiva per ciò che riguarda i contenuti video compatibili. Quest’ultimi, ovviamente, sono alla base della possibilità di vedere contenuti griffati HDR10: i video trasmessi in streaming o su Bly-Ray necessitano di tale certificazione, comunque facile da ottenere visto che si parla di una licenza open-source. Ovviamente anche i televisori devono necessitare di tale certificazione sulla scheda tecnica: verificate sempre durante l’acquisto di una smart TV oggi che l’HDR sia presente, per non privarvi del piacere di poter godere, anche in futuro, dei contenuti di nuova generazione.

Un occhio di riguardo è necessario anche per ciò che “sta in mezzo” a contenuti e smart TV, ovvero i decoder. Se sfruttate dei mini PC Android, tenete presente che anche questi debbono necessariamente avere la compatibilità a riprodurre contenuti HDR10, cosa non da poco e offerta solo fondamentalmente ai set top box più recenti, anche se economici – al solito vi avvisiamo che, quelli Android, necessitano di autorizzazioni alla fonte da parte di Netflix e altri provider, spesso non concessa e circoscritta solo ai mini PC Windows o ai decoder più di spicco.

Non ci resta che vedere come lo standard evolverà nel tempo; nell’attesa invitiamo, tutti coloro che dispongono dei requisiti per l’HDR10, di goderne tutta la sua magnificenza.

Top

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la Privacy Policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. Privacy Policy

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi