La tecnología HDR (High Dynamic Range) es algo común hoy en día en nuestros televisores, con tres estándares que luchan por ser el primero como son el HDR10, HDR10+ y el Dolby Vision, de los cuales te vamos a contar sus diferencias a continuación.
Pero lo primero que tenemos que saber qué es exactamente el HDR. Pues bien, el HDR es una tecnología que permite tener unas zonas oscuras y claras con mucha más nitidez que sin él, por lo que en las imágenes los negros son más puros y los blancos más luminosos, con la consecuente ganancia en calidad de imagen.
Tipos de HDR
Actualmente existen tres estándares de HDR en el mercado que son:
- HDR10: al ser un estándar abierto y gratuito, los fabricantes no tienen que pagar por él y está sumamente extendido.
- HDR10+: es una actualización, más que una evolución, del HDR10 creado por la colaboración de Samsung y Amazon.
- Dolby Vision: es un estándar propiedad de Dolby con una calidad bastante superior al HDR10, y también por encima del HDR10+.
HDR10 vs HDR10+
La principal diferencia entre el HDR10 y el HDR10+ es que en el caso del HDR10 los metadatos son estáticos mientras que en el HDR10+ son dinámicos.
Los metadatos son aquellos datos que permiten al televisor elegir formato y forma de representar las escenas. Por ejemplo, los metadatos son los que le indican al televisor la iluminación necesaria para un tipo de escena en una película.
Pues bien, el HDR10 al ser estáticos, lee los metadatos al principio de una película y los utiliza para configurar todas las escenas de igual manera. Por ejemplo, si los metadatos indican un tipo de brillo específico, pero alguna escena de la película baja de dicho brillo, la escena saldrá demasiado oscura ya que el televisor está limitado para adaptarse.
Con el HDR10+, por el contrario, incorpora metadatos dinámicos que permiten ajustar la configuración frame a frame (fotograma a fotograma), lo que han denominado Dynamic Tone Mapping.
El Dynamic Tone Mapping permite al HDR10+ adaptarse a cada escena de manera independiente y así conseguir una mayor calidad de imagen y brillo.
El HDR10+ es compatible con todos los televisores que tengan HDR10, eso sí, después de una actualización del firmware del equipo.
HDR10+ vs Dolby Vision
Tanto el HDR10+ como el Dolby Vision son estándares que utilizan metadatos dinámicos para ofrecer una mejor adaptabilidad a las escenas.
Pero mientras el HDR10+ funciona a 10 bits, el sistema Dolby Vision se sitúa en los 12 bits.
Esto es importante porque el sistema visual humano es especialmente sensible a imágenes amplias con un brillo uniforme (por ejemplo, un cielo azul) y ahí la calidad otorgada por los 12 bits del sistema Dolby Vision frente a los 10 del HDR10+, se hace más que patente.
Otra de las diferencias la encontramos en el tratamiento del color que hace el Dolby Vision con mucha más viveza que el HDR10+, algo que no siempre resulta lo más realista, pero sí más espectacular y bonito, no en vano estamos hablando de una asombrosa cifra de 68.000 millones de colores.
En el brillo máximo las diferencias también son sustanciosas ya que el HDR10+ puede obtener picos de hasta 4.000 nits mientras que el Dolby Vision se puede ir hasta los 10.000 nits.
La principal debilidad del Dolby Vision frente al HDR10+ es el hecho de ser una tecnología propiedad de Dolby y no libre como ocurre con el HDR10+.
Los fabricantes que quieran tener Dolby Vision en sus televisores deberán pagar los pertinentes derechos de licencia a la empresa de San Francisco e incorporar un chip específico para este tipo de procesado, lo que encarece el precio final del televisor y hace que su implementación sea algo más lenta y menor que el HDR10+.
Una vez que ya sabes cuáles son las diferencias entre HDR10, HDR10+ y Dolby Vision, ya podrás tener más argumentos a la hora de comprarte tu próximo televisor, por lo que te será mucho más fácil decidirte.
- Ver Comentarios