Un nouvel acronyme va rejoindre la liste déjà longue de ceux existants dans le domaine des cartes video, il s'agit de "HDCP". Et ATI vient de faire une démonstration de sa première carte video compatible HDCP et HDMI. Je vois dans vos yeux, chers lecteurs, une lueur d'interrogation. Quel est l'interet du HDCP ? Est-ce que c'est une nouvelle technique permettant d'avoir encore des plus beaux graphismes ? De meilleures performances ? Que nenni !
HDCP signifie: High Definition Content Protection. C'est une techologie dérivée des DRM (Digital Right Management). En fait, tout est lié aux futurs Blu-Ray et HD-DVD. Afin d'offrir une superbe qualité d'image, toute la chaine de composants audio/video, du lecteur Blu-Ray à l'ecran, devront être capable de gérer le "HD" pour "High Definition". Mais comme une telle qualité peut être utilisée pour faire des copies illégales, un mécanisme de protection doit être embarqué dans chacun des élements, afin de garder les données cryptées du disque Blu Ray ou HD-DVD à l'écran, et de les décrypter juste avant de les afficher.
Pour l'instant, on commence à parler des lecteurs de media HD, des téléviseur "HD" ou "HD ready". Il faut savoir que c'est bien beau d'avoir la connectique HDMI (High Definition Media Interface), qui sera obligatoire pour les flux haute définition, mais que si ce flux n'est pas chiffré par HDCP, il se peut que rien ne fonctionne.
Imaginez. Vous achetez un lecteur Blu-Ray pour votre PC, un téléviseur - écran de PC 20 pouces LCD HD, et vous avez une carte graphique normale, sans puce HDCP. Vous mettez un film dans le lecteur, et vous lancer votre player. Eh bien, comme il n'y a pas de HDCP sur votre carte graphique, vous n'avez pas le film en HD. Au mieux, vous avez le film en qualité proche du DVD, soit vous avez un écran noir, suivant ce qu'auront décidé les producteurs du film en question.
D'où l'importance d'avoir du matériel HDMI et HDCP pour profiter pleinement de la nouvelle géneration de support. ATI l'a bien compris, mais tardivement, comme bien des constructeurs. On ne compte pas les téléviseurs, et les ecrans soit-disant HD mais non équipé de HDCP, et pour les cartes graphiques, on en est au même point.
Imaginez investir dans un Quad SLI de Geforce 7900 GTX qui ne sera même pas capble de prendre en charge une lecteur HD parce que Nvidia n'aura pas pensé mettre une puce Silicon Image HDCP, qui ne coûte que quelques dollars.
Pour l'instant, ATI montre une X1300 disposant de cette technologie. On espère vite que tous les constructeurs se mettent à la page, pour ne pas devoir racheter encore du matériel quand les premiers films HD sortiront sur le marché.
Je vous invite à lire l'excellent article consacré à ce sujet sur Hardware.fr, intitulé "HDCP : le cauchemar des cartes graphiques et des écrans"