Version imprimable du sujet

Cliquez ici pour voir ce sujet dans son format original

Forums MacBidouille _ Macbidouille Articles & News : Vos Réactions _ Intel et Netflix vont fournir le codec AV1 sans droits associés

Écrit par : Lionel 9 Apr 2019, 05:50

Intel et Netflix ont annoncé que dorénavant il sera possible d'utiliser le codec vidéo SVT-AV1 sans avoir à payer de royalties.
Ce codec vidéo permettrait d'économiser un gros volume de bande passante, la moitié par rapport au H.264 AVC à qualité égale.

Dans le même temps, Intel a annoncé le projet open source "Open Visual Cloud". Il est destiné à optimiser la gestion du transfert de données vidéo entre serveurs et clients.

http://macbidouille.com/news/2019/04/09/intel-et-netflix-vont-fournir-le-codec-av1-sans-droits-associes


Écrit par : Fafnir 9 Apr 2019, 07:28

"serait" ou "sera"?

Écrit par : Benzebut 9 Apr 2019, 08:06

Citation (Lionel @ 9 Apr 2019, 05:50) *
Intel ont annoncé que dorénavant il serait possible d'utiliser le codec vidéo SVT-AV1 sans avoir à payer de royalties.
Ce codec vidéo permettrait d'économiser un gros volume de bande passante, la moitié par rapport au H.264 AVC à qualité égale.

Il me semble que l’information de la part d’Intel est différente. Le codec AV1 est libre, totalement gratuit, soutenu par l’Alliance for Open Média (dont Apple et Intel sont membres) et permet déjà d'être librement utilisé par Dav1d avec VLC ou Firefox par exemple.

Ce que Intel vient de fournir, ce sont les routines afin d’utiliser directement par le CPU ces codecs par le Scalable Video Technology AOMedia Video 1 (SVT-AV1) en attendant les processeurs dédiés pour la décompression. Cela permet d’accélérer le rendu, comme cela a été fait avec les précédents SVT AVC, SVT-HEVC ou SVT-VP9. Et ces routines sont publiques, donc exploitables par tous du moment qu’elles sont utilisées sur des processeurs Intel récents.

Écrit par : otto87 9 Apr 2019, 09:44

Et Apple continuera a ne pas l'inclure...

Écrit par : jakin1950 9 Apr 2019, 11:09

Quelle qualité et taille par rapport à hevc qui est décodé par la carte graphique ?

Écrit par : Lionel 9 Apr 2019, 11:18

Citation (otto87 @ 9 Apr 2019, 09:44) *
Et Apple continuera a ne pas l'inclure...

Ne sois pas méchant, Apple fait aussi des choses avec des relations, nouer des partenariats. Le plus récent est avec Goldman Sachs‎. C'est pour développer le format $ smile.gif

Écrit par : marc_os 9 Apr 2019, 12:56

Citation (Lionel @ 9 Apr 2019, 11:18) *
Citation (otto87 @ 9 Apr 2019, 09:44) *
Et Apple continuera a ne pas l'inclure...

Ne sois pas méchant, Apple fait aussi des choses avec des relations, nouer des partenariats. Le plus récent est avec Goldman Sachs‎. C'est pour développer le format $ smile.gif

Quelle belle désinformation !*


(*) En ce qui concerne la vidéo bien sûr.

Écrit par : Benzebut 9 Apr 2019, 13:29

Citation (jakin1950 @ 9 Apr 2019, 11:09) *
Quelle qualité et taille par rapport à hevc qui est décodé par la carte graphique ?

D'après le site de VLC et ses derniers développements, à qualité égale c'est 20% plus rapide que le HEVC. Et cela sans accélération matérielle pour l'instant, puisque les routines SVT viennent juste de sortir...

Sur le site du logiciel VLC : http://www.jbkempf.com/blog/tag/AV1

Écrit par : Lionel 9 Apr 2019, 13:34

Citation (marc_os @ 9 Apr 2019, 12:56) *
Citation (Lionel @ 9 Apr 2019, 11:18) *
Citation (otto87 @ 9 Apr 2019, 09:44) *
Et Apple continuera a ne pas l'inclure...

Ne sois pas méchant, Apple fait aussi des choses avec des relations, nouer des partenariats. Le plus récent est avec Goldman Sachs‎. C'est pour développer le format $ smile.gif

Quelle belle désinformation !*


(*) En ce qui concerne la vidéo bien sûr.

Tu voulais juste caser le mot désinformation pour la recherche Google ?
Pas mal joué.

Écrit par : joe75 9 Apr 2019, 13:51

Citation (Benzebut @ 9 Apr 2019, 13:29) *
Citation (jakin1950 @ 9 Apr 2019, 11:09) *
Quelle qualité et taille par rapport à hevc qui est décodé par la carte graphique ?

D'après le site de VLC et ses derniers développements, à qualité égale c'est 20% plus rapide que le HEVC. Et cela sans accélération matérielle pour l'instant, puisque les routines SVT viennent juste de sortir...

Sur le site du logiciel VLC : http://www.jbkempf.com/blog/tag/AV1


Ah non c'est pas 20% plus rapide, ils ont dit 20% plus performants...C'est relatif à la bande passante ou la taille du fichier.
A la limite, c'est 20% plus rapide pour le faire passer dans des tuyaux si tu veux car le fichier est plus petit , mais en pratique les ressources pour lire/encoder le fichier seront probablement beaucoup plus lourdes.

Écrit par : otto87 9 Apr 2019, 14:26

Citation (joe75 @ 9 Apr 2019, 14:51) *
Citation (Benzebut @ 9 Apr 2019, 13:29) *
Citation (jakin1950 @ 9 Apr 2019, 11:09) *
Quelle qualité et taille par rapport à hevc qui est décodé par la carte graphique ?

D'après le site de VLC et ses derniers développements, à qualité égale c'est 20% plus rapide que le HEVC. Et cela sans accélération matérielle pour l'instant, puisque les routines SVT viennent juste de sortir...

Sur le site du logiciel VLC : http://www.jbkempf.com/blog/tag/AV1


Ah non c'est pas 20% plus rapide, ils ont dit 20% plus performants...C'est relatif à la bande passante ou la taille du fichier.
A la limite, c'est 20% plus rapide pour le faire passer dans des tuyaux si tu veux car le fichier est plus petit , mais en pratique les ressources pour lire/encoder le fichier seront probablement beaucoup plus lourdes.


A qualité égale, niveau image, avec du h265, la demande en bande passante est inférieur mais la compression est plus lourde car non gérer hardware, pour l'instant. A l'heure ou les résolutions de capture et de restitution attendu explose, c'est a ne pas négliger aussi bien pour le stockage et que réseau.

Écrit par : Benzebut 9 Apr 2019, 14:56

Citation (otto87 @ 9 Apr 2019, 14:26) *
Ah non c'est pas 20% plus rapide, ils ont dit 20% plus performants...C'est relatif à la bande passante ou la taille du fichier.
A la limite, c'est 20% plus rapide pour le faire passer dans des tuyaux si tu veux car le fichier est plus petit , mais en pratique les ressources pour lire/encoder le fichier seront probablement beaucoup plus lourdes.

En fait, tout dépend quel est le critère retenu pour "performant", car c'est plus rapide à transmettre car plus compressé et d'après les graphiques également plus rapide à lire/encoder ...
Après, il faudrait tester sur des vrais fichiers multimédia avec une même configuration et surtout les versions finales !

Écrit par : joe75 9 Apr 2019, 15:44

Citation (Benzebut @ 9 Apr 2019, 14:56) *
Citation (otto87 @ 9 Apr 2019, 14:26) *
Ah non c'est pas 20% plus rapide, ils ont dit 20% plus performants...C'est relatif à la bande passante ou la taille du fichier.
A la limite, c'est 20% plus rapide pour le faire passer dans des tuyaux si tu veux car le fichier est plus petit , mais en pratique les ressources pour lire/encoder le fichier seront probablement beaucoup plus lourdes.

En fait, tout dépend quel est le critère retenu pour "performant", car c'est plus rapide à transmettre car plus compressé et d'après les graphiques également plus rapide à lire/encoder ...
Après, il faudrait tester sur des vrais fichiers multimédia avec une même configuration et surtout les versions finales !


On est d'accord...je ne sais pas quels sont les processeurs arm ou intel qui décodent de façon matérielle...une raison de plus pour attendre avant de renouveler smartphone et ordinateur.
Dommage qu'un cpu/gpu un peu ancien ne puisse être reconfiguré pour décoder ces flux.

Écrit par : Nicnl 9 Apr 2019, 17:20

Je comprends...
C'est donc pour ça que Netflix bouffe autant de batterie
Le décodage de la vidéo n'est pas fait par du hardware dédié mais par le processeur

C'est vraiment chiant tous ces grands groupes qui partent chacun dans leurs coins faire leurs propres codecs vidéos...
La durée de fonctionnement en batterie des ordinateurs portables s'écroule parce que c'est le pauvre proco qui chauffe et se tape tout le décodage

Genre Youtube, qui pousse en force le VP9 alors qu'uniquement les Nvidia GTX-1000 et supérieures sont capables de le décoder
Mon pauvre MacBook de 2015 chauffe à mort dès que j'essaye de lire une vidéo, limite plus que dans des jeux

Écrit par : otto87 9 Apr 2019, 17:43

Citation (Nicnl @ 9 Apr 2019, 18:20) *
Je comprends...
C'est donc pour ça que Netflix bouffe autant de batterie
Le décodage de la vidéo n'est pas fait par du hardware dédié mais par le processeur

C'est vraiment chiant tous ces grands groupes qui partent chacun dans leurs coins faire leurs propres codecs vidéos...
La durée de fonctionnement en batterie des ordinateurs portables s'écroule parce que c'est le pauvre proco qui chauffe et se tape tout le décodage

Genre Youtube, qui pousse en force le VP9 alors qu'uniquement les Nvidia GTX-1000 et supérieures sont capables de le décoder
Mon pauvre MacBook de 2015 chauffe à mort dès que j'essaye de lire une vidéo, limite plus que dans des jeux


Youtube et netflix bouffent en gros 50 % de la bande passante... 20% de baisse de volume représente 10% de la bande passante mondiale, un détail sans doute! Surtout avec les velléités de certains de casser la neutralité du net!

Écrit par : Nicnl 9 Apr 2019, 19:33

Citation (otto87 @ 9 Apr 2019, 17:43) *
Youtube et netflix bouffent en gros 50 % de la bande passante... 20% de baisse de volume représente 10% de la bande passante mondiale, un détail sans doute! Surtout avec les velléités de certains de casser la neutralité du net!


Certes, c'est un gros volume de données
Mais pour gratter ces fameux 10%, il faut imposer un codec peu supporté matériellement
Ce qui impacte la consommation électrique de tous les clients

Au bout du compte, en termes d'écologie/économie globale, je me demande ce qui est le mieux
Consommer plus d'énergie sur la bande passante mais moins au moment de la lecture, ou l'inverse ?

J'ai tenté de me renseigner sur les grands réseaux du web,
mais je ne trouve pas de comparatifs énergétiques entre le vp8, vp9, h264, h265 et av1 qui prennent en compte la consommation du processeur + celle de la carte graphique

Écrit par : iAPX 9 Apr 2019, 19:38

Et pendant ce temps-là, comme beaucoup d'autres, mon lecteur multimédia est limité à du H.264 (et antérieurs), et je parle pas des codec audios. Il est vieux mais parfaitement fonctionnel.

Le plus drôle étant que dans de nombreux usages on va streamer des codecs plus récents, peut-être avec nécessiter de les décoder via CPU (et là...), pour les ré-encoder en H.264 (ou H.265 pour Apple TV) pour les reproduire en ayant dégradé la qualité.

Je pense qu'il faut une décennie pour qu'un codec s'impose, donc ça va être l'avenir, mais pas si proche pour la plupart des gens.

J'attend, pour ma part bien plus de progrès en utilisant du Machine Learning pour rendre meilleure les analyse psycho-visuelles et psycho-acoustiques des contenus pour orienter les encodages, ces deux technologies ayant permis des progrès énormes en gardant la compatibilité avec d'anciens codec, et j'estime qu'il y a encore une grosse marge pour encore gagner en qualité à même débit (ou diminuer le débit pour la même qualité perçue, ce qui sera évidemment choisi).

PS: pour éclairer le sujet on a des long-métrages en moins de 800Mo avec deux crans de qualités au-dessus en H.264 par rapport premiers films en MP4 (Part 2 aussi appelé Layer 2) de 4Go sur DVD (mon premier étant "The Eraser" merdique en DVD face au LaserDisc). Ça n'est pas juste le progrès en terme de Codec, mais surtout celui en terme d'analyse psycho-visuelle.
D'un autre coté sur des radios en lignes (85) on utilisait l'AAC 48Kb là aussi avec de l'analyse psycho-acoustique (propriétaire), permettant d'obtenir un résultats très largement au-dessus des premiers MP3 128Kb, très très largement.

On a du gagner au moins un rapport 4X en terme de taux de compression juste par analyse psycho-visuelle et psycho-acoustique, à Codec identique en gardant la compatibilité, un domaine qui reste a explorer pour gagner encore en terme de bande-passante (la qualité n'étant pas l'objectif de ceux qui utilisent cela).

Écrit par : SartMatt 9 Apr 2019, 21:10

Citation (iAPX @ 9 Apr 2019, 20:38) *
J'attend, pour ma part bien plus de progrès en utilisant du Machine Learning pour rendre meilleure les analyse psycho-visuelles et psycho-acoustiques des contenus pour orienter les encodages, ces deux technologies ayant permis des progrès énormes en gardant la compatibilité avec d'anciens codec, et j'estime qu'il y a encore une grosse marge pour encore gagner en qualité à même débit (ou diminuer le débit pour la même qualité perçue, ce qui sera évidemment choisi).
Et je suppose qu'à terme on pourra aussi utiliser le deep learning pour gommer les pertes après le décodage, à la manière de ce que fait déjà nVidia pour l'anti-aliasing.

Ce qui permettra, pour une qualité perçue identique, de tolérer bien plus de pertes dans le flux brut, et donc de compresser encore plus.

Bien entendu, ça sera inadapté aux contenus où la fidélité de l'image est très importante, par exemple un film à la photographie très travaillée, mais ça sera largement suffisant pour le tout venant (bon nombre de films et séries, émissions, JT, sport...)

Écrit par : iAPX 9 Apr 2019, 21:17

Citation (SartMatt @ 9 Apr 2019, 16:10) *
Citation (iAPX @ 9 Apr 2019, 20:38) *
J'attend, pour ma part bien plus de progrès en utilisant du Machine Learning pour rendre meilleure les analyse psycho-visuelles et psycho-acoustiques des contenus pour orienter les encodages, ces deux technologies ayant permis des progrès énormes en gardant la compatibilité avec d'anciens codec, et j'estime qu'il y a encore une grosse marge pour encore gagner en qualité à même débit (ou diminuer le débit pour la même qualité perçue, ce qui sera évidemment choisi).
Et je suppose qu'à terme on pourra aussi utiliser le deep learning pour gommer les pertes après le décodage, à la manière de ce que fait déjà nVidia pour l'anti-aliasing.

Ce qui permettra, pour une qualité perçue identique, de tolérer bien plus de pertes dans le flux brut, et donc de compresser encore plus.

Bien entendu, ça sera inadapté aux contenus où la fidélité de l'image est très importante, par exemple un film à la photographie très travaillée, mais ça sera largement suffisant pour le tout venant (bon nombre de films et séries, émissions, JT, sport...)

Effectivement, c'est un point que je n'avais pas envisagé.

Même très travaillée, il est possible que le ML s'empare de la chose et restitue ce qui était initialement voulu par le réalisateur, ou quelque-chose d'extrêmement proche.

Nos télés triturent la qualité d'image (pas la mienne, réglée et calibrée avec https://itunes.apple.com/ca/app/thx-tune-up/id592624594?mt=8 mais aussi en mesurant avec ma sonde Spyder), on ne voit pas ce qui était prévu pour la plupart, et là aussi c'est un angle de progression pour offrir non pas du contraste, de la luminosité, des couleurs, mais -aussi- amener la réalité du message initial.

PS: avec ce que je vois pour les jeux vidéos en temps-réel, mais aussi le retravail automatisé sur les textures, il est possible que le ML permette enfin d'augmenter la résolution d'anciens films ou séries de façon incroyable (et le bruit ne fait pas peur aux IA actuelles!).
Ce qui est impressionnant n'est pas l'augmentation de définition, mais le naturel de celui-ci, surtout dans des images animées!

Écrit par : joe75 10 Apr 2019, 13:00

Citation (iAPX @ 9 Apr 2019, 21:17) *
Citation (SartMatt @ 9 Apr 2019, 16:10) *
Citation (iAPX @ 9 Apr 2019, 20:38) *
J'attend, pour ma part bien plus de progrès en utilisant du Machine Learning pour rendre meilleure les analyse psycho-visuelles et psycho-acoustiques des contenus pour orienter les encodages, ces deux technologies ayant permis des progrès énormes en gardant la compatibilité avec d'anciens codec, et j'estime qu'il y a encore une grosse marge pour encore gagner en qualité à même débit (ou diminuer le débit pour la même qualité perçue, ce qui sera évidemment choisi).
Et je suppose qu'à terme on pourra aussi utiliser le deep learning pour gommer les pertes après le décodage, à la manière de ce que fait déjà nVidia pour l'anti-aliasing.

Ce qui permettra, pour une qualité perçue identique, de tolérer bien plus de pertes dans le flux brut, et donc de compresser encore plus.

Bien entendu, ça sera inadapté aux contenus où la fidélité de l'image est très importante, par exemple un film à la photographie très travaillée, mais ça sera largement suffisant pour le tout venant (bon nombre de films et séries, émissions, JT, sport...)

Effectivement, c'est un point que je n'avais pas envisagé.

Même très travaillée, il est possible que le ML s'empare de la chose et restitue ce qui était initialement voulu par le réalisateur, ou quelque-chose d'extrêmement proche.

Nos télés triturent la qualité d'image (pas la mienne, réglée et calibrée avec https://itunes.apple.com/ca/app/thx-tune-up/id592624594?mt=8 mais aussi en mesurant avec ma sonde Spyder), on ne voit pas ce qui était prévu pour la plupart, et là aussi c'est un angle de progression pour offrir non pas du contraste, de la luminosité, des couleurs, mais -aussi- amener la réalité du message initial.

PS: avec ce que je vois pour les jeux vidéos en temps-réel, mais aussi le retravail automatisé sur les textures, il est possible que le ML permette enfin d'augmenter la résolution d'anciens films ou séries de façon incroyable (et le bruit ne fait pas peur aux IA actuelles!).
Ce qui est impressionnant n'est pas l'augmentation de définition, mais le naturel de celui-ci, surtout dans des images animées!


Un jour dans un futur plus ou moins proche même si c'est encore de la science fiction, l'ordinateur qui reconstituera tout un film à partir d'un script manuscrit !

Script qu'il pourra peut être même générer lui aussi....

Écrit par : Benzebut 10 Apr 2019, 13:14

Citation (Nicnl @ 9 Apr 2019, 17:20) *
Je comprends...
C'est donc pour ça que Netflix bouffe autant de batterie
Le décodage de la vidéo n'est pas fait par du hardware dédié mais par le processeur

C'est vraiment chiant tous ces grands groupes qui partent chacun dans leurs coins faire leurs propres codecs vidéos...
La durée de fonctionnement en batterie des ordinateurs portables s'écroule parce que c'est le pauvre proco qui chauffe et se tape tout le décodage

Les cartes vidéos peuvent décoder matériellement certains codecs, généralement les plus connus et/ou soutenus par le fabriquant (H.265 ou HEVC pour Apple). Puis, certains systèmes peuvent "flécher" des calculs vers la carte graphique spécifiquement, comme le font les routines proposées par Intel avec le SVT-AV1 pour ce format vidéo. Sinon, c'est effectivement le processeur qui fait le boulot et là cela consomme.

Ensuite, la force actuelle du format AV1 est d'être justement issu de l'Alliance for Open Média qui inclut tous les grands noms du domaine. Donc cela devrait permettre d'éviter les formats propriétaires pour une standards universel utilisé par tous. En théorie ... tongue.gif

Écrit par : joe75 10 Apr 2019, 15:36

Citation (Benzebut @ 10 Apr 2019, 13:14) *
Citation (Nicnl @ 9 Apr 2019, 17:20) *
Je comprends...
C'est donc pour ça que Netflix bouffe autant de batterie
Le décodage de la vidéo n'est pas fait par du hardware dédié mais par le processeur

C'est vraiment chiant tous ces grands groupes qui partent chacun dans leurs coins faire leurs propres codecs vidéos...
La durée de fonctionnement en batterie des ordinateurs portables s'écroule parce que c'est le pauvre proco qui chauffe et se tape tout le décodage

Les cartes vidéos peuvent décoder matériellement certains codecs, généralement les plus connus et/ou soutenus par le fabriquant (H.265 ou HEVC pour Apple). Puis, certains systèmes peuvent "flécher" des calculs vers la carte graphique spécifiquement, comme le font les routines proposées par Intel avec le SVT-AV1 pour ce format vidéo. Sinon, c'est effectivement le processeur qui fait le boulot et là cela consomme.

Ensuite, la force actuelle du format AV1 est d'être justement issu de l'Alliance for Open Média qui inclut tous les grands noms du domaine. Donc cela devrait permettre d'éviter les formats propriétaires pour une standards universel utilisé par tous. En théorie ... tongue.gif


C'est pas le fait que ce soit ouvert qui va t'empêcher de repasser à la caisse pour décoder ces nouveaux formats plus gourmands malheureusement biggrin.gif

Écrit par : iAPX 10 Apr 2019, 16:08

Citation (joe75 @ 10 Apr 2019, 08:00) *
Citation (iAPX @ 9 Apr 2019, 21:17) *
Citation (SartMatt @ 9 Apr 2019, 16:10) *
Citation (iAPX @ 9 Apr 2019, 20:38) *
J'attend, pour ma part bien plus de progrès en utilisant du Machine Learning pour rendre meilleure les analyse psycho-visuelles et psycho-acoustiques des contenus pour orienter les encodages, ces deux technologies ayant permis des progrès énormes en gardant la compatibilité avec d'anciens codec, et j'estime qu'il y a encore une grosse marge pour encore gagner en qualité à même débit (ou diminuer le débit pour la même qualité perçue, ce qui sera évidemment choisi).
Et je suppose qu'à terme on pourra aussi utiliser le deep learning pour gommer les pertes après le décodage, à la manière de ce que fait déjà nVidia pour l'anti-aliasing.

Ce qui permettra, pour une qualité perçue identique, de tolérer bien plus de pertes dans le flux brut, et donc de compresser encore plus.

Bien entendu, ça sera inadapté aux contenus où la fidélité de l'image est très importante, par exemple un film à la photographie très travaillée, mais ça sera largement suffisant pour le tout venant (bon nombre de films et séries, émissions, JT, sport...)

Effectivement, c'est un point que je n'avais pas envisagé.

Même très travaillée, il est possible que le ML s'empare de la chose et restitue ce qui était initialement voulu par le réalisateur, ou quelque-chose d'extrêmement proche.

Nos télés triturent la qualité d'image (pas la mienne, réglée et calibrée avec https://itunes.apple.com/ca/app/thx-tune-up/id592624594?mt=8 mais aussi en mesurant avec ma sonde Spyder), on ne voit pas ce qui était prévu pour la plupart, et là aussi c'est un angle de progression pour offrir non pas du contraste, de la luminosité, des couleurs, mais -aussi- amener la réalité du message initial.

PS: avec ce que je vois pour les jeux vidéos en temps-réel, mais aussi le retravail automatisé sur les textures, il est possible que le ML permette enfin d'augmenter la résolution d'anciens films ou séries de façon incroyable (et le bruit ne fait pas peur aux IA actuelles!).
Ce qui est impressionnant n'est pas l'augmentation de définition, mais le naturel de celui-ci, surtout dans des images animées!


Un jour dans un futur plus ou moins proche même si c'est encore de la science fiction, l'ordinateur qui reconstituera tout un film à partir d'un script manuscrit !

Script qu'il pourra peut être même générer lui aussi....

J'y pensais ce matin en allant travailler smile.gif

L'analogie c'est celui d'un livre qui contient extrêmement peu d'informations, et du lecteur qui se fait un film dans sa tête (qui peut être riche et complexe!).
C'est d'ailleurs le travail du réalisateur et des acteurs en partant du scénario, de scripts, etc.

Propulsé par Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)