Vous n'êtes pas identifié(e).
(6000*1024)/23.98/(1280*720)=0.27 bit par pixel par image
Pour la vidéo BDRIP:
(1600*1024)/23.98/(720*304)= 0.31 bit par pixel par image
Je regarde mes vidéos autant sur mon smartphone que sur mon écran de PC (1920x1080 18 pouces) ou que sur ma télévision (1920x1080 37 pouces) vu la dimension de mes écrans, je pense qu'il serai préférable de choisir quand même la vidéo HD 720p mais ou vu de l'indice de qualité il semble que la vidéo BDRIP soit la meilleure.
J'ai fait un test sur les différents écrans (smartphone, PC, télévision) et même avec le DVD du film que j'ai en ma possession.
Résultat dans l’ordre de la meilleur qualité: DVD > BDrip > 720p > 1080
Il semble qu'il est plus dur de voir une différence entre le 720p et le 1080p surtout si l'écran est petit.
En conclusion ce calcul de qualité ça veut rien dire ??? (puisque qu'en réalité je vois bien que la vidéo 720p est meilleur que le BDrip.)
Rapport qualité/poids le 720p (1280x720) me conviens bien, mais quel est le débit minimum pour une bonne qualité sur ma télévision ?
Merci de vos conseils et précisions.
Dernière modification par Slyfox (09-01-2016 18:11:08)
Hors ligne
puisque qu'en réalité je vois bien que la vidéo 720p est meilleur que le BDrip.
oui c'est bien ça,
ta video BDRIP a une résolution de 720x304 ce qui est inférieure à du 720p
BDRIP ça veut pas forcément dire haute qualité, ça veut dire que la source du rip est un blu-ray, mais ensuite on peut encoder dans le format que l'on veut : soit 1080p soit 720p ou alors dans une petite résolution non HD comme c'est le cas là avec ta vidéo
Dernière modification par Mugen (14-10-2015 10:52:58)
mon ancien pseudo : bartaba
Hors ligne
Dernière modification par Slyfox (14-10-2015 14:07:21)
Hors ligne
Résultat dans l’ordre de la meilleur qualité: DVD > BDrip > 720p > 1080
Dans l'odre mais quel ordre ? Croissant, décroissant ? L'opérateur ">" signifie "supérieur à", donc là je lis "DVD supérieur à BDrip supérieur à 720p supérieur à 1080", ce qui me semble paradoxal.
Donc si je comprends bien ce facteur de qualité de l'image ne veut rien dire ?
En tout cas il ne faut pas lui faire dire ce qu'il ne dit pas. La formule calcule juste le "poids" moyen en bits d'un pixel d'image. Au passage je ne sais pas d'où sort le facteur 1024 car 1 kbit/s est égal à 1000 bits/s, pas 1024.
1) Ce calcul ne tient pas compte de la performance (taux de compression vs perte de qualité) de l'encodage. Or à bitrate égal, H.264/MPEG4 est plus performant que MPEG2 (utilisé par les DVD).
2) Etant une valeur par pixel statique, il ne reflète pas le fait qu'une vidéo de plus haute définition (contenant plus de pixels) ou ayant un nombre d'images par seconde plus élevé peut avoir une meilleure qualité.
Dernière modification par raleur (14-10-2015 17:12:25)
Il vaut mieux montrer que raconter.
Hors ligne
Dans l'odre mais quel ordre ? Croissant, décroissant ? L'opérateur ">" signifie "supérieur à", donc là je lis "DVD supérieur à BDrip supérieur à 720p supérieur à 1080", ce qui me semble paradoxal.
Comme tu dois t’en douter dans l’ordre croissant DVD puis BDrip ensuite 720p et pour finir 1080. (ce résultat peut changer selon les options d'encodage, mais en général on trouve ce classement.)
Au passage je ne sais pas d'où sort le facteur 1024 car 1 kbit/s est égal à 1000 bits/s, pas 1024.
Dans le lien de mon premier poste je cite:
Ensuite on converti en bit pour y voir plus clair, soit une multiplication par 1024 (pour ceux qui ont pas fait d'info, pour passer du bit au kb on multiplie par 1024, même topo pour aller au Mo...
Apparemment je me suis laissé tromper, merci de ta remarque.
Voici un convertisseur: http://bit-calculator.com/fr/
Un autre lien: Bit Byte Octet ? C’est quoi un bit, un octet, un byte ?
Donc si je refais correctement le calcule de mes 2 vidéos selon cette formule:
indice de qualité = bitrate en bits par seconde / (nombre d'images par seconde X nombre de pixels par image )
Pour la vidéo HD 720p:
(6000*1000)/(23.98*1280*720)=0.27
Pour la vidéo BDRIP:
(1600*1000)/(23.98*720*304)= 0.30
Dernière modification par Slyfox (15-10-2015 14:13:35)
Hors ligne
Hors ligne
Dans le lien de mon premier poste je cite:
Ensuite on converti en bit pour y voir plus clair, soit une multiplication par 1024 (pour ceux qui ont pas fait d'info, pour passer du bit au kb on multiplie par 1024, même topo pour aller au Mo...
Deux erreurs.
- Pour passer du bit au kilobit on divise, et pour passer du kilobit au bit on multiplie.
- Les débits de données s'expriment toujours en puissances de 10, comme les fréquences dont ils sont dérivés, contrairement aux capacités et volumes de données qui s'expriment parfois en puissances de 2.
Il vaut mieux montrer que raconter.
Hors ligne
Dernière modification par Slyfox (09-01-2016 21:28:01)
Hors ligne
honnêtement, ne cherche pas de réponse facile parce qu'il n'en existe pas.
Salut
Effectivement j'ai pas trouvé grand chose quelque piste ici est là mais pas grand chose, si ça existerai ça se saurai.
Par contre je pense que je peux me simplifié la vie, je développe...
Prenons 2 vidéos identiques même film, même durée, même nombre d'image à seconde, même codec/format, visionner sur le même écran à la même distance, par contre une vidéo à une définition de 1280x720 (921600 pixels ou 0.9 Mpx) et l'autre 1920x1080 (2073600 pixels ou 2 Mpx).
Le rapport entre ces 2 définitions est de 2073600 / 921600 = 2.25
Donc si la vidéo de 720 à un débit de 5000 kb/s la vidéo de 1080 devra avoir un débit de 11250 kb/s (5000 kb/s x 2.25) pour avoir le même rendu, dans le cas contraire il serai plus judicieux d'opter pour la 720.
Je vois juste ?
Edit:
Encore plus simple... si la vidéo 720 fait 3 Go la vidéo de 1080 doit faire au moins 6.75 Go (3 Go x 2.25)
Dernière modification par Slyfox (10-01-2016 01:00:40)
Hors ligne