Bonjour Thierry,
Je n'en sais rien mais il est logique de penser que l'algorithme de compression sans perte est moins efficace dans la mesure où à 48k échantillons par seconde, la probabilité d'avoir des variations aléatoires de niveau est plus importante qu'à 96k.
En d'autres termes, à 96k, il y a davantage de probabilité d'avoir des variations modélisables qu'à 48k. Par conséquent, la compression sera plus efficace à 96k. Elle le sera encore plus à 192k. N'oublions pas que la bande passante réellement numérisée n'est pas proportionnelle à la fréquence d'échantillonnage : 20 kHz à 44k et 30 à 40 kHz à 192k.
De la même façon, l'algorithme est plus efficace sur une mélodie simple que sur un morceau orchestral complexe.
On peut aussi dire que la densité d'information est plus importante a 48k qu'à 96 ( pour la quantité, bien sûr c'est l'inverse)
Je n'en sais rien mais il est logique de penser que l'algorithme de compression sans perte est moins efficace dans la mesure où à 48k échantillons par seconde, la probabilité d'avoir des variations aléatoires de niveau est plus importante qu'à 96k.
En d'autres termes, à 96k, il y a davantage de probabilité d'avoir des variations modélisables qu'à 48k. Par conséquent, la compression sera plus efficace à 96k. Elle le sera encore plus à 192k. N'oublions pas que la bande passante réellement numérisée n'est pas proportionnelle à la fréquence d'échantillonnage : 20 kHz à 44k et 30 à 40 kHz à 192k.
De la même façon, l'algorithme est plus efficace sur une mélodie simple que sur un morceau orchestral complexe.
On peut aussi dire que la densité d'information est plus importante a 48k qu'à 96 ( pour la quantité, bien sûr c'est l'inverse)
Pluie du matin n'arrête pas le sous-marin