05-05-2020, 03:32 PM
(05-05-2020, 03:26 PM)Nard a écrit : Pour étayer cette idée, j'ai fait l'expérience suivante en faisant générer par Rephase deux impulsions de convolution au format 32/64 bit float lines texte que j'ai ensuite chargés sous Open Office Calc pour les étudier.
(L'avantage du format texte est que la valeur numérique des échantillons est lisible en format décimal.)
Les deux impulsions partagent ces mêmes caractéristiquesLa première impulsion fait 32 768 taps et la deuxième 65 536, soit 682,7 et 1 365 ms respectivement.
- FFT de 131 072 échantillons
- Fenêtre Blackman-Harris
- Optimisation extensive jusqu'à -120dB
- Taux d'échantillonnage de 48 000 Hz
Ces impulsions sont optimisées à -120dB soit 20 bit soit 10^-6 ou un millionième en niveau.
J'ai donc recherché à quel échantillon on atteignait un premier niveau de -0,5 x 10^-6 ainsi que le dernier échantillon où l'on parvenait en dessus de ce niveau (tendant vers zéro).
Les valeurs sont les suivantes :
Impulsion 32k, échantillons 11 285 et 18 880
Impulsion 64k, échantillons 27 534 et 35 470
La durée de l'impulsion égale ou supérieure à -120dB est donc 7 596 échantillons, soit 158,3 ms dans le premier cas et de 7 937 échantillons, soit 165,4 ms dans le deuxième cas, soit 7,1 ms d'écart.
Sur ces résultats, la question de savoir si la longueur du fichier de convolution ne joue que sur la précision de la correction ou si elle concerne également la précision de la quantification, reste ouverte
Bonjour,
pourquoi optimisation extensive to -120 dB et pas none?