Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
La courbe de réponse moyenne
#31
Bon bien, tu dois avoir raison.
Répondre
#32
(08-24-2022, 09:39 AM)Tchoum a écrit : Bonjour,

Si j'ai bien compris le questionnement initial de ce post, la réponse serait dans le titre.

Pourquoi réaliser une mesure à proximité des enceintes sauf si le point d'écoute de l'auditeur s'y trouve ? Dans ce cas avec une hydrocéphalie extrêmement marquée ça pourrait le faire.

Sauf erreur, vous avez chez vous désigné un sweet-spot comme référence d'emplacement d'écoute HiFi et c'est à cet endroit que des mesures doivent être effectuées pour savoir ce que "raconte" à vos oreilles votre système (matériel + environnement, ces deux points étant indissociables).

Sans un process convenable, càd à minima un micro dédié avec fichier de calibration au point de mesure ad hoc, votre courbe de réponse audio restera toujours moyenne car le cerveau humain possède une grande plasticité et adapte et ignore beaucoup d'informations.

Les smartphones, utilisez les pour smartphoner et non pour fertiliser votre quête de mieux en matière de restitution musicale.

Bonjour
L'audition ne perçoit pas du tout au point d'écoute comme capte le micro au point d'écoute.
Faites un enregistrement correct au point d'écoute et repassez le, vous comprendrez, ce sera assez mauvaiset d'autant plus mauvais que la pièce a des défauts prononcés.
En direct le cerveau est passé par là et à fait tout un tas de corrections notamment il a beaucoup corrigé les reverbes induites par la pièce.
En rapprochant les micros on peut arriver à simuler à peu près un vague équivalent de ce qui se rapprocherait de notre audition.
C'est bien pourquoi un ingénieur du son ne place pas ses micros à la place d'un auditeur mais assez proche des sources, il compense.
Répondre
#33
Hello,

En effet le micro ne détecte pas la même chose que l’oreille humaine et c’est la raison pour laquelle il y a la pondération A. Une fois cette pondération intégrée dans le logiciel, le micro sera capable d’entendre la même chose qu’une oreille humaine lambda.
Système 1 : preamp Audiophile Technologie Theoreme 5814A + Amplitude EL84 + EBM L5c
Système 2 : Kallyste Quasar + Albedo One + Mulidine Allegretto V1
Sources : Marantz SA10, Aurorasound Vida Prima + VPI Scoutmaster II

Mon installation : http://forum-hifi.fr/thread-19470.html
Répondre
#34
Oui et dBA est différent selon l'âge et les expériences sonores.
Répondre
#35
(08-24-2022, 01:41 PM)Staevin34 a écrit : Hello,

En effet le micro ne détecte pas la même chose que l’oreille humaine et c’est la raison pour laquelle il y a la pondération A. Une fois cette pondération intégrée dans le logiciel, le micro sera capable d’entendre la même chose qu’une oreille humaine lambda.

Ca c'est au niveau linéarité fréquentielle mais le cerveau fait plus que ça , il corrige le temporel en partie.
Répondre
#36
le cerveau corrige et réétalonne, en se basant sur ce qui doit être d'après l'expérience. Il est possible que ça sauve les vieillards du forum en corrigeant leurs déficiences en aigu - pas de cris d'orfraie, je m'y joins......

On pourrait faire l'analogie avec la photo ou la video: on voit un mur blanc toute la journée parce qu'on sait qu'il est blanc, en réalité il est jaune le matin et le soir. C'est pour cela que pour filmer il faut faire la balance des blancs selon l'heure de la journée.
idem pour la neige blanche qui est bleue en altitude - atmosphère moins épaisse et moins de filtrage des bleus et ultraviolets, contrairement au niveau du sol. Le matin et le soir les rayons du soleil obliques traversent plus d'atmosphère, ce qui filtre plus les bleus et l'ultraviolet.

C'est un peu comme pour la musique, l'équilibre entre les graves et les aigus qui donne le "vrai" son. 
Les graves passent mieux et sont moins filtrés, on voit cela quand on veut corriger une pièce, on peut l'étouffer facilement mais c'est plus difficile de calmer les graves. C'est pour cela aussi que loin d'une fête on entend surtout les graves.
Idem pour la lumière, les graves (rouges), les aigus (bleus)

L'évolution a fabriqué un système de perception parfait pour l'homme, heureusement qu'on n'entend pas toutes les fréquences sonores ou qu'on ne voit pas toutes les fréquences lumineuses, la vie serait un enfer.

Quand on pense qu'on peut capturer fidèlement des sons avec une petite membrane, faire circuler des électrons pour graver une cire labourée par un diamant, refaire circuler des électrons pour au final faire vibrer une membrane qui fera vibre une membrane dans l'oreille pour que le cerveau entende les sons de départ on se dit waou! comme disent les djeuns.
Enceintes:Onken-Altec 416/Iwata-JBL2445Be/ T925; Tannoy K3838; ATC scm11;Triangle Comète; JM Lab Cobalt 816S
Amplis:Accuphase P102;Forté 4A;1A;Arpège Ref10,Atoll AM80,Hiraga 8W;FX802;MCR 510
Pré: PerreauxEP;Tact RCS 2.2X; Mytek Brooklyn DAC; Preamp passif CI Audio 
CD:Nuprime CD8T, BD:Oppo93- Squeezebox Touch, SB III (x 3)
Vinyle:Thorens TD160 bras Lurné ;TD 165;V15 V15V, AT 440Mlb, DL103,pré pré Hiraga pré ADL GT40
Magnétos:K7 nakamich BX2,TEAC W-1200, Bandes TEAC 3340, 2300; Sony TC377;minidisc Sony MDS JE500

Répondre
#37
Alors Jean?

Tu essaies? Qu'as-tu comme système casque?
Répondre
#38
(08-24-2022, 12:09 PM)mouetteretour a écrit : L'audition ne perçoit pas du tout au point d'écoute comme capte le micro au point d'écoute.
Faites un enregistrement correct au point d'écoute et repassez le, vous comprendrez, ce sera assez mauvaiset d'autant plus mauvais que la pièce a des défauts prononcés.
En direct le cerveau est passé par là et à fait tout un tas de corrections notamment il a beaucoup corrigé les reverbes induites par la pièce.

Si je comprends bien ton propos, tu proposes de prendre une capture son et d'en faire lecture ensuite.
Pour sûr que ce sera mauvais, je dirais même moche, vilain, traitement acoustique ou pas. Car dans ce cas le signal audio passera une deuxième fois à la moulinette du comportement de la pièce d'écoute.

(08-24-2022, 02:05 PM)mouetteretour a écrit : Ca c'est au niveau linéarité fréquentielle mais le cerveau fait plus que ça , il corrige le temporel en partie.

Nous dirais tu ici que le cerveau minimise les effets de filtre en peigne, les échos tonals ?
Je veux bien une explication.
Répondre
#39
(08-24-2022, 03:36 PM)Vacuum a écrit : Alors Jean?

Tu essaies? Qu'as-tu comme système casque?

Un jour, mais pas tout de suite... la chaleur, la flemme, d'autres choses en cours (métal, ciment, portes,.....)

Comme casques pour le moment je n'ai que des AKG: le 242 depuis des décennies, puis le 501 , le 601..

j'aime bien AKG pour le son que je trouve "normal, direct, sans ripolinage", et surtout le port avec le système double support/tension.  je n'aime pas les casques avec un arceau simple, s'adapte moins.  J'envisage de taper plus haut (Hifiman, Audeze, mais le doute m'habite, j'hésite.....)

Je n'écoute au casque que pour ne pas gêner, car j'en ai bouffé des centaines d'heures à l'armée. j'étais graphiste (morse) et le stage seul a constitué de 4h tous les matins pendant 4 mois à écouter ou faire des bip bip, et pas avec un super truc...

D'ailleurs j'ai tiré de cela la comparaison avec le digital:
-2 états: trait (long), point (court), donc binaire.
-par paquets: des mots de 5 lettres pour les messages codés, comme les octets de 8 bits
-il y a l'ADC, l'opérateur qui envoie, qui digitalise les lettres en traits/points.
-Le DAC: le récepteur qui retranscrit en lettres.
-la correction d'erreurs: demande de groupes ratés, renvoi du message pour vérif (collationner)
-le signal est très robuste, dans les craquements et les parasites, si l'on entend les bits (traits/points) ça suffit pour avoir le message parfait, alors qu'en "analogique", c'est à dire en vocal, en parlant, on perd vite les mots dans le bruit.
Enceintes:Onken-Altec 416/Iwata-JBL2445Be/ T925; Tannoy K3838; ATC scm11;Triangle Comète; JM Lab Cobalt 816S
Amplis:Accuphase P102;Forté 4A;1A;Arpège Ref10,Atoll AM80,Hiraga 8W;FX802;MCR 510
Pré: PerreauxEP;Tact RCS 2.2X; Mytek Brooklyn DAC; Preamp passif CI Audio 
CD:Nuprime CD8T, BD:Oppo93- Squeezebox Touch, SB III (x 3)
Vinyle:Thorens TD160 bras Lurné ;TD 165;V15 V15V, AT 440Mlb, DL103,pré pré Hiraga pré ADL GT40
Magnétos:K7 nakamich BX2,TEAC W-1200, Bandes TEAC 3340, 2300; Sony TC377;minidisc Sony MDS JE500

Répondre
#40
(08-24-2022, 03:41 PM)Tchoum a écrit :
(08-24-2022, 12:09 PM)mouetteretour a écrit : L'audition ne perçoit pas du tout au point d'écoute comme capte le micro au point d'écoute.
Faites un enregistrement correct au point d'écoute et repassez le, vous comprendrez, ce sera assez mauvaiset d'autant plus mauvais que la pièce a des défauts prononcés.
En direct le cerveau est passé par là et à fait tout un tas de corrections notamment il a beaucoup corrigé les reverbes induites par la pièce.

Si je comprends bien ton propos, tu proposes de prendre une capture son et d'en faire lecture ensuite.
Pour sûr que ce sera mauvais, je dirais même moche, vilain, traitement acoustique ou pas. Car dans ce cas le signal audio passera une deuxième fois à la moulinette du comportement de la pièce d'écoute.

(08-24-2022, 02:05 PM)mouetteretour a écrit : Ca c'est au niveau linéarité fréquentielle mais le cerveau fait plus que ça , il corrige le temporel en partie.

Nous dirais tu ici que le cerveau minimise les effets de filtre en peigne, les échos tonals ?
Je veux bien une explication.

C'est pour ça que je proposais de faire un enregistrement de ce que sortent les enceintes au point d'écoute, si on le fait  à la mesure on peut aussi procéder à cette mesure subjective.
Ainsi par comparaison  on pourra s'apercevoir très facilement que notre cerveau procède à une diminution des échos en temps réel puisqu'on les entend considérablement moins en direct que sur l'enregistrement .
A l'écoute de l'enregistrement il ne peut plus le faire, il lui manque les données de la pièce qu'il doit capter et intègrer dans ses calculs.
Répondre


Atteindre :


Utilisateur(s) parcourant ce sujet : 1 visiteur(s)