A la lecture des derniers posts, pendant l’arrêt du fil, je me suis rendu compte que les mots théorie, modélisation et pratique n’ont visiblement pas la même définition pour tout le monde. Je donne donc ici ma compréhension de ces notions afin qu’on puisse au moins s’entendre sur quelques définitions, avant de débattre sur la nécessité, ou non, de nouvelles lois de la physique pour expliquer le fonctionnement de l’infraflex….
La
théorie, en physique, c’est la transformation en expression mathématique d’un phénomène que l’on observe.
On la considère valide lorsque l’utilisation de cette expression mathématique avec différentes hypothèses de départ, continue à rendre compte correctement des phénomènes que l’on observe.
Par exemple, puisqu’on a parlé de fusées sur ce fil, la théorie de Newton sur la gravité, a permis d’expliquer l’immense majorité des phénomènes «balistiques» que l’on observe chaque jour.
Ça permet notamment de savoir exactement comment envoyer un projectile sur sa cible, d’envoyer une fusée sur la Lune ou ailleurs, de calculer précisément la vitesse minimale à atteindre pour s’arracher de l’attraction terrestre et mettre des satellites en orbite, ou de savoir à quelle vitesse un objet touchera le sol suivant d’où il tombe, etc…
Cette théorie est pourtant inexacte puisqu’elle n’explique pas tout, notamment certains phénomènes astronomiques que l’on peut observer, alors que l’application de la théorie de Newton n’arrive pas à les prédire correctement.
Il a fallu attendre la théorie de la relativité générale d’Einstein pour pouvoir rendre compte correctement de ces phénomènes, ainsi que de ceux déjà expliqués par Newton. De plus, lorsqu’on simplifie les équations d’Einstein (en particulier avec des hypothèses de vitesses faibles par rapport à la vitesse de la lumière) on retrouve les équations mathématiques de Newton. Par conséquent, la théorie d’Einstein est maintenant acceptée comme « vraie », jusqu’à ce qu’une nouvelle théorie vienne également expliquer des phénomènes que celle-ci n’explique pas encore.
Le plus intéressant c’est qu’il existe parfois plusieurs théories, pourtant souvent incompatibles entre-elles, qui expliquent correctement les mêmes phénomènes qu’on peut observer, et dans ce cas, on est obligé de les différencier en étudiant leurs prédictions sur des phénomènes non encore observés.
Si ces phénomènes prédits par la théorie se révèlent exacts avec certaines et pas avec d’autres, on ne gardera que les théories qui prédisent des choses qui existent, et on éliminera les autres.
En astronomie notamment, il reste encore un paquet de phénomènes où plusieurs théories "fonctionnent" sans qu’on puisse encore démontrer laquelle est la plus pertinente.
Pour finir, sur les mérites des théories, il arrive fréquemment qu’elles prédisent des phénomènes qui n’étaient pas encore observés car la technologie ne le permettait pas au moment de la conception de la théorie, mais qui l’ont été plus tard (ça a été le cas avec celles d’Einstein), et qui ont permis de grandes avancées technologiques auxquelles on n’aurait pas forcément pensé sans l’aide de la théorie.
Enfin, les théories qui régissent les lois de la physique de notre quotidien, sont bien connues et éprouvées en long en large et en travers. Elles expliquent parfaitement tout ce qu’il y a à expliquer dans notre quotidien, et les mystères de l’univers et de la physique qui sont, bien entendu, encore immenses, ne concernent plus guère que des domaines bien au delà des préoccupations des personnes « normales » (dans lesquelles on devrait pouvoir ranger la plupart des audiophiles, je l’espère en tous cas...
)
Les problèmes d’acoustique, en particulier, ne relèvent d’aucun mystère et n’ont nul besoin de nouvelle théorie pour expliquer ce que tout un chacun peut observer.
Certains confondent sans doute les difficultés que peut présenter la modélisation du comportement d’un montage quelconque, avec le besoin d’une nouvelle loi de la physique, et ont, peut-être, qui sait ?, besoin de comprendre la différence qu’il y a entre théorie et modélisation.
La
modélisation, c’est l’application de la théorie, et des lois qui en découlent, à des cas pratiques concrets, afin de prévoir le comportement d’une expérience ou d’un montage quelconque, avant de le réaliser concrètement.
On va ainsi, par exemple, modéliser la résistance d’une structure d’un bâtiment, le comportement d’une suspension de voiture, ou la trajectoire d’une fusée, ou d’un haut-parleur quelconque, ou autre, en appliquant les différentes lois de la physique, issues des théories en vigueur.
A l’époque de Gay-Lussac, par exemple, puisqu’il a été cité, la modélisation ne pouvait consister qu’en l’écriture d’équations mathématiques appliquées à des cas concrets, et on arrivait donc très rapidement à des équations si complexes qu’on ne pouvait pas les résoudre sans procéder à des simplifications pour approcher un résultat forcément approximatif.
Aujourd’hui, avec la puissance des ordinateurs et les multiples méthodes de résolution d’équations qui existent, on dispose de modèles ultra-puissants qui permettent de modéliser quasiment tous les phénomènes. On a même remplacé les essais nucléaires par des simulateurs sur ordinateur, ce qui montre que la modélisation peut atteindre des résultats aussi précis que les essais en vrai quand on s’en donne les moyens.
Le plus souvent cependant, la modélisation est limitée par la précision des données qu’on injecte dans le modèle.
Si on s’en donne les moyens, on peut avoir un modèle quasi parfait (essais nucléaires), mais souvent on n’a juste pas les moyens de modéliser parfaitement, parce que, plus prosaïquement, il n’y a pas de modèle économique qui justifie qu’on s’en préoccupe…
Si on le fait pour des structures complexes (bâtiments, avions, voitures, etc…), on ne dispose pas encore de modèles pour tout (peut-être qu’un jour on pourra modéliser facilement tout, mais on n’y est pas encore…).
Dans la hifi, il est probable que les grosses sociétés comme B&W ou Focal disposent de tels modèles pour concevoir leurs HP et enceintes, mais il est fort possible que les petits constructeurs n’y aient pas vraiment accès.
Ce qui est certain par contre, c’est que modéliser le comportement d’une enceinte, d’un HP, dans un environnement domestique ou autre, ne pose aucune difficulté théorique ou technique. C’est plus une question de coût et de retour sur investissement. Pour un avion ou même une voiture, on va le faire, pour une enceinte dans un local c’est surement moins vital et moins rentable.
Il existe cependant des modèles simples et néanmoins efficaces, à la portée de tous. Un exemple de modèle ne demandant pas de puissance de calcul phénoménal est celui fait par alec_eiffel sur un simple tableur excel pour calculer les dimensions et la forme de basstraps à membrane ou Helmoltz. Son tableur est fondé sur des équations issues de la physique « acoustique », avec des paramètres à injecter (matériaux, épaisseurs, dimensions, etc…), et donne une simulation de ce qu’on peut en attendre. C’est très utile pour dimensionner le produit qu’on va vouloir construire plutôt que de partir en aveugle et se lancer directement dans la pratique.
On pourrait vraisemblablement sans grande difficulté, réaliser un modèle pour simuler le fonctionnement d’un infraflex. Ce serait un bon sujet de stage pour un étudiant ingénieur chez un fabricant d’enceintes, mais il doit déjà exister un paquet de thèses et autres études sur ces sujets d’interaction entre une enceinte et un local, qui démystifient tout cela, si tant est qu’il y ait encore quelque chose à démystifier.
Après la théorie et la modélisation, on arrive évidemment à la
pratique qui consiste à réaliser l’objet, et à en mesurer les performances que ce soit objectivement (avec toutes les mesures qu’on peut imaginer), ou éventuellement subjectivement à l’écoute si c’est un produit hifi.
Bien sûr ces 3 modalités (théorie, modélisation, pratique) coexistent depuis la nuit des temps et se nourrissent mutuellement. Les expériences pratiques ayant suscité des théories, et visant à en démontrer la validité, sont légions, et elles servent aussi couramment à alimenter en données des modèles de plus en plus élaborés.
Dans le cas d’une enceinte, les mesures réalisées sur chaque HP, sur la caisse des enceintes, sur des montages spécifiques pour mesurer certains paramètres, en chambre anéchoïque ou ailleurs, etc… vont fournir des tas de données utiles pour alimenter les différents modèles que l’on peut vouloir réaliser.
Et évidemment, plusieurs domaines de la physique sont utilisés pour imaginer les modèles et les prototypes à tester, résistance des matériaux, mécanique des fluides, thermodynamique, mécanique ondulatoire, etc…
L’objectif qu’on cherche à atteindre avec une enceinte (mais aussi avec les autres maillons d’une chaine hifi), c’est la reproduction fidèle de la source, et donc l’élimination (ou au moins la minimisation) de toute forme de distorsion entre le signal entrant et le signal sortant.
Les causes de distorsion sont multiples mais il y en a de bien connues qui sont accessibles au simple bon sens. Un HP, étant un élément mobile avec une masse, va avoir des mouvements entrainant inertie et forces diverses, elles mêmes entrainant des vibrations qui vont se propager sur le support, et engendrer des bruits parasites qui sont de la distorsion par rapport au signal qu’on veut reproduire. Un bon designer va donc s’efforcer de gérer ces vibrations en les absorbant, les amortissant, les compensant, ou autres solutions multiples.
De même, les membranes des HP ont des fréquences de résonance, et fractionnent, entrainant là aussi des bruits parasites et donc de la distorsion. Les bons designers vont donc utiliser les HP dans des plages de fréquences adaptées pour minimiser la distorsion.
Et on peut ainsi prendre tous les sujets/problèmes qui se posent et réfléchir aux solutions possibles et les mettre en œuvre. Et comme on peut aujourd’hui, de plus en plus facilement, modéliser les comportements des différents éléments ensemble, on peut même prévoir quels seront les montages les plus efficaces sur le papier et ensuite les vérifier en pratique, et affiner les modèles et les prototypes par itérations successives.
Tout cela pour dire que théorie, modélisation et pratique sont parfaitement complémentaires, mais qu’elles ont chacune leur fonction bien déterminée.
L’infraflex est un exemple de réalisation pratique d’un caisson de basses. Sa modélisation comme indiqué précédemment est sûrement un bon sujet de stage, mais il est assez peu probable (euphémisme) qu’il nécessite une nouvelle théorie de la physique qui, si c'était le cas, donnerait lieu, à n’en pas douter, à un prix Nobel de physique.
(07-25-2019, 01:57 PM)tientien a écrit : (07-25-2019, 01:40 PM)pda0 a écrit : (07-25-2019, 01:27 PM)lamouette a écrit : Quand tout va bien, tout va bien Ca c'est bien de la parole de scientifique, c'est toujours la faute de quelque chose d'exterieur.
si la modalisation était si parfaite rien n'arriverait.
La modélisation n’est pas en cause, c’est la mise en œuvre qui n’est jamais parfaite, malheureusement, car on ne vit pas dans un monde théorique.
Mais sans la théorie et la modélisation on n’aurait pas de fusées.
Oui, bien sur, on sait faire des fusées mais pas un bon son ...
Etienne
A en croire Tientien, on ne saurait donc pas reproduire un bon son… Que faut-il comprendre de cette affirmation ? Qu’il y a un mystère nécessitant une nouvelle théorie qui va révolutionner l’acoustique pour en expliquer le fonctionnement.
Plus simplement, on peut penser que la réalisation pratique d'un système hifi et d'enceintes en particulier, présente des difficultés de mise en oeuvre qui ne sont pas évidentes à résoudre, surtout lorsqu'on a un budget limité (n'oublions pas que c'est un business qui a besoin de clients qui doivent avoir les moyens d'acheter les produits). Certains, comme Jalucine, s'emploient à déployer des solutions qui s'attaquent aux vrais problèmes de la reproduction (gestion des vibrations, filtrage adaptés aux HP, HPs aux caractéristiques choisies pour la fonction qui leur est assignée, anticipation du positionnement des enceintes dans le local, etc...), d'autres ont besoin de recourir à de nouvelles lois de la physique pour expliquer les incohérences de leur design, et se gardent bien de développer un vrai argumentaire car on imagine aisément qu'il n'a pas de fondement solide.
Pour clore le débat, ce serait bien finalement que Tientien nous donne les éléments qui justifient ce besoin de nouvelle théorie en répondant aux questions ci-après, car après tout, c’est ainsi que la physique progresse et que de nouvelles théories apparaissent. Tous les physiciens sont avides de nouvelles théories expliquant les phénomènes que les théories actuelles n’expliquent pas, et chacune d’entre elles se doit d’être cohérente mathématiquement, cohérente avec les phénomènes déjà expliqués, et évidemment expliquer ce qui ne l’est pas encore.
- Quels sont donc les phénomènes observés avec l’infraflex que les lois de la physique n’expliquent pas ?
- Quelles sont les équations de la physique actuelle que l’infraflex met à mal ? Et quelles sont les équations qu’il faudrait utiliser en lieu et place de celles-ci ?
Pour l’instant, je me contente d’observer que la conception mécanique de l’infraflex est parfaite :
- pour produire toutes sortes de distorsions (fractionnement membrane, vibrations multiples du moteur, du cadre, déformations prévisibles du pot de crème fraiche en fonction de la fréquence,...)
- et pour poser des problèmes de fiabilité (arrachement probablement fréquent du pot de crème fraiche sur la membrane).
De plus, les mesures réalisées dans une pièce ne font que confirmer que, comme prévu :
- l’infraflex ne s’affranchit nullement des problèmes d’interaction avec la pièce.
- la réponse amplitude/fréquence n’a rien d’extraordinaire et nécessite une correction numérique massive pour être utilisable (ou bien un filtrage très bas en fréquence).
- et la distorsion mesurée par REW montre un niveau incompatible avec une reproduction fidèle du signal.
Afin d’éviter toute ambiguité, je ne dis pas que l’infraflex sonne comme une casserole car je n’en ai pas encore écouté, par contre, je conteste l’immunité de l’infraflex aux lois de l’acoustique, et encore plus la nécessité d’une nouvelle théorie de la transmission du son ou je ne sais quelle autre fantaisie.
L’infraflex produit du grave c’est certain, les mesures le disent. Ce grave est-il le reflet du signal qu’il reçoit ? Compte tenu de sa conception, j’en doute fortement comme vous l’aurez compris.
Mais comme je trouve cet engin et la théorie qui l’accompagne très amusants, je persiste à écrire sur ce sujet au risque de relancer une nouvelle vague de canicule.