Discussion sur la loi de Sabine et coefficient supérieur à 1

Préambule

La problématique de l’évaluation correcte de l’absorption est essentielle dans le choix du plafond lors de la conception ou de l’amélioration du confort acoustique dans les espaces paysagers. Un plafond annoncé sur le papier à 1.1 alpha Sabine peut très bien ne développer qu’une absorption physique réelle autour de 0.8 alpha Sabine. Or la nuisance et le bruit subis par les occupants proviennent en grande partie de la contribution réfléchie et non absorbée par le plafond.

Une absorption de 0.8 ou 0.95 alpha Sabine paraît comparable (seulement 15 % de différence). En réalité, le premier réfléchira 20 % de l’énergie incidente, le second seulement 5 %, soit un facteur 4 ou une réduction de 6 décibels ! Ceci correspond à la même diminution de volume sonore que si vous doubliez votre distance par rapport à une source de bruit. Et si le plafond monte à 0.99 alpha Sabine, la contribution réfléchie tombe à 1 % seulement, et le gain s’élève à 13 décibel !

La question de l’interprétation des coefficients d’absorption n’est pas nouvelle mais elle devient récurrente. Elle se pose de manière de plus en plus fréquente car de très nombreux matériaux et traitements absorbants affichent aujourd’hui des valeurs d’alpha Sabine dépassant 1 (ou 100% d’absorption).

Or le principe de la conservation de l’énergie stipule dans le présent cas de figure qu’il est impossible pour un échantillon absorbant de dissiper plus d’énergie qu’il n’en reçoit : la valeur 1 est un plafond qui ne peut être dépassé.

La présente section discute de la difficulté d’évaluer précisément les performances des matériaux hautement absorbants, du contenu même des normes en vigueur en la matière et des modèles sur lesquels elles s’appuient, ainsi que des habitudes et des contraintes des différents acteurs du secteur (client, fournisseur, laboratoire d’essais, acousticiens, etc).

Les notions abordées ici permettent cependant de calculer de manière plus précise l’absorption réelle des échantillons testés en laboratoire. Cette démarche corrective est intégrée dans les études acoustiques.

Chapitre 1 : Abstract

La réponse à la question de l’évaluation de l’absorption acoustique fait appel à de nombreuses notions interconnectées. Pour construire une perspective complète et cohérente, il convient d’aborder ces notions pas à pas en commençant par les bases.

Le sous chapitre 2.1 couvre les notions d’absorption acoustique et les méthodes décrites dans les normes visant à l’évaluer.

Le sous chapitre 2.2 montre que la Loi de Sabine, utilisée pour déduire le pouvoir absorbant d’un matériau ou d’un objet à partir de son influence sur la réverbération d’une salle, est basée sur des hypothèses simplificatrices qui ne sont plus parfaitement rencontrées lorsque les échantillons testés développent de hautes performances d’absorption.

Le sous chapitre 2.3 expose la Loi d’Eyring élaborée à partir d’autres hypothèses qui mènent à une meilleur formulation liant absorption et réverbération.

Le sous chapitre 2.4 décrit succinctement les objectifs de la norme ISO 354 visant l’évaluation de l’absorption acoustique.

Les sous chapitres 2.5.1 à 2.5.5 expliquent comment l’utilisation de la Loi de Sabine, la présence de diffuseurs et des échantillons dans les chambres réverbérantes, et la non-linéarité éventuelle des courbes d’évanouissement conduisent aux dépassements de la valeur 1 alpha Sabine observés fréquemment avec des coefficients atteignant 1.2 .. 1.3.

En métrologie, toute grandeur est frappée d’une incertitude liée à la précision de la mesure. Le sous chapitre 2.5.6 montre comment les incertitudes sur les grandeurs mesurées peuvent affecter la précision sur la valeur d’absorption déduite.

Le sous chapitre 2.5.7 dresse la synthèse des points précédents.

Le chapitre 3 suggère un décryptage des relations qui animent les différents protagonistes du marché. Ces derniers, clients, fabricants et laboratoires d’essais ou acousticiens sont tour à tour acteur et victime des dérives qu’ils propagent.

Chapitre 2 : La mesure de l’absorption acoustique

2.1      Absorption et Réverbération

L’absorption acoustique d’un matériau ou d’un objet est sa capacité à dissiper en chaleur l’énergie acoustique qu’il reçoit.

Lorsqu’une onde sonore vient frapper un matériau, une partie de l’énergie est transmise au-delà du matériau, une partie est absorbée et une partie est réfléchie. En vertu du principe de conservation de l’énergie, la quote-part absorbée ne pourra jamais n’être qu’une fraction de l’énergie incidente, et sa valeur est donc comprise entre 0 et 1.

La quote-part transmise est habituellement très faible par rapport aux quotes-parts absorbée et réfléchie ; elle est souvent négligée. La quote-part absorbée est quantifiée par le coefficient alpha Sabine qui idéalement vaut 0 pour un matériau totalement réfléchissant et 1 pour un matériau totalement absorbant.

La valeur de l’absorption acoustique d’un matériau n’est pas accessible directement. Il est nécessaire de mesurer l’action de ce matériau sur un champ d’ondes sonores pour indirectement évaluer son absorption.

L’approche la plus fréquente consiste à mesurer comment la réverbération d’un espace fermé est affectée par l’introduction du matériau à évaluer. La résonance d’un local est en effet d’autant plus réduite que les matériaux présents sont absorbants.

Au sens commun, la réverbération ou la résonance est la persistance d’un son dans un local après l’interruption de la source sonore qui l’a généré. En acoustique, elle est quantifiée par le temps de réverbération, qui est défini par le temps nécessaire pour observer une chute de 60 dB après l’arrêt de la source sonore (cliquez ici pour voir une illustration visuelle et auditive des notions d’évanouissement d’un son et de temps de réverbération).

Plusieurs lois existent pour relier la réverbération et l’absorption des matériaux. La loi la plus connue est abordée au point suivant car elle est en partie à la base des « anomalies » d’absorption relevées dans les rapports d’essais et les brochures commerciales des matériaux absorbants.

2.2      La Loi de Sabine

Expression 1

La Loi de Sabine est fréquemment utilisée car elle exprime les temps de réverbération d’une salle très simplement :

  • à partir du volume de la salle et de ses différentes parois caractérisées par leur absorption (la forme de la salle ne joue pas),
  • en n’utilisant que les quatre opérations arithmétiques.

Ainsi, dans sa forme la plus simple,

où                                T est le temps de réverbération, en s, tel que défini plus haut

                                    V est le volume, en m³

A = α1S1 + α2S2 + α3S3 + …+ αnSn     (2) est l’aire d’absorption équivalente de la salle, qui vaut la somme des surfaces Si des n parois de la salle pondérées par leur coefficient d’absorption αi.    

Avec S = S1 + S2 + S3 + …+ Sn, le rapport de A à S est appelé le coefficient d’absorption alpha Sabine moyen αS. Ce coefficient ne représente pas l’absorption au sens physique.

Les grandeurs T, αi, et donc A et αS, dépendent de la fréquence.

Expression 2

La célérité du son dans l’air influence légèrement le temps de réverbération. La formule (1) reprise ci-dessus sous-entend une célérité du son dans l’air à 20°C, soit 343 m/s. Si l’on souhaite intégrer de manière plus précise la célérité des ondes dans la formule, pour tenir compte de la température réelle de l’air, alors elle devient :

c‘est la célérité du son dans l’air, en m/s, liée à la température de l’air par                                  c = 331 + 0.6 t avec t la température en degrés Celsius

(cliquez ici pour une démonstration simplifiée de la Loi de Sabine) !!

Expression 3

Dans un local fermé, la dissipation de l’énergie acoustique se produit par l’absorption des parois mais également dans une moindre mesure par l’air du local. Dans la plupart des espaces du quotidien (logements, bureaux, etc), cet effet dû à l’air est marginal. En effet, lorsque le local est de petites dimensions et présente une absorption conséquente, l’énergie acoustique est principalement dissipée par les parois. Les formules (1) et (4) peuvent être appliquées sans correction de l’absorption de l’air.

Au contraire, lorsque le volume est important, les ondes parcourent de grandes distances entre deux réflexions successives. Autrement dit, sur un temps donné, le nombre de réflexions et donc d’absorptions, est moindre. De même, lorsque les matériaux sont hautement réfléchissants, l’énergie perdue à chaque réflexion est faible. L’absorption de l’air n’est plus négligeable.

La formule (4) est alors adaptée en ajoutant à l’aire d’absorption des parois la contribution de l’absorption de l’air :

où                                 m est le coefficient d’atténuation de puissance ou d’absorption de l’air, en m-1.

Plus le volume de la pièce est élevée, plus l’air participe à l’absorption, d’où le produit mV.

La valeur de m dépend de la fréquence et des conditions de pression, d’hygrométrie et de température de l’air. Elle est évaluée par des formules complexes (au sens commun du terme, et non au sens mathématique) qui sortent du cadre de la présente discussion.

La vidéo du point 2.1 précédent concerne une église de grand volume où l’absorption de l’air explique la réverbération décroissant fortement dans les hautes fréquences.

Les chambres de laboratoire acoustique utilisées pour l’évaluation de l’absorption sont hautement réfléchissantes, de manière à obtenir une influence significative de l’introduction du matériau testé sur la réverbération du local. Ceci explique pourquoi c’est sous la forme de la relation (5) que la Loi de Sabine est utilisée dans la norme ISO 354. Certains laboratoires d’essais utilisent cependant les formules (1) ou (4), ce qui est licite si la température est maintenue à 20°C (pour (1)) et que les conditions de pression et d’hygrométrie sont identiques pour les essais avec et sans l’échantillon (pour (1) et (4)).

Analyse et discussion

Il est essentiel de comprendre que les lois de la science reposent sur une série d’hypothèses, le plus souvent simplificatrices, qui permettent d’élaborer un modèle décrivant les phénomènes physiques de manière suffisamment pratique et correcte pour être utile et utilisé. Ce modèle ne sera cependant fiable que dans le champ de validité de ces hypothèses.

Si les hypothèses ne sont plus rencontrées, le modèle (ici la Loi de Sabine) et son exploitation (l’évaluation de l’absorption en salle réverbérante) fourniront des valeurs qui ne sont plus nécessairement conformes à la réalité. La dérive sera d’autant plus grande que l’on s’écarte des hypothèses ayant conduit à l’élaboration de la loi physique.

Afin de comprendre cette nuance, considérons un cas trivial : l’évaluation de la surface d’un rectangle. Si les côtés du rectangle valent respectivement a et b, la surface du rectangle vaut simplement le produit ab. La « Loi » peut s’exprimer par la formule

S = ab

Si ce modèle est appliqué au calcul de la surface d’un parallélogramme, le résultat obtenu risque le plus souvent d’être entaché d’une erreur. En effet, le modèle repose sur l’hypothèse que les côtés a et b soient bien perpendiculaires entre eux. Dans le cas d’un parallélogramme non rectangle, l’application de la formule S=ab conduit à surévaluer la surface réelle.

                     Sréelle < ab = Scalculée

La Loi de Sabine repose sur les hypothèses principales suivantes :

  • la présence d’un champ sonore parfaitement diffus. L’énergie acoustique dans le local étudié évolue dans le temps, mais il est supposé qu’à chaque instant, cette énergie soit identique en tous points du local. D’autre part, les ondes sonores sont supposées se propager dans toutes les directions, sans que l’une d’entre elles soit privilégiée,
  • la décroissance de l’énergie acoustique dans le temps est parfaitement continue.

La Loi de Sabine fait également appel à la notion de « libre parcours moyen » d’une onde. Il s’agit au sens le plus large de la distance moyenne parcourue par un « rayon sonore » entre deux réflexions successives sur les parois du local. Il est assez naturel de comprendre que le temps de réverbération est proportionnel au libre parcours moyen : moins souvent l’onde « verra » une paroi pour y perdre une partie de son énergie par absorption, plus longtemps elle perdurera.

Pour son intégration dans la Loi de Sabine, la définition du libre parcours moyen doit être précisée, afin de mieux représenter une caractéristique du local seul (il convient de s’affranchir du type d’onde, par exemple l’onde parfaitement verticale qui se réfléchit uniquement sur le sol et le plafond). Il s’agit toujours de la distance moyenne parcourue par un rayon sonore entre deux réflexions successives, mais pour un très grand nombre de rayons, se propageant dans un très grand nombre de directions réparties de manière homogène, et sur un temps suffisamment long.

Cette définition restreinte est liée à la présence d’un champ sonore diffus.

Avec cette définition, et en considérant un local vide, le libre parcours moyen peut s’exprimer de manière simple en fonction des données du local :

où                                lm est le libre parcours moyen, en m, dans sa définition restreinte,

                                               V est le volume du local, en m³

                                              S est la surface des parois du local, en m².

(cliquez ici pour une démonstration simplifiée de cette relation)

Il est à noter que la formule est indépendante de la forme du local, ce qui explique que la Loi de Sabine le soit aussi. Il convient surtout de souligner que le local considéré est vide. Dans le cas contraire, la notion de rayon sonore devient questionnable et quoi qu’il en soit, la formule (6) ci-dessus n’est plus parfaitement valide.

Les objets constituent des obstacles finis autour desquels les ondes sonores se diffractent (phénomène de déviation des ondes lorsqu’elles passent près d’un obstacle ou traversent un orifice).

La validité de la notion de rayon sonore géométrique devient questionnable (une partie de l’énergie sonore se « déverse » dans la zone d’ombre derrière l’obstacle et ne poursuit plus sa route dans la trajectoire du rayon sonore initial).


Les objets constituent des obstacles finis autour desquels les ondes sonores se diffractent (phénomène de déviation des ondes lorsqu’elles passent près d’un obstacle ou traversent un orifice).
 
La validité de la notion de rayon sonore géométrique devient questionnable (une partie de l’énergie sonore se « déverse » dans la zone d’ombre derrière l’obstacle et ne poursuit plus sa route dans la trajectoire du rayon sonore initial).

En résumé, la Loi de Sabine est basée sur la présence d’un champ diffus, sur une dissipation continue de l’énergie dans le temps et sur un local vide.

Un champ diffus est d’autant plus aisé à obtenir que les parois du local ne sont pas parallèles entre elles, que l’absorption des différentes parois est plutôt faible et que cette absorption est répartie de manière assez uniforme sur les différentes parois.

L’analyse « aux limites » de la Loi de Sabine permet une première évaluation de sa pertinence. Lorsque l’absorption des parois tend vers zéro, l’aire d’absorption équivalente tend également vers zéro et le temps de réverbération tend vers l’infini pour la formule (1).  

Ce résultat a peu de chance de se produire en réalité, mais il est conceptuellement cohérent avec la modélisation et ses hypothèses. En réalité, les matériaux ne réfléchissent pas l’intégralité de l’énergie incidente et l’absorption de l’air dissipera également l’énergie acoustique.

Ainsi, de manière plus réaliste, la formule (4) conduit à une valeur grande mais finie.

Par contre, lorsque l’absorption devient proche de l’unité, l’aire d’absorption s’approche de la valeur de la surface des parois, et la réverbération tend vers une valeur finie alors que le bon sens prévoit une valeur nulle.

Pour que la réverbération tende vers zéro, il faudrait que S et V prennent des valeurs extrêmes et irréalistes.

La Loi de Sabine surévalue donc les temps de réverbération, et ce de manière d’autant plus importante que l’absorption est élevée.

2.3      La loi de Eyring

D’autres lois liant la réverbération d’un local et ses caractéristiques existent. La Loi de Eyring est la plus fréquemment avancée. Elle considère également un champ parfaitement diffus, mais résulte d’une analyse géométrique et statistique, et aborde la problématique du point de vue de l’énergie résiduelle plutôt que de l’énergie absorbée.

Sa formulation est

(cliquez ici pour une démonstration simplifiée de la Loi de Eyring)!!

Remarque : il convient de noter que le coefficient d’absorption moyen α  repris dans cette formule ne suit pas exactement la même définition que celle du coefficient αS. Cependant, une base de données de valeurs αS  étant largement disponible, il est d’usage de les utiliser dans la formule (7) ci-dessus.

L‘analyse aux limites de la Loi de Eyring fournit des résultats cohérents avec les valeurs physiques attendues.

Lorsque l’absorption approche zéro, le logarithme tend également vers zéro, et le temps de réverbération tend vers l’infini. De même, lorsque l’absorption tend vers l’unité, le logarithme tend vers moins l’infini et le temps de réverbération tend vers zéro.

Mathématiquement, une fonction non élémentaire, comme le logarithme, peut être décomposée en une somme infinie de termes polygonaux. Cette identité est connue sous le nom de développement de Taylor Mac Laurin.

Pour l  , il vaut

Lorsque x  tend vers 0, les termes d’ordre supérieur deviennent petits devant le premier terme et le logarithme peut être approximé par ce seul premier terme

Alors,

La Loi de Eyring prend alors la forme de la Loi de Sabine. Cette dernière peut donc être vue comme une approximation de la Loi de Eyring dans laquelle le développement en série du logarithme serait limité à son premier terme.

Pour des absorptions très petites, les deux Lois fournissent des valeurs proches. Pour des absorptions non négligeables, la Loi de Sabine diverge de la Loi de Eyring (en ne prenant pas en compte les termes d’ordre supérieur du développement en série).

Notre cas trivial du calcul de la surface d’un parallélogramme peut à nouveau illustrer le propos. La formule correcte pour un parallélogramme est :

S = ah

Cette formule peut être adaptée pour exprimer S en fonction de a et b, à condition d’exprimer h en fonction de b. Il suffit de connaître la valeur de l’angle entre h et b.

h = b cos q

S = ab cos q

Lorsque q  vaut zéro, cos q  vaut 1, b=h, a et b sont bien perpendiculaires et S=ab. La formule du rectangle est retrouvée.

Le développement en série de Taylor Mac Laurin de cos q  vaut :

Pour q  très petit, le premier terme devient prépondérant et cos q @ 1 et S @ ab. La relation valable pour le rectangle peut fournir une approximation raisonnable de la surface d’un parallélogramme (si par exemple h et q  ne sont pas accessibles), mais uniquement si l’on ne s’éloigne pas trop du rectangle.

2.4      La norme ISO 354

La norme ISO 354 a pour objet l’évaluation de l’absorption acoustique de matériaux ou d’objets. Elle évalue et compare les temps de réverbération d’une salle réverbérante sans et avec l’échantillon à mesurer. Plus l’échantillon est absorbant, plus le temps de réverbération sera réduit lorsque l’échantillon sera introduit dans la salle. La Loi de Sabine est utilisée pour quantifier cette dépendance.

Pour obtenir des mesures les plus propres possibles, il convient de travailler dans une salle présentant une très grande réverbération. L’introduction du matériau plus ou moins absorbant à tester aura dès lors un impact significatif sur la résonance de la salle d’essai. La norme décrit les conditions que doivent remplir les salles réverbérantes en termes de volume, de forme générale et de résonance sans échantillon.

2.5      La norme ISO 354 et les coefficients d’absorption dépassant 1

Ce long chapitre explore quelques pistes expliquant l’apparition de coefficients d’absorption supérieurs à 1. Il est donné dans un souci de complétude et de transparence. Le lecteur trouvera les conclusions de ce développement directement au point 2.5.8.

2.5.1    Généralités

Quelle interprétation donner aux coefficients d’absorption qui dépassent la valeur maximale physiquement possible de 1. La norme elle-même annonce que « le coefficient d’absorption acoustique déterminé d’après les mesurages de durée de réverbération peut prendre des valeurs plus grandes que 1 », sans préciser de limite.

Il est possible que les auteurs de la norme aient considéré que cette anomalie ne posait pas de problème particulier puisque l’objectif principal de la démarche était d’évaluer, au moyen de la Loi de Sabine, le temps de réverbération d’un espace à construire ou l’amélioration apportée par un traitement absorbant dans un espace existant, à partir de la géométrie du local et de ses différentes parois, auxquelles sont associés leurs coefficients d’absorption mesurés selon la norme et donc sur base de cette même Loi. Si des anomalies entraînent des coefficients d’absorption non parfaitement corrects, en particulier supérieurs à 1, ces mêmes anomalies seront présentes, avec une action inverse, dans l’évaluation de la réverbération.   

Il n’en va pas de même pour l’évaluation d’autres paramètres acoustiques que la réverbération, comme la propagation des bruits avec la distance ou la détermination pure de la qualité d’absorption des matériaux et solutions acoustiques, dans un but de certification ou de conformité à un cahier des charges.

La norme explique que les valeurs du coefficient d’absorption dépassant l’unité proviennent « du fait, par exemple, des effets de diffraction ». C’est le seul commentaire (laconique) sur le sujet. Certains laboratoires reprenant ce point ajoutent que cette diffraction s’opère sur les arêtes des échantillons testés.

La diffraction n’étant pas un phénomène dissipatif n’est pas responsable directement de la surestimation de l’absorption. Au contraire, en redistribuant l’énergie dans d’autres directions, elle participerait plutôt à la production du champ diffus spécifié comme requis dans la norme.

Un début d’explication pourrait se trouver dans le fait que la diffraction perturbe les rayons sonores et affecte le cadre dans lequel est défini et évalué le libre parcours moyen des rayons sonores utilisé dans l’établissement de la Loi de Sabine. Présenté sous cette forme, l’anomalie ne procèderait plus de l’échantillon en tant que tel mais de la méthode d’évaluation.

La norme cite la diffraction en l’adjoignant d’un « par exemple ». Ceci laisse supposer que d’autres phénomènes entrent en jeu. C’est le sujet des points suivants, qui touchent tous la méthode d’évaluation et donc la norme elle-même.

2.5.2    Loi de Sabine et Loi de Eyring

Nous avons vu au chapitre précédent que la valeur de la réverbération calculée par la Loi de Sabine tendait vers une valeur finie lorsque l’absorption devenait maximale, ce qui est contraire à l’attente physique. De manière générale, elle fournit une valeur supérieure à la valeur réelle, et s’en éloigne d’autant plus que l’absorption est élevée.

Il est d’usage dans la littérature de considérer que le champ de validité de la Loi de Sabine s’étend sur une fenêtre de coefficients d’absorption moyens allant de 0.0 à 0.2, comme illustré sur le graphique suivant, calculé pour la fréquence de 2 kHz avec les données d’une chambre réverbérante de 221 m³.

Au-delà de alpha moyen 0.2, une autre formulation (Eyring, Millington, etc) est recommandée pour l’évaluation de la réverbération.

Pour des valeurs proches de alpha Sabine nul, les deux courbes se rejoignent. Plus l’absorption augmente, plus les courbes s’éloignent l’une de l’autre.

Pour les salles réverbérantes répondant aux critères de la norme, l’alpha Sabine moyen reste bien sous la valeur 0.2, dans la plage verte du graphique ci-dessus.

Ainsi dans les conditions de test d’un échantillon absorbant d’une dizaine de m², la salle vide présente un alpha moyen, intégrant l’absorption de l’air, de 0.032 pour la salle vide et de 0.09 pour la salle avec l’échantillon testé (évalué pour 2 kHz au moyen de la Loi de Sabine). La valeur maximale pour le test est obtenue avec l’échantillon pour la fréquence de 5 kHz : 0.13, soit toujours sous la barre de 0.2. Ce calcul permet de comprendre pourquoi la taille des échantillons à tester doit être suffisante pour obtenir une variation significative de la réverbération, mais pas trop grande pour éviter de sortir de la plage de validité annoncée.

Le respect de ce critère, retenu habituellement dans les projets, laisse penser que la Loi de Sabine et la Loi de Eyring fournissent des résultats similaires et que donc la première est dans ces conditions suffisamment fiable pour déterminer les coefficients d’absorption.

Le graphique suivant illustre l’erreur relative entre les évaluations de la Loi de Sabine et de la Loi de Eyring.

L’écart relatif augmente de manière continue en passant de alpha Sabine 0 à alpha Sabine 1.

La limite de validité arrêtée arbitrairement à alpha Sabine 0.2 correspond à une erreur relative de 10 %.

Si les matériaux testés présentent une très faible absorption (pierre, brique, bois, plâtre, PVC, métal, tissu tendu, etc), alors l’alpha Sabine moyen reste très petit et l’écart entre les deux formulations reste minime. Par contre, pour des matériaux ou objets hautement absorbants, même si l’absorption moyenne de la salle reste sous les 0.2, les deux lois ne peuvent plus être utilisées indifféremment.


Les valeurs de réverbération résultant de la modélisation par la Loi de Sabine sont supérieures aux résultats fournis par la Loi de Eyring, et donc à la réalité. Si une valeur vraie d’absorption donne, via la Loi de Sabine, une réverbération surévaluée, alors, comme les temps de réverbération mesurés sont bien réels, il est nécessaire que les coefficients d’absorption déduits via la Loi de Sabine soient supérieurs à la réalité.

En d’autres termes, il est nécessaire de  « gonfler » les coefficients alpha Sabine, pour qu’au travers du prisme déformant de la Loi de Sabine, les temps de réverbération surévalués par la modélisation soient callés (ici réduits) sur les valeurs réelles mesurées.

C’est bien ce que donne le calcul si la modélisation de la Loi de Sabine est remplacée dans la norme par la modélisation plus réaliste (mais toujours imparfaite) de la Loi de Eyring.


Le graphique suivant fournit les coefficients alpha Sabine d’un test réel sur un élément hautement absorbant en utilisant soit la Loi de Sabine, soit la Loi de Eyring (avec l’hypothèse que dans les deux cas la définition des coefficients alpha moyens est celle de l’approche de Sabine).

Les valeurs d’absorption sont faibles dans les basses fréquences, et les coefficients obtenus par les deux Lois sont proches. Par contre, dans les moyennes et hautes fréquences, la différence n’est pas négligeable et la Loi de Sabine surévalue les coefficients d’absorption, ici avec des valeurs dépassant l’unité, qui est le maximum au sens de la physique.

2.5.3    Champ diffus et libre parcours moyen

Dans son introduction la norme ISO 354 précise l’importance de l’uniformité de l’intensité acoustique dans la salle de test, c’est-à-dire la présence d’un champ diffus. La raison évoquée est l’obtention d’une valeur d’absorption valable sous tous les angles d’incidence (l’absorption est en effet aussi fonction de l’angle d’incidence de l’onde).

Une autre raison fondamentale requiert la présence d’un champ parfaitement diffus : la validité du modèle utilisé par la norme pour déduire de la réverbération l’absorption du matériau évalué. La Loi de Sabine (comme la Loi de Eyring) est en effet élaborée à partir de l’hypothèse d’un champ parfaitement diffus. Une troisième raison est la propreté des courbes de décroissance qui est l’objet du point suivant 2.5.4 « Evaluation de la durée de réverbération ».

Comme écrit plus haut, un champ diffus est d’autant plus aisé à obtenir que les parois du local ne sont pas parallèles entre elles, que les matériaux produisent des réflexions diffuses et/ou que l’absorption des différentes parois est plutôt faible et que cette absorption est répartie de manière assez uniforme sur les différentes parois.

Ceci explique pourquoi les murs de certaines salles réverbérantes ne sont plus perpendiculaires entre elles, et que le plafond est en pente.

Lorsque les matériaux testés sont faiblement absorbants, la répartition des absorptions dans la salle réverbérante est assez homogène. Avec des éléments hautement absorbants, elle ne l’est plus et l’hypothèse d’un champ parfaitement diffus n’est plus totalement respectée.

Pour pallier le manque d’uniformité du champ énergétique dans l’espace, des diffuseurs sont habituellement introduits dans la salle. Il s’agit d’éléments de surface le plus souvent convexe de manière à réfléchir les ondes dans un grand nombre de directions.

Dix voire vingt éléments sont introduits dans la salle et développent une surface (projetée) de quelques dizaines de mètres carrés.

salle réverbérante avec diffuseurs (source Brüel & Kjӕr)

Seulement, l’introduction de ce type d’éléments pose deux problèmes :

  • si l’apparition de coefficients d’absorption dépassant l’unité est attribuée à des effets de diffraction sur les arêtes des échantillons testés, alors qu’en est-il avec ces éléments finis en grand nombre sur lesquels les ondes viennent également se diffracter ? On pourrait rétorquer que les diffuseurs sont présents lors des mesures à vide et en présence de l’échantillon, ce qui annulerait leur effet. La norme ne le précise pas.
  • la présence de ces éléments suspendus dans le volume de la salle vient en contradiction avec la deuxième hypothèse à la base de la loi de Sabine, à savoir l’évaluation du libre parcours moyen par la formule simple lm = 4V/S, qui est établie dans une salle vide.

Les mêmes remarques et réticences peuvent être formulées à l’égard des objets discrets introduits dans la salle. Avec des panneaux de séparation en position debout, le libre parcours moyen est encore plus perturbé.

Si le libre parcours moyen réel est plus petit du fait de l’introduction de diffuseurs, et aussi de l’échantillon à tester, le nombre de réflexions par seconde est plus grand que dans la salle vide. Les ondes viennent toucher plus fréquemment les objets et les échantillons absorbants testés. Ces derniers sont donc plus sollicités ; ils « travaillent » mieux et dissipent plus rapidement l’énergie acoustique.


Le temps de réverbération mesuré est donc plus court que celui qui aurait été mesuré sans diffuseurs (mais toujours avec un champ diffus). Or la formulation de Sabine utilisée dans la procédure de la norme considère une salle vide.

La diminution de réverbération, si elle n’est pas décrite dans le modèle par un libre parcours moyen plus petit, c’est-à-dire que l’hypothèse de la salle vide est conservée malgré la présence d’objets, alors le modèle expliquera le temps de réverbération mesuré réduit par une absorption plus importante. Ce gain en terme d’absorption est ainsi attribué à l’échantillon testé.


Le graphique suivant illustre les coefficients d’absorption (du produit pris en exemple plus haut) déduits des temps de réverbération observés dans la salle avec diffuseurs, en considérant que le libre parcours moyen est réduit de 5% sans échantillon ou avec échantillons contre une paroi (comme dans le test AIRO), et de 8% avec les échantillons placés en position debout (hypothèse). Le calcul est basé sur la Loi de Sabine.

Il apparaît que non seulement la présence des diffuseurs gonfle l’évaluation du coefficient d’absorption, mais la position debout des échantillons entraîne une surévaluation subséquente, en introduisant une différence de libre parcours moyen entre la salle sans échantillon et la salle avec échantillon.

Une évaluation plus réaliste du libre parcours moyen n’est pas impossible (par exemple par simulation tridimensionnelle de tir de rayons), mais il restera la question de la pertinence de la notion même de rayon sonore en présence d’objets diffractants.

2.5.4    Evaluation de la durée de réverbération

La présence d’un champ parfaitement diffus permet de considérer que la dissipation de l’énergie acoustique dans le volume de la salle s’opère bien de manière continue et proportionnelle à cette énergie, en suivant une exponentielle décroissante. Exprimée en niveau sonore en décibel, la décroissance théorique prend la forme d’une droite décroissante.

Le graphique suivant illustre l’extinction réelle d’un son observée dans un lieu qui présente un grand volume et des matériaux très réfléchissants. La réverbération y est élevée et le champ quasiment diffus.

Comme défini plus haut le temps de réverbération est le temps nécessaire pour observer une chute de 60 décibels après extinction de la source sonore. Cette grande plage de niveaux correspond à la durée de réverbération maximale audible en pratique lors des essais menés il y a une centaine d’années par les chercheurs uniquement munis de chronomètres.

Evaluer directement la durée de réverbération n’est pas aisée en raison des variations, mêmes de faibles amplitudes, visible sur la courbe. Une meilleure précision est obtenue en mesurant la pente de la droite, via une régression linéaire. Ceci permet en outre d’évaluer la réverbération sur des différences de niveaux moindre que les 60 décibels de la définition (par exemple sur les 20 ou 30 premiers décibels de la décroissance).

Les courbes de décroissance sont linéaires lorsque les matériaux sont réfléchissants ou faiblement absorbants, et qu’ils sont disséminés de manière homogène sur les parois du local ou de la salle de test.

Lorsque la salle présente une hétérogénéité dans la répartition des matériaux (comme lors d’un test sur un échantillon hautement absorbant), le champ n’est plus parfaitement diffus, l’énergie n’est pas homogène dans l’espace, et la courbe des temps de réverbération n’est plus parfaitement linéaire : elle présente une concavité vers le haut.

Ce phénomène est illustré sur le graphique suivant obtenu dans une salle vide présentant un plafond absorbant, une moquette au sol et des parois verticales réfléchissantes (pas de diffuseurs).

De manière très simplifiée, la première partie de la courbe (à gauche), plus pentue, traduit la diminution de l’énergie correspondant au faisceau d’ondes qui voient l’échantillon absorbant ; la dernière partie de la courbe, décroissant le moins vite, correspond à la diminution de l’énergie correspondant au groupe d’ondes qui ne voient pas ou peu l’échantillon.

Dans le cas d’un échantillon posé au sol, la première partie correspondrait aux ondes verticales (entre plafond et sol), la dernière partie correspondrait aux ondes horizontales (parois réfléchissantes). La partie intermédiaire correspondrait aux ondes « obliques » qui voient partiellement l’échantillon absorbant. La division en trois périodes ci-dessus est arbitraire et réalisée dans un but uniquement didactique ; en réalité, les ondes se propageant dans de très nombreuses directions, la transition est continue entre la pente raide du début et la pente plus douce de la fin de l’extinction, ce qui donne la courbure de la fonction décroissante.

Pour l’évaluation des temps de réverbération, la prise en compte de la première partie des courbes conduit à des alpha Sabine bien meilleurs que la deuxième partie ou la troisième partie.

L’introduction des diffuseurs dans la salle réverbérante favorise le rétablissement d’une courbe de décroissance linéaire. Ces données brutes ne sont cependant pas reprises dans les rapports d’essais et il n’est pas possible de déterminer si une non-linéarité éventuelle des courbes a affecté l’évaluation de la réverbération et donc de l’absorption d’un échantillon.

2.5.5    Effets de bord

Sous ce point sont rassemblés quelques commentaires sur des hypothèses simplificatrices de second ordre introduites dans la procédure d’évaluation de l’absorption.

Surface couverte par l’échantillon

D’abord, lorsque l’échantillon à tester est posé contre une paroi de la salle, la surface occultée par l’échantillon n’est pas déduite dans le calcul.

La formule donnant l’aire d’absorption de la salle avec échantillon, utilisée dans la procédure, est A2 = α2S2 = α1S1 + αeSe où ici l’indice 2 correspond à la salle avec échantillon, l’indice 1 à la salle sans échantillon et l’indice e à l’échantillon lui-même. En réalité, il conviendrait de soustraire de la surface des parois de la salle, la surface couverte par l’échantillon, à savoir utiliser à la place la formule A2 = α2S2 = α1S1 – α1Se + αeSe

L’incohérence apparaît clairement pour des échantillons dont l’absorption est identique aux matériaux de la salle : théoriquement si l’absorption globale n’est pas modifiée par l’introduction de l‘échantillon, les temps de réverbération restent constants et la norme en déduit une absorption nulle. A l’inverse, pour des échantillons un tant soit peu absorbants, α1 est petit devant αe et Se est petit devant S1, ce qui explique la simplification.

A titre d’illustration, pour les données du test repris plus haut à titre d’exemple, S1 vaut 225 m², Se vaut 12 m², α1 vaut 0.032 à 2 kHz, et en posant α= 1 à 2 kHz, nous avons les produits suivants :

                                    α1S= 7.24 m²

                                  αeS= 12.00 m²

et            α1S= 0.39 m², soit 2% de A2  ce qui est considéré comme négligeable.

Le coefficient d’absorption fourni par la méthode correspond donc à (αeα1), soit ici une valeur du coefficient d’absorption de l’échantillon très légèrement sous-estimée (d’une valeur de α1).

Cette correction n’a plus lieu d’être pour des échantillons suspendus n’occultant aucune surface de la salle. Pour des panneaux de séparation placés debout, c’est la surface de la tranche qui vient occulter le sol, soit une proportion encore plus faible d’un ordre de grandeur que pour un échantillon couché.

Volume de l’échantillon

La norme considère que le volume de la salle reste inchangé sans et avec l’échantillon testé. La valeur à prendre en considération est le volume de la salle vide. La formule exprimant l’aire d’absorption équivalente AT de l’échantillon est

où   V est le volume de la salle vide, en m³

 c1 est la célérité de l’air dans la salle vide, en m/s

c2 est la célérité de l’air dans la salle avec échantillon, en m/s

T1 est la réverbération dans la salle vide, en s

T2 est la réverbération dans la salle avec échantillon, en s

m1 est le coefficient d’atténuation de puissance de l’air dans la salle vide, en m-1

m2 est le coefficient d’atténuation de puissance de l’air avec échantillon, en m-1

A noter une coquille dans le texte de la norme : la définition de m2 a été recopiée sur celle de m1 et fait donc référence à la salle vide au lieu de la salle après introduction de l’échantillon. Appliqué à la lettre, le texte de la norme conduirait à ne pas prendre en compte la correction due à l’absorption de l’air.

En ne considérant plus que le volume de l’échantillon introduit dans la salle soit négligeable devant le volume d’air de la salle, la formule (8) devient

où        V1 est le volume (d’air) de la salle vide, en m³

             V2 est le volume (d’air) de la salle avec échantillon, en m³

Comme V2 est plus petit que V1, l’aire d’absorption équivalente de l’échantillon calculée selon la formule (9) se verra diminuée par le premier terme entre parenthèse (comprenant les temps de réverbération) et augmentée par le second terme (comprenant l’influence de l’absorption de l’air). La correction sur l’absorption de l’air étant de faible amplitude, de surcroît limitée aux hautes fréquences, l’absorption de l’échantillon est donc surévaluée par la formule (8) utilisée par la norme par rapport à la formule (9) plus réaliste.

Le graphique suivant compare les coefficients d’absorption évalué selon les formules (8) et (9) à partir des données du test repris plus haut comme exemple. Une troisième courbe traduit l’absorption qui aurait été mesurée si l’échantillon était monté comme une dalle de plafond avec un plenum de 30 cm (soit avec une différence de volumes plus conséquente).

La correction est de l’ordre de 0.5 % pour l’échantillon installé contre une paroi ; il monte à 3 % pour les solutions avec plenum, ce qui n’est pas négligeable.

Cadre et coffrage autour des échantillons

Les échantillons testés ne sont pas d’épaisseur nulle ; ils possèdent tous une tranche qui est également exposée au champ sonore de la salle réverbérante.

Cet effet est maximal dans le cas du montage des dalles de plafond au moyen d’un coffrage permettant de recréer un plenum reproduisant au mieux les conditions réelles d’installation dans les bâtiments, comme illustré sur la photo ci-contre (source à retrouver).

Même s’ils sont constitués de matériaux moins absorbants que l’échantillon proprement dit, ils participent à la dissipation de l’énergie acoustique et leur contribution est attribuée à l’échantillon testé.

2.5.6    Théorie des erreurs

Les valeurs observées des paramètres physiques mesurés sont entachés d’une certaine incertitude ou erreur.

En métrologie, lorsqu’une grandeur est obtenue à partir d’autres grandeurs au travers d’une formule, il importe d’analyser si l’erreur relative sur les grandeurs mesurées amplifie ou non l’erreur relative sur la grandeur recherchée.

Les grandeurs d’entrée de la formule (8) sont le volume de la salle vide, les températures, pressions et hygrométries de l’air dans la salle vide et avec échantillon, et les temps de réverbération dans la salle vide et avec échantillon. Les célérités du son dans l’air sont obtenues à partir des températures de l’air ; les coefficients d’atténuation de puissance de l’air sont obtenus par des formules complexes (au sens commun) à partir des températures, pressions et hygrométries de l’air. Pour l’évaluation du coefficient alpha Sabine (ici la grandeur de sortie), il convient d’ajouter à la liste la surface de l’échantillon.

L’étude de la propagation d’erreur au travers de la formule (8) est conséquente et sort du cadre de la présente discussion. Le lecteur ou la lectrice intéressé(e par cette démarche mathématique et statistique pour visiter la page correspondante en cliquant ici.

Cette étude permet d’énoncer les conclusions suivantes :

  • seule la grandeur T2  amplifie l’incertitude. C’est malheureusement aussi celle qui est la plus sujette à questionnement comme expliqué dans les points précédents,
  • si tous les grandeurs mesurées sont entachées d’une même incertitude (par exemple 5% d’erreur), alors l’incertitude sur le coefficient d’absorption est plus que doublé (c’est-à-dire qu’il sera entaché d’un risque d’erreur de plus de 10 %).
  • cette propagation d’erreur est observée pour les fréquences médianes ; l’incertitude sur la valeur de l’absorption est plus importante encore aux basses et aux hautes fréquences.

2.5.7    Discussion – Synthèse

Il est d’abord essentiel de comprendre que la définition du coefficient alpha Sabine αS ne représente pas stricto sensu l’absorption au sens physique d’un matériau. Tout au plus s’en approche-t-il sous des conditions bien précises et restrictives. Des valeurs excédant l’unité de manière importante peuvent être théoriquement justifiées.

Dans le même sens, la norme ne prétend pas mesurer l’absorption en tant que telle (la propriété physique), mais bien l’absorption telle que la procédure de la norme l’évalue (comme le test de QI ne mesure pas l’intelligence en tant que telle, mais seulement l’intelligence dans sa dimension mesurée par le test de QI).

Il convient de noter également que la distinction entre absorption physique et absorption évaluée par la norme touche toutes les valeurs obtenues par la méthode, et non pas uniquement celles dépassant l’unité.

Cependant, comme ces dernières valeurs heurtent le bon sens et sont à l’origine de questionnement, il est naturel d’essayer de comprendre pourquoi elles peuvent apparaître.

Les considérations touchant l’usage de la Loi de Sabine, la notion de libre parcours moyen et les simplifications de second ordre sur les surfaces et volumes de l’échantillon testé permettent une première explication de valeurs surévaluées pouvant dépasser l’unité.


En appliquant simultanément les ajustements correspondants dans l’évaluation du coefficient alpha Sabine, les résultats du test pris en exemple repassent sous la barre de l’unité, comme illustré sur le graphique suivant.

Le fait de retrouver des valeurs cohérentes avec le sens physique ne doit pas tromper en laissant penser que ces valeurs représentent l’absorption au sens physique. Les indices obtenus restent une évaluation de cette absorption au moyen d’une modélisation, certes légèrement meilleure, mais qui se base toujours sur des hypothèses simplificatrices et une approche géométrique de l’acoustique. D’autres théories et approches semblent montrer que l’obtention d’un champ parfaitement diffus n’est pas possible en présence d’un échantillon hautement absorbant, même en prenant toutes les précautions (salle réverbérante, diffuseurs).

Les limitations de la Loi de Sabine ont été pointées très rapidement après son établissement (dès les années 1930) et des méthodes alternatives d’évaluation de l’absorption ont été suggérées. Aucune d’entre elles n’a remplacé à ce jour la méthode par chambre réverbérante : pour y parvenir, il est en effet nécessaire de proposer une méthode plus précise, avec une robustesse, une facilité de mise en œuvre et une économie de moyens au moins égales.

Des travaux sont toujours en cours actuellement.

Les développements précédents éclairent cependant la question :

  • en permettant de mesurer la complexité de l’évaluation de l’absorption d’un matériau, voire de sa définition même. A noter à ce titre que les considérations reprises ici sont plutôt de l’ordre de l’ingénieur praticien et sont simples par rapport aux développements fondamentaux d’un théoricien pur,
  • en soulignant les limitations de la science qui fonctionne par une série de boucles fermées « observation-expérimentation-modélisation » visant à mettre ces trois dimensions de mieux en mieux en adéquation. La science n’est pas la vérité mais une démarche continue convergeant vers une vérité inaccessible : « En science n’est vrai que ce dont on peut démontrer la fausseté »,
  • en expliquant pourquoi certains résultats hors du bon sens sont possibles, du fait d’une modélisation simplifiée basée sur des hypothèses qui ne traduisent pas (toute) la réalité,
  • plus directement et concrètement, en donnant un ordre de grandeur des « dérives » possibles lors de l’évaluation de l’absorption par la méthode en chambre réverbérante décrite dans la norme ISO 354.

Les corrections appliquées ici permettent d’expliquer les dépassements au-delà de l’unité tels qu’ils apparaissent le plus fréquemment dans les rapports d’essais en laboratoire, à savoir jusqu’autour de 1.3 alpha Sabine.

L’analyse de la propagation d’erreur en métrologie est le deuxième axe d’explication possible des valeurs dépassant l’unité.

Le graphique illustrant l’évanouissement du son dans une salle vide, sans champ diffus (point 2.5.4 « Evaluation de la durée de réverbération »), montre que l’évaluation des temps de réverbération peut être délicate si la courbe n’est pas linéaire. Dans l’exemple, les valeurs s’étendent de 0.8 s à 1.1 s, soit un écart de 37 % qui peut conduire à une valeur déduite de l’absorption approchant un coefficient alpha Sabine hors du bon sens physique de 2.

Ce risque n’est pas qu’hypothétique : un essai effectué sur un rideau acoustique dans un espace de bureau réel (en présence donc de matériaux absorbants comme la moquette, le plafond et le mobilier) où le temps de réverbération initial était déjà réduit, a conduit le fabricant à annoncer sur la brochure commerciale du produit des valeurs alpha Sabine de l’ordre de 0.9. L’application de la théorie des erreurs a permis de conclure que la valeur de l’absorption déduite des temps de réverbération très proches pouvait s’étendre de 0.1 à près de 2, selon l’appréciation des pentes (non constantes) sur les courbes d’évanouissement. L’absorption réelle du rideau ne dépassait pas 0.2 alpha Sabine mesuré dans une vraie chambre réverbérante, où les évanouissements sont plus linéaires et les réverbérations avec et sans l’échantillon beaucoup plus distinctes.

La publication dans les rapports d’essais des courbes d’évanouissement permettrait d’évaluer le risque lié à la non linéarité éventuelle des courbes d’évanouissement.

Chapitre 3 : Tentatives d’explications

La discussion ci-dessous ne résulte pas d’une analyse scientifique ou d’une enquête auprès des acteurs du marché pour expliquer les raisons à l’origine de l’apparition de plus en plus de résultats d’absorption dépassant largement alpha Sabine 1.

Elle propose quelques pistes d’explication probable, basées sur près de 30 ans d’expérience, dans le but d’éclairer le lecteur sur une situation qui conduit à considérer l’acoustique comme complexe et ses traitements chers pour l’amélioration apportée.

La liste des tentatives de clarification ci-dessous n’est pas exhaustive.

La problématique de l’absence d’une qualification claire et correcte de l’absorption acoustique des matériaux et objets tient de la dialectique de la poule et de l’œuf. Les différents intervenants du marché se retrouvent, malgré toute leur bonne volonté, acteurs et victimes de dérives qui contaminent l’économie du secteur (voir schéma synthétique page suivante).

Comme évoqué précédemment, la norme ISO 354 permet la production de valeurs d’absorption qui dépassent l’unité et heurtent le sens physique. Sans préciser de plafond raisonnable, la norme ouvre la porte à des valeurs au-delà de ses intentions et à une surenchère dans les performances annoncées par les fabricants.

Les normes sont vues comme un cadre garant de l’exactitude et de la précision scientifiques. Malheureusement, alors qu’elles devraient être un support à la réflexion, elles sont le plus souvent utilisées comme dispense de réflexion, agissant comme une boîte noire dont le mécanisme interne, validé une fois pour toute en amont, fournit une certification indiscutable pour tous.

La norme ISO 354 est basée sur des hypothèses et des modélisations qui ont leurs limites. La classification simple du pouvoir absorbant, sous la forme d’un indice unique facilitant la comparaison et la certification des produits, objet de la norme ISO 11654 par exemple, impose le calcul d’une moyenne dont la pondération ne peut couvrir avec pertinence tous les cas de figure.

A défaut d’une approche meilleure, les normes ISO 354 et ISO 11654 restent d’application courante malgré leur limitation et les dérives qu’elles permettent et produisent. Les valeurs qu’elles fournissent, même si elles ne décrivent par le comportement physique vrai des produits, peuvent cependant être utilisées de manière satisfaisante dans la prédiction de la réverbération des projets concrets, puisque cette modélisation se base sur les mêmes lois et les mêmes dérives.

Par ailleurs, la base existante de données d’absorption est très large et la réévaluation des performances au moyen d’une méthode alternative représenterait un coût très important. L’amortissement des investissements appréciables pour la construction des chambres de laboratoire et l’acquisition des équipements de mesure milite également pour le maintien des procédures actuelles.

Enfin, force est de constater que les normes ne reflètent pas nécessairement et uniquement les connaissances scientifiques du domaine traité en vue d’aider les différents intervenants, mais subissent des pressions pour établir un cadre obligatoire dans le but de nourrir des intérêts commerciaux.

Les laboratoires d’essais sont tenus d’appliquer le texte des normes pour que les résultats qu’ils fournissent soient indiscutables et officiels pour tous. Ils n’ont pas pour vocation de commenter ou d’analyser la teneur des résultats. Ils propagent ainsi les dérives possibles : les coefficients d’absorption dépassant l’unité ne sont plus une éventualité évoquée dans la norme mais une réalité matérialisée et de plus en plus banalisée dans les procès-verbaux d’essais.


Les procédures accommodantes, comme par exemple l’évaluation des écrans de séparation en position couchée, valident cet écart de méthode et le niveau de performance élevé auquel les autres produits similaires peuvent alors prétendre. En particulier, l’association d’une classe d’absorption aux écrans est rendue possible dans le cadre de la norme ISO 11654 alors que cette dernière exclut les objets distincts de son champ d’application.

La production de procès-verbaux certifiant des résultats hors du sens commun et non strictement conformes à l’esprit et au texte des normes permet aux clients d’introduire dans leur cahier des charges des exigences élevées qui sont jugées accessibles puisque disponibles sur le marché.

En favorisant par le jeu de la concurrence les produits les plus performants, en stimulant la recherche et le développement de solutions de plus en plus absorbantes, les clients participent à la surenchère dans les chiffres. Un produit annonçant un coefficient alpha Sabine de 1.2 sera jugé meilleur absorbant qu’un produit évalué à alpha Sabine de 1.0, ce qui n’est pas garanti.

En faisant référence aux normes comme cadre juridique d’appréciation, les cahiers des charges imposent aux fabricants de faire appel aux laboratoires d’essais pour certifier leurs produits. Il est par ailleurs délicat pour les fabricants de critiquer un cahier des charges.

Par un jeu de sélection naturelle, les fabricants finiront par privilégier les laboratoires d’essais qui fournissent les résultats les plus avantageux. Les laboratoires et les fabricants trop rigoureux (par exemple certaines brochures majorent les résultats à 1 alpha Sabine) risquent de se voir éliminés du marché.

La boucle est ainsi bouclée. 

Discussion sur la propagation d’erreur de la loi de Sabine

Préambule

La problématique de l’évaluation correcte de l’absorption est essentielle dans le choix du plafond lors de la conception ou de l’amélioration du confort acoustique dans les espaces paysagers. Un plafond annoncé sur le papier à 1.1 alpha Sabine peut très bien ne développer qu’une absorption physique réelle autour de 0.8 alpha Sabine. Or la nuisance et le bruit subis par les occupants proviennent en grande partie de la contribution réfléchie et non absorbée par le plafond.

Une discussion sur les causes de dérives dans l’évaluation de l’absorption des produits acoustique est donnée dans la section accessible ici.

Cette discussion couvre de manière  sommaire la problématique de la propagation d’erreurs au travers de la formule permettant de calculer l’absorption en fonction des conditions de test. Le lecteur ou la lectrice intéressé(e) trouvera ici l’approche mathématique et statistique détaillée qui a conduit aux conclusions énoncées.

2.5.6    Théorie des erreurs

Les valeurs observées des paramètres physiques mesurés sont entachés d’une certaine incertitude ou erreur.

Si v  représente la vraie valeur d’un paramètre, et vm la valeur observée, alors

e est l’erreur absolue sur v. L’erreur relative sur v  est donnée par

En métrologie, lorsqu’une grandeur est obtenue à partir d’autres grandeurs au travers d’une formule, il importe d’analyser si l’erreur relative sur les grandeurs mesurées amplifie ou non l’erreur relative sur la grandeur recherchée.

Les grandeurs d’entrée de la formule liant absorption et réverbération (formule 8 de la discussion de base) sont le volume de la salle vide, les températures, pressions et hygrométries de l’air dans la salle vide et avec échantillon, et les temps de réverbération dans la salle vide et avec échantillon. Les célérités du son dans l’air sont obtenues à partir des températures de l’air ; les coefficients d’atténuation de puissance de l’air sont obtenus par des formules complexes (au sens commun) à partir des températures, pressions et hygrométries de l’air. Pour l’évaluation du coefficient alpha Sabine (ici la grandeur de sortie), il convient d’ajouter à la liste la surface de l’échantillon.

L’étude de la propagation d’erreur au travers de la formule (8) ne peut être réalisée aisément de manière analytique (c’est-à-dire par déduction mathématique pure), en particulier en raison de la complexité des formules sous-jacentes pour l’évaluation de m.

L’approche retenue ici est basée sur une analyse statistique par une méthode de type Monte-Carlo. Le principe est le suivant :

  • chaque grandeur d’entrée est considérée comme une variable aléatoire dont la moyenne est la valeur observée et la déviation standard est choisie arbitrairement (la sensibilité à cette déviation standard, c’est-à-dire à l’incertitude sur les grandeurs d’entrée, est l’objet principal de la démarche),
  • la distribution de probabilité retenue est la loi normale (courbe en cloche ou courbe de Gauss),
  • un algorithme génère des nombres aléatoires qui permettent de recréer une série de valeurs pour la grandeur d’entrée, valeurs qui respectent la distribution aléatoire autour de la valeur observée (moyenne) avec la déviation standard retenue,
  • l’opération est reproduite pour chaque grandeur d’entrée dont l’influence sur la grandeur de sortie est analysée,
  • avec une grandeur d’entrée aléatoire seule ou un jeu de grandeurs d’entrée aléatoires, la grandeur de sortie est calculée,
  • le calcul est répété pour un très grand nombre de jeux de grandeurs d’entrée, de manière à produire un grand nombre de grandeurs de sortie dont on peut calculer la moyenne et la déviation standard,
  • la déviation standard (l’incertitude) sur la grandeur de sortie est alors comparée à la déviation standard des grandeurs d’entrée.

En résumé, la méthode répond à la question : si une grandeur d’entrée est connue avec une incertitude de x%, quelle va être l’incertitude sur la grandeur de sortie ? Sera-t-elle plus grande que x%, auquel cas l’erreur est amplifiée, ou au contraire plus petite que x%, auquel cas le résultat est peu (ou moins) sensible aux variations de la grandeur d’entrée.

A titre d’illustration, prenons l’influence de la température de l’air sur la célérité du son. La norme ISO 354 utilise la formule suivante pour lier les deux grandeurs :

où                                c  est la célérité du son dans l’air, en m/s

                                     t  est la température de l’air, en °C, dans l’intervalle [15°C ;30°C].

Considérons une température de l’air dans la salle vide pour l’exemple repris dans la discussion de base, soit 12°C. Cette valeur sera la moyenne de notre grandeur d’entrée. Pour l’incertitude exprimée en langage courant en pourcentage, décidons arbitrairement de dire que 1 % d’incertitude correspondra à une écart-type de 1.  

Ces données sont visualisées sur le graphique suivant.

La courbe bleu ciel illustre l’histogramme des occurrences obtenu à partir de 50000 tirages aléatoires. La courbe bleu foncé (cachée derrière la courbe bleu ciel qu’elle épouse) est la courbe de densité de probabilité (courbe de Gauss) ramenée à l’échelle pour « coller » à l’histogramme.

Plus l’écart-type est faible, plus les valeurs sont rassemblées autour de la moyenne et les variations de la grandeur sont petites. Plus l’écart-type est grand plus la courbe est évasée et les valeurs individuelles peuvent s’éloigner de la valeur de la moyenne.

L’écart-type σ vaut ici par choix 1% de la valeur de µ, soit 0.12. Avec la loi normale retenue, les repères suivants peuvent être énoncés : 68% des valeurs se retrouvent dans une fenêtre définie par plus ou moins un écart-type de la moyenne, 95 % des valeurs sont dans l’intervalle borné par deux écarts-types de la moyenne.

L’injection des valeurs aléatoires de la température dans la formule (10) fournit une distribution aléatoire des célérités du son dans l’air, comme illustré sur les graphiques suivants.

Comme la température est multipliée par un facteur 0.6 inférieur à 1 et qu’un terme constant élevé (331) par rapport au produit (0.6 t) est ajouté, l’erreur relative sur la célérité est bien moindre que sur la température.

La formule (10) réduit l’erreur relative sur la célérité du son. Une incertitude de 1% sur la température conduit à un intervalle de [t-σ ; t+σ] = [12-0.12 ; 12+0.12] = [11.88 ; 12.12]. Ces valeurs injectées dans la formule (10) donnent [331+0.6*11.88 ; 331+0.6*12.12] = [338.13 ; 338,27]. Pour la moyenne µ = 12°C, c vaut 331+0.6*12= 338.20 m/s. L’incertitude absolue sur la célérité est de 338.27-338.20 = 338.20-338.13 = 0.07 m/s. L’incertitude relative vaut alors 0.07/338.2 = 0.00021 ou 0.021 % (à comparer à 1% sur la température).

En conclusion, la grandeur de sortie de la formule (10) (ici la célérité) est très peu sensible aux variations de la grandeur d’entrée (la température).

Ce n’est pas toujours le cas et la théorie des erreurs montre que le risque d’amplification de l’erreur relative est plus important en présence de division ou de soustraction. La formule (8) donnant l’aire d’absorption équivalente combine ces deux opérations dans le facteur contenant les inverses des temps de réverbération.


Analysons en détail l’impact de T2. Le graphique suivant illustre la transformation de la courbe de densité de probabilité de la réverbération T2 sur le coefficient alpha Sabine, toutes les autres grandeurs étant considérées sans erreur. Le calcul est mené au moyen de la formule (8), pour la bande de tiers d’octave centrée sur 2 kHz et pour un écart-type valant 10%.

Notons d’abord que la formule (8) inverse les courbes de distribution : une valeur de T2  supérieure à la moyenne (ici 1.79 s) conduit à une valeur d’absorption inférieure à la moyenne (ici 1.08 alpha Sabine), comme illustré par les flèches orange.

Notons également que si la courbe de densité de probabilité (approche théorique, courbe bleu foncé) ou l’histogramme des occurrences (approche numérique, courbe bleu clair) sur la réverbération T2  répondent à une courbe de Gauss (par hypothèse), la courbe de densité de probabilité et l’histogramme des occurrences sur le coefficient alpha Sabine ne répondent plus à une distribution gaussienne. La formule (8), contrairement à la formule (10) pour la célérité, n’est pas linéaire et elle déforme la courbe de distribution.

Même si la distribution de probabilité sur le coefficient alpha Sabine n’est plus une courbe de Gauss, il est cependant toujours possible d’en calculer une valeur moyenne et un écart-type. Dans l’exemple ci-dessus, la moyenne vaut 1.1 alpha Sabine et l’écart-type vaut 0.175 alpha Sabine.

La moyenne 1.1 est plus haute que la valeur 1.08 correspondant à la réverbération moyenne  T2 = 1.79 s. Le glissement est dû à l’évasement de la courbe de distribution vers les hauts alpha Sabine. Avec un écart-type sur T2  de 10%, l’écart-type sur le coefficient alpha Sabine devient ici de 16.3 %. La formule (8) amplifie donc l’incertitude sur la valeur d’entrée T2.

Le tableau suivant reprend les résultats de la propagation de l’erreur relative sur le coefficient alpha Sabine à partir des incertitudes sur les paramètres d’entrée, pris séparément. Le calcul est mené pour une incertitude d’entrée de 1 %, 5 % et 10 %, et pour la fréquence de tiers d’octave centrée sur 2 kHz. Il est basé sur 50000 tirages aléatoires par résultat.

Grandeur d’entrée Incertitude d’entrée
1% 5 % 10 %
volume V 1% 5.02 % 10.01 %
température t1 0.06 % 0.29 % 0.59 %
pression p1 0.22 % 1.13 % 2.44 %
hygrométrie r1 0.12 % 0.59 % 1.23 %
réverbération T1 0.56 % 2.82 % 5.87 %
surface Se 1 % 5.02 % 10.43 %
température t2 0.04 % 0.19 % 0.38 %
pression p2 0.22 % 1.12 % 2.42 %
hygrométrie r2 0.12 % 0.59 % 1.24 %
réverbération T2 1.55 % 7.86 % 16.3 %

    Incertitude de sortie en fonction de l’incertitude d’entrée

Les valeurs imprimées en noir montrent des incertitudes quasi inchangées ; les valeurs imprimées en vert montrent une faible voire très faible sensibilité (incertitude significativement réduite); les valeurs en rouge montrent au contraire une amplification de l’incertitude.

Seule la grandeur T2  amplifie l’incertitude. C’est malheureusement aussi celle qui est la plus sujette à questionnement comme expliqué dans la discussion de base.

Jusqu’à présent, l’analyse n’a porté que sur l’influence des différentes grandeurs prises individuellement. Elle permet d’identifier les grandeurs à risque et celles pour lesquelles, isolément, une incertitude n’a que peu de conséquences.

En pratique, toutes les grandeurs sont entachées d’une erreur. Il convient dès lors d’évaluer la sensibilité de l’incertitude sur le coefficient alpha Sabine en fonction des incertitudes sur toutes les grandeurs d’entrée, prises simultanément. Ici réside l’intérêt de l’analyse numérique par la méthode de Monte-Carlo, afin d’évaluer l’influence croisée de tous les paramètres d’entrée.

Les graphiques de la page suivante montrent la distribution observée lors de 50000 tirages aléatoires touchant simultanément toutes les grandeurs d’entrée avec un écart-type de 10 %.

Remarque : dans la pratique, certaines grandeurs sont mesurables plus précisément que d’autres, c’est-à-dire que l’incertitude réelle variera d’un paramètre à l’autre. La même incertitude est ici appliquée à toutes les grandeurs par simplicité.


La grandeur T2  la plus sensible est prise comme référence d’entrée pour comparer ces graphiques avec ceux de la page 24.

Les courbes bleu foncé sur les trois graphiques rappellent l’analyse de l’influence de la seule grandeur T2. Lorsque les autres grandeurs d’entrée sont également affublées d’une incertitude de 10 %, les coefficients alpha Sabine déduits de la formule (8) ne sont plus sur la courbe bleu foncé du graphique supérieur droit ; un nuage de points apparaît qui traduit l’influence de l’incertitude sur les autres grandeurs que T2.

En conséquence, la courbe d’occurrences bleu clair sur le graphique de gauche (toutes grandeurs) n’épouse plus la courbe de densité de probabilité bleu foncé (grandeur T2  seule).

Sans surprise, l’incertitude sur les autres grandeurs entraîne un étalement de la courbe d’occurrences et une amplification subséquente de l’erreur relative. 

Le tableau suivant compare les incertitudes lorsque seule la réverbération et lorsque toutes les grandeurs sont entachées d’une incertitude.

Grandeur d’entrée Incertitude d’entrée
1% 5 % 10 %
réverbération T2 1.55 % 7.86 % 16.3 %
toutes grandeurs 2.2 % 11.2 % 23.4 %

 Incertitude de sortie en fonction de l’incertitude d’entrée

En conclusion, une incertitude égale appliquée conjointement à toutes les grandeurs conduit à plus que doubler l’incertitude sur le coefficient alpha Sabine.

Le graphique ci-dessous précise cet effet d’amplification de l’erreur relative. La courbe bleu ciel est la référence correspondant à une incertitude invariable (pas d’amplification ni de réduction de l’erreur), la courbe bleu foncé illustre l’incertitude réelle.

La formule (8) plus que double l’incertitude sur l’erreur relative. L’évolution n’est pas linéaire et plus l’incertitude sur les grandeurs d’entrée est importante, plus l’amplification s’accélère : à 20%  d’incertitude sur les grandeurs d’entrée correspond une incertitude sur le coefficient alpha Sabine de 58 %, soit une amplification par un facteur proche de 3.

Tous les calculs et les graphiques précédents ne concernent que la bande de tiers d’octave centrée sur 2 kHz. Les temps de réverbération et l’absorption de l’air dépendant de la fréquence des ondes, les incertitudes et leur propagation au travers de la formule (8) varieront également en fonction de la fréquence.

Le graphique suivant reprend l’évolution des incertitudes pour certaines grandeurs et leur combinaison, pour l’ensemble des fréquences prises en compte par la norme ISO 354 (entre 100 Hz et 5000 Hz).

Le calcul est mené pour deux incertitudes d’entrée (1% et 5%) et pour les grandeurs individuelles T1 et T2, pour leur combinaison, et pour l’ensemble des grandeurs. On retrouve à 2 kHz les valeurs observées précédemment.

Les remontées visibles aux deux extrémités de la fenêtre de fréquences s’expliquent par le fait que les temps de réverbération T1 et T2  y sont moins distants l’un de l’autre comparativement aux fréquences médianes. Ceci est dû, aux basses fréquences à l’absorption plus faible de l’échantillon (T2 remonte vers T1), et aux hautes fréquences à l’absorption plus importante de l’air (T1 et T2 sont conjointement réduits).

La courbe donnant le rapport entre T2 et T1 présente la même allure et confirme cette explication.

Dès lors, l’amplification de l’erreur relative est encore plus marquée aux extrémités de la fenêtre de fréquences. En corollaire, un coefficient alpha Sabine atteignant 2 serait possible à ces fréquences extrêmes avec des incertitudes sur les grandeurs d’entrée moindres qu’aux fréquences médianes (et en particulier à 2 kHz étudié plus haut).

Remarque : la démarche suivie ci-dessus pourrait laisser penser que la valeur moyenne d’une grandeur est la valeur physique vraie, dont on pourrait s’écarter d’une certaine erreur. En réalité, chaque valeur utilisée ici comme moyenne n’est rien d’autre qu’un échantillonnage (le fruit d’un ou quelques tirages aléatoires) autour de la valeur vraie qui, elle, est inaccessible (inconnue) et dont elle diffère d’une certaine erreur (également inaccessible et inconnue). Elle représente l’estimation la plus probable à défaut de mieux. Cependant, l’exercice mené ici, qui ne vise pas la détermination des valeurs vraies mais qui consiste à évaluer la propagation des incertitudes au travers d’une formule, reste tout à fait valable.  

2.5.7    Incertitude et reproductibilité

Le chapitre 8.2 de la norme aborde la question de la fidélité des résultats. L’incertitude est aux yeux de la norme liée à deux facteurs. Le premier concerne l’incertitude sur la mesure de la durée de réverbération, le second concerne la reproductibilité.

Ces deux notions ne sont que deux volets de la fiabilité des résultats, car elles ne touchent que la fiabilité de la mise en œuvre de la méthode, pas la fiabilité de la méthode elle-même.

Cette approche simplifiée est de nature à confusion pour les non spécialistes. En effet, une haute reproductibilité risque d’être perçue comme un gage de précision ou d’exactitude. Il n’en est rien. Si une mauvaise reproductibilité entraîne une incertitude en soi, une bonne reproductibilité n’implique pas nécessairement une faible incertitude.

Pour comprendre cette nuance, considérons le tir sportif sur cible. Analysons les résultats d’une salve de 5 coups. Le fusil peut être bien ou mal réglé, le tireur peut être bon ou mauvais. Cela donne quatre possibilités illustrées sur le schéma ci-dessous.

Un bon tireur produira un tir groupé, un mauvais tireur dispersera ses impacts. Un fusil bien réglé enverra la balle au point de visée, un fusil mal réglé verra l’impact dévié par rapport au point visé. Le résultat est le fruit de deux paramètres : le fusil et le tireur.

Au bon tireur (ici le laboratoire d’essai) correspond une haute reproductibilité. Au bon fusil (ici la procédure de la norme) correspond une bonne méthode. La reproductibilité fournit des résultats proches les uns des autres (tir groupé), ce qui donne l’illusion que la valeur obtenue doit être bonne. Mais si la méthode n’est pas juste (fusil mal réglé), le résultat s’éloignera, sauf coïncidence exceptionnelle, de la valeur vraie recherchée.

En fait, une haute reproductibilité ne signifie pas que les résultats soient fiables, mais seulement qu’un nombre plus limité d’essais sera nécessaire pour fournir la meilleure évaluation possible avec la méthode. En l’occurrence il est préférable de disposer d’une bonne méthode, car même si la reproductibilité est mauvaise, il suffira alors de multiplier les essais pour faire converger statistiquement la moyenne des résultats vers la valeur correcte. Dans notre exemple de tir, avec un bon fusil mais un mauvais tireur, le centre de gravité (la « moyenne ») d’un grand nombre d’impacts se rapprochera du cœur de cible.

Ces notions peuvent être mises en parallèle avec les paramètres de moyenne et d’écart-types discutées précédemment dans le point sur la propagation des erreurs. La méthode fixe la moyenne, les conditions d’essais fixent l’écart-type.

La norme impose de multiplier le nombre de positions des sources sonores et des microphones et de multiplier le nombre de mesures de décroissance, ce qui présente l’intérêt de réduire les écarts-types ou l’incertitude sur les grandeurs d’entrée, en particulier la réverbération avec échantillon.

Mais cela ne jouera jamais que sur la reproductibilité (l’écart-type). Des résultats (la moyenne) irréalistes, notamment au-dessus de l’unité, resteront produits quelle que soit la reproductibilité.

Augmenter la reproductibilité n’est pas mauvais en soi, mais cela ne doit pas laisser croire qu’elle compense les limitations de la méthode.