Une absence d’indications permet aujourd’hui de comprendre l’enchaînement fatal qui a entraîné ce drame.

Les circonstances de la disparition de cette machine et de tous ses occupants pouvaient laisser croire  que les causes de l’accident ne seraient jamais élucidées. Les seules indications dont disposaient les enquêteurs du BEA étaient la transmission par le système ACARS de l’avion des différents messages de panne, mais c’était très largement insuffisant pour étayer une hypothèse réellement crédible. Néanmoins, certaines indications pouvaient déjà infirmer l’hypothèse, qui avait été avancée, d’une dislocation de l’appareil due à l’orage ou une explosion.

Ce n’est qu’au bout de deux ans de recherches que l’épave de l’avion fut localisée et que les enregistreurs purent être déchiffrés et analysés. Les choses devinrent alors plus claires et un scénario de l’accident a pu être élaboré.

Le BEA (Bureau Enquêtes et Analyses) a fait un travail remarquable et à publié son rapport définitif en 2012. Une note de synthèse résume les points essentiels de l’analyse de l’accident et donne les recommandations émises. 

Cet accident a pour cause initiale un givrage simultané des trois sondes de pression dynamiques (tubes de Pitot, du nom de l’inventeur) qui fournissent aux calculateurs de bord une information qui sera traduite en vitesse indiquée sur les écrans des pilotes. Elles sont au nombre de trois car la norme (réglementation aéronautique) prévoit que l’occurrence de panne totale du système d’indication de vitesse, qui peut avoir des conséquences critiques (perte de l’aeronef et de ses occupants) ne doit pas excéder une fois par milliard d’heures de vol.

C’est évidemment un calcul de probabilités qui se justifie statistiquement. Or, les sondes « pitots » sont sujettes à des givrages depuis qu’elles existent. Pour empêcher ce givrage, elles sont réchauffées par une résistance électrique dont le rôle est de faire fondre les cristaux de glace qui pourraient obstruer le tuyau d’écoulement de l’air.

La panne de cette résistance est le cas le plus fréquent et on démontre que sa probabilité d’occurrence est d’une fois toutes les mille heures de vol. Comme la probabilité de panne d’un système ayant des composants indépendants et redondants se calcule en faisant le produit des probabilités d’occurrence de chacun des composants, on en installe trois pour satisfaire à la réglementation. (1000x1000x1000 = 1 milliard)

Toutefois, ce calcul ne vaut pas s’il existe une cause de panne commune aux trois sondes. Or, ce cas de panne totale était déjà survenu plusieurs dizaines de fois auparavant, heureusement sans de telles  conséquences.


La note de synthèse résume l’enchaînement des faits et je vous invite à la consulter.

Le point crucial, et c’est celui que je voudrais commenter, est « l’absence de diagnostic de la part de l’équipage de la situation de décrochage et, en conséquence l’absence d’actions permettant de la récupérer »

Pourtant, ce qu’on appelle le « décrochage »est un phénomène basique. L’aile d’un avion est caractérisée par un profil aérodynamique qui permet aux filets d’air d’exercer une certaine pression sur la face inférieure de l’aile (intrados) et une dépression sur le dessus (extrados), la somme des deux créant ce qu’on appelle la portance de l’aile, qui permet à l’avion de tenir en l’air.

Cependant, cette portance varie suivant l’angle que fait l’aile avec la direction des filets d’air. Au delà d’une certaine « incidence » (l’angle en question) les filets d’air, jusque-là collés au profil de l’extrados, ont une tendance à se décoller. Cela a pour effet de passer d’un régime laminaire (toutes les particules d’air sont à la même vitesse et ont la même direction) à un régime dit « turbulent » qui se caractérise par des mouvements tourbillonnants qui n’aspirent plus l’intrados de l’aile vers le haut. Ce phénomène aérodynamique est appelé « décrochage » et tous les avions y sont sujets.

Il apparaît alors que le paramètre essentiel est l’angle d’incidence.


Comme les avions sont nés bien avant la théorie aérodynamique, le paramètre de pilotage était la vitesse de l’appareil, car les premiers aviateurs avaient remarqué qu’il fallait une certaine vitesse pour décoller. Il constataient également qu’en dessous d’une certaine vitesse, l’avion ne tenait plus en l’air et on appelait le phénomène « perte de vitesse », qui se traduisait généralement par une abattée à piquer plus ou moins violente, souvent précédée de vibrations assez fortes appelées « buffeting ».

Cependant, la vitesse de décrochage d’un avion varie avec sa masse, alors que l’incidence de décrochage est toujours la même., puisqu’elle ne dépend que du profil aérodynamique.

L’angle d’incidence est un paramètre de pilotage fondamental.

Il se trouve que, depuis des décennies, une controverse est née. Certaines écoles de pilotage considéraient que l’assiette (l’attitude longitudinale) de l’avion, indiquée par les instruments gyroscopiques, devait rester le paramètre de pilotage principal alors que, depuis les années 70 et l’apparition des dispositifs de pilotage « tête haute », le pilotage au « vecteur-vitesse », donc à l’angle d’incidence, était beaucoup plus représentatif de la trajectoire de l’avion.

La raison majeure était que l’assiette était la somme algébrique de deux angles, le premier étant la pente (trajectoire de l’avion) et le second l’angle d’incidence. On pouvait donc avoir, pour une même assiette, des pentes et des incidences différentes.

Ces précisions sont importantes car si l’équipage du vol AF 447 avait eu une indication d’incidence, il est  probable qu’il aurait pu identifier la situation de décrochage. De surcroît, cette phase de vol ne faisait pas l’objet d’exercices sur le simulateur durant leur qualification. Ceci probablement parce que l’avion était protégé par des sécurités automatiques en cas de dépassement de l’incidence limite.

Or, il se trouve que la perte d’information de pression dynamique (vitesse) changeait la loi de pilotage des calculateurs, et désactivait notamment ces protections d’incidence. L’avion pouvait alors aller au décrochage.

Mais cette panne provoquait également l’apparition d’une alarme « survitesse » indiquant que la vitesse de l’avion était trop importante. L’apparition simultanée, en plus de toutes les autres alarmes transformant les planches de bord en « arbre de noël », de deux alarmes contradictoires (décrochage et survitesse) avait de quoi dérouter n’importe quel équipage.

Enfin, pour accentuer cette difficulté, la logique de fonctionnement de l’alarme de décrochage qui faisait qu’elle s’éteignait en dessous d’une certaine vitesse (pour ne pas provoquer d’alarme intempestive avion au parking) et se rallumait une fois cette limite dépassée a fait que, lorsqu’une action à piquer, qui aurait peut-être été salvatrice, était tentée, cette alarme réapparaissait. De quoi dérouter les plus expérimentés et installer un doute sur la véracité de cette alarme.

Malheureusement, l’absence d’indication d’incidence, alors que celle-ci était fournie aux calculateurs (trois sondes d’incidence installées) dans les instruments de bord, a probablement été l’une des causes aggravantes de cette catastrophe.

Ces choses, bien que déjà notées dans le rapport du BEA, méritent cependant d’être soulignées pour comprendre l’enchaînement fatal qui a entraîné ce drame.

Laisser un commentaire

Commentaires

Réseau média web

Liens utiles

Twitter

Afficher plus