There are only two kinds of reliability engineers: those who say “Data is the problem” and those who say “Data are the problem.”


L'obsolescence programmée est le sujet de discussion économico-conso-environnementaliste tarte à la crème de ces derniers mois. Mais la préoccupation n'est pas nouvelle ...

En 2006, j'avais cité un article du New York Times illustrant le fait que les consommateurs renouvellent leurs achats électroniques avant qu'ils ne s'usent, tout simplement parce que les nouveaux objets font plus de choses, mieux et plus rapidement que les précédents, rendant indirectement caduque la théorie du complot obsolescent (tm)

En 2009, j'avais parlé d'extension de garantie, et évoqué une première fois à cette occasion le mythe de la durée de vie calculée "juste comme il faut", sujet sur lequel je vais revenir un peu plus loin.

En 2011, peu après la diffusion du documentaire (évidemment à charge) d'Arte "Prêt à jeter", Alexandre Delaigue avait écrit un long premier billet sur le sujet ("Le mythe de l'obsolescence programmée"), qui avait suscité moult commentaires, et fait d'Alexandre le héraut de la lutte contre la diffusion de ce mythe, les médias l'invitant dès lors qu'il fallait trouver un opposant aux conspirationnistes. Pour faire court, je résumerais son article en disant que réduire la durabilité d'un produit n'est d'une part pas forcément un bon choix stratégique dans un milieu concurrentiel, et d'autre part que la durabilité n'est qu'une des qualités souhaitées quand on achète un bien de consommation, qui résulte de compromis avec d'autres qualités (coût, praticité, nouveauté, design). Ce n'est donc pas la seule qualité que client et industriel privilégient ...

Plus récemment, on peut lire d'intéressants billets chez Tom Roud (La reine rouge de l’obsolescence, j'y aime bien le concept d'obsolescence entraînée) et chez Dr Goulu (L’obsolescence est-elle programmée ? , où l'on trouvera notamment une synthèse de la biblio disponible sur le sujet, dont le moins que l'on puisse dire est qu'elle n'est pas très riche, ni concluante quant à la pertinence du mythe en question)

Je souhaite pour ma part en remettre une couche sur le thème "on ne sait pas maitriser la durée de vie d'une pièce à quelques mois près" (par exemple pour qu'elle tombe en panne juste après la fin de la garantie). Je suis d'accord pour dire que l'obsolescence fait partie de l'équation économique, mais, j'insiste, on ne sait pas la programmer[1]

On ne sait pas programmer l'obsolescence car :

- La dispersion est considérable à l'échelle du matériau : si l'on prend deux éprouvettes issues du même acier, dans un même lot fournisseur, et qu'on réalise le même essai de tenue en fatigue sur ces pièces, on peut obtenir des durées de vie variant du simple au double. La courbe de Wöhler, qui caractérise la durée de vie d'une éprouvette (on parle en nombre de cycles) à un niveau d'effort donné est caractérisée pour une probabilité de rupture de 50%. Si l'on regarde cette courbe, on voit que pour un niveau de contrainte de 200 (MPa = MégaPascal), on a une durée de vie de 1000 cycles. Cela signifie qu'après 1000 cycles, 50% des échantillons auront cassé. Mais cela ne dit rien sur la dispersion des durées de vie : certaines éprouvettes peuvent casser au bout de 700 cycles, d'autres au bout de 1400 cycles. Je sais qu'on rentre ici dans une discussion certainement trop technique, mais j'ai quand même uploadé (ici) une feuille excel toute bête[2] qui illustre rapidement la notion de dispersion de durée de vie, fondamentale en fiabilité, et relativement bien caractérisée par la loi statistique de Weibull. Le paramètre β (voir par ex sur wikipedia) est celui qui quantifie cette dispersion. En électronique, β est proche de 1, ce qui signifie que le taux de défaillance est presque constant dans le temps : votre iPhone a autant de chances de tomber en panne cette semaine que dans un an ... En "mécanique" (où la défaillance intervient plutôt pour des questions d'usure), β est plus élevé. On trouve par exemple ici une base très approximative des ordres de grandeur pour des composants "simples" (roulements, joints, etc ...). On voit qu'une estimation haute du paramètre β est de 4 à 6. Or même pour de telles valeurs, le 4e onglet de la feuille excel mentionnée ci-dessus montre que la durée de vie varie grosso modo de 500 à 1300 heures, soit presque un facteur 3. Et plus β est faible, plus les durées de vie sont dispersées ...

- Il faut rajouter la dispersion due au process de fabrication, qui intervient quand on passe du matériau "de base" à la pièce finie : les pièces de fonderie de grande série, par exemple, sont fabriquées à partir de moules. Ces moules s'usent, ce qui fait que les dimensions des pièces qui sortent d'une chaîne varient selon qu'on les prélève juste après un changement de moule, ou juste avant. Dans le même ordre d'idée, un moyen industriel de serrage n'est pas _parfaitement_ répétable : le couple de serrage garanti par une visseuse industrielle varie avec une tolérance de +/-5%

- Plus important encore : on sait peu de choses sur ce qu'on appelle les usages clients. Je prends l'exemple de l'automobile, que je connais assez bien :) Entre un jeune excité et un petit vieux tranquille, entre un VRP qui ne fait que de l'autoroute (et sollicite donc surtout moteur et roulements de roue, mais assez peu les pièces de suspension) et un urbain qui ne roule que sur des pavés (usage au contraire sévère pour les pièces de suspension, mais pas pour le moteur) ou dans les bouchons (l'embrayage ...), entre un client qui roule en France et un autre au Brésil, il y a une diversité de profils considérable ... On est donc forcément obligé de faire des hypothèses, aussi bien sur le type d'utilisation que peut avoir un client dit sévère, que sur l'influence d'une sévérisation de l'usage sur la durée de vie. Encore un petit passage avec des formules, désolé : pour une pièce mécanique, cette influence se retrouve dans la pente de la courbe de Wöhler évoquée un peu plus tôt. Si on se repenche sur cette courbe, on voit que quand on augmente la contrainte (la sollicitation, c'est la même chose) de 200 à 260 MPa, soit une augmentation de seulement 30%, la durée de vie passe de 1000 à 100 cycles : elle est divisée par 10 ... Dans le domaine normal de fonctionnement d'une pièce métallique, on peut retenir l'approximation suivante : une augmentation de 10 à 15% de la sollicitation revient à diviser par 2 sa durée de vie !

- lorsqu'on recherche une fiabilité "suffisante" dans un contexte de grande série, on vise des taux de défaillance très faibles pendant la période de garantie, mettons inférieurs à 1 pour 1000 par exemple (ordre de grandeur évidemment variable d'une industrie à l'autre, inutile de chipoter là-dessus pour la suite de l'argumentation). Pour pouvoir démontrer une telle fiabilité, il faudrait donc pouvoir tester 1000 pièces, dans des conditions les plus proches possibles d'un usage client réaliste, et montrer qu'on n'a, au maximum, qu'une seule défaillance. C'est, sauf très rares exceptions, complètement irréaliste. On est donc obligé de sévériser les essais, ce qui permet d'obtenir des défaillances en testant moins de pièces, et conduit à des essais plus courts, compatibles avec des plannings industriels. On s'appuie donc sur des hypothèses (eh oui, encore) sur la pertinence de la relation d'équivalence que l'on construit entre un essai réaliste mais trop long, et un essai plus court mais plus sévère. D'où le petit topo ci-dessus sur la pente de la courbe de Wohler ... Comme cette relation d'équivalence varie d'un matériau à l'autre, d'une condition d'usage à l'autre, c'est encore une couche d'incertitude que l'on ajoute dans le processus de détermination de la durabilité.

J'espère que ces premiers éléments suffisent à convaincre un lecteur peu au courant des questions de fiabilité que la prédiction d'une durée de vie est un exercice très difficile, et que l'on ne sait absolument pas "programmer" des pièces pour qu'elles défaillent toutes dans les semaines qui suivent la fin de garantie. On vise au contraire des durées de vie bien supérieures, en espérant que notre connaissance des mécanismes de défaillance soit suffisante pour que, compte tenu des dispersions, le taux de défaillance soit très faible avant la fin de la garantie, et augmente ensuite progressivement. Allez, une dernière application chiffrée pour illustrer tout ça (résultat que ceux qui veulent jouer avec la feuille excel pourront facilement retrouver) : si je veux qu'une pièce dure 1000 heures avec une fiabilité de 99% (soit une seule pièce défaillante sur 100 pendant cette durée), et en partant sur l'hypothèse d'un paramètre β=2, il faudra patienter plus de ... 8000 heures pour que 50% des pièces cassent.

Notes

[1] sauf car rarissimes, comme la légende -dont je ne sais toujours pas si elle est fondée- de l'imprimante Epson dont une puce compte le nombre d'impressions et met l'imprimante en défaut une fois une certaine limite atteinte, indépendamment du niveau réel d'encre dans les cartouches. Ceci dit, sans vouloir jouer à l'avocat du diable, peut-être que le fait d'imprimer avec un niveau faible donc une encre sans doute dégradée conduit à une dégradation accélérée des buses, ce que le compteur permet d'éviter. Bref ...

[2] on trouve un exercice similaire sur contrepoints, qui s'appuie hélas sur une loi "incorrecte" (décrivant moins bien la réalité), ce qui ne remet par contre pas en cause les conclusions de la démonstration