Pendant que je continue à tailler dans le gras des fils RSS auxquels je suis abonné (plus que 209, je suis en avance sur mes objectifs), je sais qu'il y aura un seuil d'incompressibilité et que certains blogs figureront toujours dans mon aggrégateur. Au nombre de ceux là figurera assurément celui de Louis Naugès, qui poste peu, mais apporte souvent de la valeur ajoutée. Son dernier billet, "1000 fois plus" éclaire de quelques chiffres l'impressionnante augmentation des ressources informatiques (matérielles) mises à notre disposition. 1000 fois plus de transistors dans un Intel Itanium que dans un 486 d'il y a 20 ans, 1000 fois plus d'espace de stockage dans une clé USB premier prix que dans une disquette 3"1/2, 1000 fois plus de débit dans une connection Ethernet qu'il y a 10 ans ...

Parallèlement, hélas, les logiciels que l'on utilise sont eux aussi victimes d'elephantiasis, et semblent avoir absorbé quasi-intégralement cette augmentation de moyens. L'utilisation qui était faite d'un PC il y a vingt ans n'a cependant que peu de points communs avec celle d'aujourd'hui. Un particulier ne faisait pas de montage video sur sa machine, ne téléchargeait pas des centaines de megas par réseau interposé ...
Quelle était l'utilisation d'un ordinateur personnel il y a 15 ou 20 ans ? Le jeu, un peu, et la bureautique, surtout. Quels points communs entre un jeu de flipper de la fin des années 80 et le hit de l'année 2007, Crysis ? Aucun, ou peu s'en faut. Entre Word 4 pour DOS et Word 2007 ? Il y en a déjà un peu plus. Hier comme aujourd'hui, la grosse majorité des utilisateurs de traitement texte se sert de son outil comme d'une machine à écrire améliorée. Peut-on enregistrer 1000 fois plus vite de gros documents ? Va-t-on 1000 fois plus vite pour mettre à jour une table des matières ? Certes pas.

Les gens qui font du calcul de structures par éléments finis depuis au moins dix ans peuvent faire le même constat. Je ne pense pas que les serveurs qui font tourner mes calculs soient 1000 fois plus perfos qu'en 1998, mais le ratio de teraflops doit cependant être impressionnant. La vitesse à laquelle les calculs tournent, par contre, n'a que peu évolué, parce que les utilisateurs s'adaptent aux moyens disponibles, et leur en demandent toujours plus. Quand un mécanicien d'il y a trente ans connaissait encore sa rdm sur le bout des doigts, celui d'aujourd'hui, moi compris, s'attaque aux problèmes en privilégiant des techniques quasiment brute force. En ce moment même, pour un bête calcul de tenue de moyeu-disque, j'ai un calcul non-linéaire de près d'un million de ddls qui tourne. Il y a 10 ans, il y en aurait probablement eu 10 fois moins.
En fin de compte, la finesse d'un modèle est pilotée par le temps CPU qui me semble "acceptable" pour un problème (et pour un planning !) donné, compte tenu du nombre d'itérations à prévoir.