Pendant que je continue à tailler dans le gras des fils RSS auxquels je suis abonné (plus que 209, je suis en avance sur mes objectifs), je sais qu'il y aura un seuil d'incompressibilité et que certains blogs figureront toujours dans mon aggrégateur. Au nombre de ceux là figurera assurément celui de Louis Naugès, qui poste peu, mais apporte souvent de la valeur ajoutée. Son dernier billet, "1000 fois plus" éclaire de quelques chiffres l'impressionnante augmentation des ressources informatiques (matérielles) mises à notre disposition. 1000 fois plus de transistors dans un Intel Itanium que dans un 486 d'il y a 20 ans, 1000 fois plus d'espace de stockage dans une clé USB premier prix que dans une disquette 3"1/2, 1000 fois plus de débit dans une connection Ethernet qu'il y a 10 ans ...
Parallèlement, hélas, les logiciels que l'on utilise sont eux aussi victimes d'elephantiasis, et semblent avoir absorbé quasi-intégralement cette augmentation de moyens. L'utilisation qui était faite d'un PC il y a vingt ans n'a cependant que peu de points communs avec celle d'aujourd'hui. Un particulier ne faisait pas de montage video sur sa machine, ne téléchargeait pas des centaines de megas par réseau interposé ...
Quelle était l'utilisation d'un ordinateur personnel il y a 15 ou 20 ans ? Le jeu, un peu, et la bureautique, surtout. Quels points communs entre un jeu de flipper de la fin des années 80 et le hit de l'année 2007, Crysis ? Aucun, ou peu s'en faut. Entre Word 4 pour DOS et Word 2007 ? Il y en a déjà un peu plus. Hier comme aujourd'hui, la grosse majorité des utilisateurs de traitement texte se sert de son outil comme d'une machine à écrire améliorée. Peut-on enregistrer 1000 fois plus vite de gros documents ? Va-t-on 1000 fois plus vite pour mettre à jour une table des matières ? Certes pas.
Les gens qui font du calcul de structures par éléments finis depuis au moins dix ans peuvent faire le même constat. Je ne pense pas que les serveurs qui font tourner mes calculs soient 1000 fois plus perfos qu'en 1998, mais le ratio de teraflops doit cependant être impressionnant. La vitesse à laquelle les calculs tournent, par contre, n'a que peu évolué, parce que les utilisateurs s'adaptent aux moyens disponibles, et leur en demandent toujours plus. Quand un mécanicien d'il y a trente ans connaissait encore sa rdm sur le bout des doigts, celui d'aujourd'hui, moi compris, s'attaque aux problèmes en privilégiant des techniques quasiment brute force. En ce moment même, pour un bête calcul de tenue de moyeu-disque, j'ai un calcul non-linéaire de près d'un million de ddls qui tourne. Il y a 10 ans, il y en aurait probablement eu 10 fois moins.
En fin de compte, la finesse d'un modèle est pilotée par le temps CPU qui me semble "acceptable" pour un problème (et pour un planning !) donné, compte tenu du nombre d'itérations à prévoir.
Croissance des ressources vs croissance des besoins
lundi 21 janvier 2008. Lien permanent Info
11 réactions
1 De N. Holzschuch - 21/01/2008, 16:06
En Informatique Graphique on appelle ça "Blinn's Law" : le temps mis pour calculer une image de synthèse est une constante, indépendemment des progrès accomplis en matériel et en algorithme. Même quand on remplace l'ordinateur par un machin 100 fois plus puissant et qu'on réduit la complexité de quadratique à linéraire, le temps de calcul (observé empiriquement) reste une constante. Parce que l'appétit des utilisateurs pour plus de réalisme grandit toujours plus vite que le reste.
2 De Eric - 21/01/2008, 23:52
Si le temps de calcul reste constant, c'est que l'appétit des infographistes grandit pile poil aussi vite que tout le reste :)
Cette étonnante coïncidence montre bien qu'il y a derrière tout ça un phénomène de régulation piloté, plus ou moins consciemment, par l'utilisateur lui-même ...
3 De jid - 22/01/2008, 09:22
Dans ces coupes franches, il est bon de s'intéresser (en plus naturellement du nombre de fil rss) au nombres de billets quotidiens.
Je vire prioritairement ceux qui postent plusieurs fois par jour (et je n'hésite pas à garder ceux qui ne postent qu'une fois par semaine)
4 De good_boy - 22/01/2008, 16:53
Les DLL's je connais, mais les ddls, ça ne me dit rien...
J'en suis resté aux gros maillages et au joli dégradé des éléments finis qui moiraient la pièce de chatoyantes concentration de contrainte...
(en revanche, moyeu-disque, là ça éveille un peu de curiosité, qu'est ce qu'on peut bien modéliser avec un gros intérêt ?)
(non là sérieusement ça m'intrigue, je ne dois pas voir le truc capital)
(agna surface d'appui, agna quatre groboulons ?)
(sinon j'ai souvent la même approche concernant le traitement de texte, qui, trombone mis à part, n'a rien de mieux que le works de mes 386 d'antan) (je ne parle pas du tableur, plus les années passent moins il sait faire de choses)
(Et une autre réflexion : tu as passé plus de temps sur bombjack ou rick dangerous, codés par un seul homme, que ton petit cousin n'en passera sur crysis... qui a coûté une fortune et mobilisé beaucoup plus de monde)
5 De Eric - 22/01/2008, 23:05
@jid : si je vire ceux qui écrivent le plus, faut que j'enlève les fils d'actu du monde :)
@good_boy : ddl = degré de liberté. Puisque les éléments finis te disent quelque chose, les éléments sont connectés par des noeuds, dont les déplacements s'expriment en fonction de trois translations et de trois rotations : six degrés de liberté par noeud. Concernant ta question sur le pourquoi du comment du moyeu-disque, je me doute que ça t'interpelle. C'est marrant de constater que même des gens au fait de la chose automobile ont du mal à imaginer ce qu'il y a à faire comme boulot sur une pièce en apparence simple. Ca sera l'occasion d'un billet ... :)
6 De good_boy - 23/01/2008, 12:49
Je vote pour le billet qui explique le pourquoi de la modélisation !
(dans ma tête quand tu as de la déformation qui ruine l'appui plan, tu as des efforts qui ont arraché l'étrier depuis longtemps)
(mais il doit pas y avoir que ça, de la betterave aussi ?)
7 De Eric - 23/01/2008, 13:05
Y'en a.
8 De Krysztof von Murphy - 28/01/2008, 07:13
La constante, c’est le temps que les gens sont près à consacrer à une tâche. C’est le même phénomène pour les courses dans les centres commerciaux ou les trajets domicile-travail : la limite s'exprime en minutes, disons 30 ou 40, et les progrès dans les transports ne servent qu’à augmenter le rayon d’action. En 3D, le temps de calcul de l’image est constant, puisqu’on rajoute des effets à donf pour une meilleure qualité. En météorologie, les progrès constants permettent une maille de calcul plus fine et une prévision plus précise dans un temps identique.
Ajoutons la démocratisation de l’outil. L’ergonomie a beaucoup avancé justement grâce à cette puissance, même s’il y a beaucoup de gaspillage et de n’importe-quoi dans ce domaine. Donc plus de gens utilisent ces mêmes outils. Il est en partie là, le facteur 100 apparemment « perdu » dans l’évolution de la puissance. Avec un Word 4 sur DOS 5 sans interface graphique, mon père serait totalement paumé.
Reste à savoir si on ne va pas « plafonner » dans certains domaines, par exemple quand les effets vidéos les plus subtils se feront par raytracing temps réel. La course aux GHz se calme d’ailleurs.
Par contre, la primauté de la « force brute » sur la subtilité est une réalité que je vois tous les jours : un de mes profs en école était capable de résoudre des équations de mécanique des fluides très complexes, mais la génération suivante de chercheurs se contente d’intégration numérique. D’une part on y perd en subtilité voire en compréhension de phénomènes, d’autre part le cerveau est libéré de problèmes annexes que les machines traitent seules. Et quand je développe, je ne suis pas le seul à ne pas chercher à faire dans la finesse quand le temps d’exécution est ridicule sur une machine actuelle, je n’optimise que les parties qui posent effectivement problème.
Le gain de 1000 s’évapore donc en partie sous forme de paresse, mais il libère du temps de cerveau humain compétent disponible. Or celui-ci n’évolue pas du tout à la même vitesse, même en ajoutant le nombre de chercheurs indiens ou chinois qui déferle chaque année...
9 De Krysztof von Murphy - 28/01/2008, 07:39
PS : C’est quoi une rdm ?
10 De Eric - 28/01/2008, 10:07
rdm = résistance des matériaux. La rdm c'est le b-a-ba du mécanicien, qu'il s'empresse d'oublier une fois qu'il a découvert le calcul éléments finis.
Ceci dit, si le calcul de l'effort tranchant dans une poutre encastrée-libre est faisable à la main, la résolution "d'équations de méca flu très complexes" ne l'est pas, malgré tout le respect que l'on peut devoir à ton ancien prof :)
Tout à fait d'accord, en revanche, sur l'analyse précédente selon laquelle, quels que soient les moyens, la réalisation d'une tâche donnée prendra à peu près toujours le même temps pour un utilisateur donné, dans un contexte donné.
11 De Krysztof von Murphy - 30/01/2008, 22:11
Ah, ce prof était, et est d'ailleurs sans doute toujours très fort. En tout cas plus que nous. Non, il ne devait pas résoudre Navier-Stokes à la main, mais dans certains cas la résolution analytique est encore jouable.
Évidemment, depuis, la mode est au chaotique...