Même ceux qui étaient fâchés avec leurs cours de traitement du signal se souviennent du théorème de Shannon, qui stipule que l'acquisition d'un signal analogique doit se faire en échantillonnant à une fréquence (dite de Nyquist) au moins deux fois supérieure à la fréquence maximale qui nous intéresse, pour éviter notamment tout problème de repliement de spectre (pour les newbies, cette page wikipedia est pas mal faite).

En pratique, quand on réalise une acquisition sur une voiture, on échantillonne par exemple à 512 Hz, voire 1024 Hz sur les phénomènes transitoires les plus violents (passage de nid de poule par ex.), afin de ne pas rater d'information utile. Lorsque la séquence de mesure dure plusieurs minutes et qu'on utilise des dizaines ou des centaines de voies de mesures, on se retrouve rapidement avec des fichiers assez lourds à traiter.

D'où un lever de sourcil intrigué à la lecture de cet article du physics arXiv blog intitulé triomphalement, à la manière d'une couv' de S&Vie : "Why compressive sensing will change the world".

Rien que ça.

La méthode de compressive sensing (acquisition comprimée en français, ce qui sonne bien bien moche) essaie de retrouver une sorte de structure sous-jacente à la plupart des signaux analogiques, ce qui fonctionne pas mal sous la condition que ces signaux soient "épars"[1]. Il est alors possible de sous-échantillonner outrageusement le signal, et donc de s'asseoir allègrement sur la contrainte induite par la fréquence de Nyquist.
La méthode se résume ensuite à la résolution d'un problème d'optimisation, utilisant non pas la norme euclidienne traditionnelle mais la norme 1 (i.e la somme des valeurs absolues des composantes du vecteur solution).

Pour l'instant, 1- je n'ai pas tout compris 2- les applications les plus prometteuses semblent concerner principalement la compression d'image et l'acquisition vidéo. Au quotidien, je ne suis pas bien certain que le compressive sensing change vraiment ma life, parce que : les signaux enregistrés sur un véhicule ne sont pas spécialement sparse, sont bruités, et le contenu fréquentiel est riche.
J'essaierai quand même de retourner à l'occasion sur les pages d'Igor Carron, qui fait un gros boulot de synthèse et de collectage sur le sujet (sur googlepages, et sur son blog).
A lire aussi : le site d'Emmanuel Candès, qui parle entre autres d'opti, d'acquisition de données, de stats, de traitement du signal, de chaines de Markov et d'ondelettes. J'imagine qu'un X/Stanford émigré au Caltech n'est pas un manche. Le fait qu'il ait co-publié (pdf) avec Terry Tao ('tain, médaille de bronze, d'argent puis d'or aux Olympiades de Maths à 11, 12 et 13 ans, ça m'impressionne encore plus que sa médaille Fields) semble en être une autre preuve.

(Snif, pourquoi est-ce qu'ils ont reçu des neurones que je n'ai pas eus ?)

A lire ailleurs :

Note

[1] tiens, c'est rigolo ça, je ne vois pas comment mieux traduire sparse signal. Dans le cas d'une matrice, sparse se traduit par creux, mais "signal creux" n'est pas particulièrement évocateur