(Où ça parle d'IA, d'IA, et encore un peu d'IA)

Près de six ans gagnés sur des diagnostics d'Alzheimer grâce au deep learning :
Artificial Intelligence Can Detect Alzheimer’s Disease in Brain Scans Six Years Before a Diagnosis

“This is an ideal application of deep learning because it is particularly strong at finding very subtle but diffuse processes. Human radiologists are really strong at identifying tiny focal finding like a brain tumor, but we struggle at detecting more slow, global changes,” (...) The algorithm (...) correctly identified 92 percent of patients who developed Alzheimer’s disease in the first test set and 98 percent in the second test set. What’s more, it made these correct predictions on average 75.8 months – a little more than six years – before the patient received their final diagnosis.


Quelques réactions inquiètes parce qu'une IA aurait été prise en flagrant délit de triche, en "cachant" des informations

Tel que c'est présenté, je ne vois pas bien où est le problème : l'algo a encodé des informations de manière invisible pour un humain, et ces informations ont été "régurgitées" lors du processus inverse. Aucune tromperie volontaire évidemment, juste une incapacité de l'humain à percevoir ce qui a été fait (la conclusion de techcrunch va d'ailleurs en ce sens). Ceci dit, comme développé dans le 2e lien, l'imprédictibilité de l'IA pose question ... mais ce n'est pas nouveau.
NB : l'article initial se trouve sur arxiv : CycleGAN, a Master of Steganography


Dans son article "Artificial Intelligence, a critical assessment", John Poppelaers, auteur du blog OR at work (c'est beau quelqu'un qui assume encore faire de la recherche opérationnelle, à une époque où tout le monde aurait opportunément transformé ça en data science), revient sur les faiblesses de l'IA et notamment sur les points qu'avait soulevés Gary Marcus (voir sur arxiv son très commenté Deep Learning: A Critical Appraisal et dans cet article sur medium quelques réactions dont une au vitriol de Y. Le Cun : Gary Marcus’s Deep Learning Critique Triggers Backlash). Pour résumer les principaux reproches qui peuvent être faits au deep learning :

  • le deep learning est "data hungry" : ok, rien de nouveau
  • le deep learning est "shallow" (peu profond), donc pas si deep que ça : le deep ne vient que du nombre de couches qu'on entasse, mais la "connaissance" qui en résulte peut être très superficielle
  • le deep learning n'est pas transparent (ndec[1] : c'est même une belle boite noire)
  • le deep learning fonctionne bien lorsque le monde qu'il essaie de décrire est "stable" (répétable), mais souffre lorsqu'il est changeant, dynamique
  • le deep learning fournit des réponses qui ne sont que "possibles" ou "probables", mais pas certaines : les réseaux peuvent être trompés (ndec : cet argument omet les progrès apportés par les GAN - generative adversarial networks).

La denière phrase de l'auteur fait à mon sens une bonne définition de l'IA : "At the core AI is a pattern detection technique which makes it specifically suitable for creating predictions, estimations of what could happen, especially in a data rich and stable environment."


AGI (artificial general intelligence) is nowhere close to being a reality : ce n'est pas moi qui le dis, mais Geoffrey Hinton et Demis Hassabis (qu'on doit pouvoir mettre tous les deux dans le top 10 des spécialistes de la discipline)

“The phrase ‘artificial general intelligence’ carries with it the implication that this sort of single robot is suddenly going to be smarter than you. I don’t think it’s going to be that. I think more and more of the routine things we do are going to be replaced by AI systems — like the Google Assistant.” (...) Hinton argues that AGI won’t so much make humans redundant, though. Rather, he says, it will remain for the most part myopic in its understanding of the world — at least in the near future. And he believes that it’ll continue to improve our lives in small but meaningful ways.

AI in the future is going to know a lot about what you’re probably going to want to do and how to do it, and it’s going to be very helpful. But it’s not going to replace you,” he said. “If you took a system that was developed to be able to be very good at driving, and you sent it on its first date, I think it would be a disaster.”

And for dangerous tasks currently performed by humans, that’s a step in the right direction, according to Hinton.

People should be really afraid to ride in a car that’s controlled by a huge neural net that has no way of telling you what it’s doing,” he said. “That’s called a taxi driver.”

Note

[1] note de moi-même