Beaucoup d'articles généralistes consécutifs à la nette victoire d'AlphaGo sur un des voire le meilleur joueur du monde (peu de temps après celle contre le meilleur joueur européen). Pour le vaincu, sa défaite est moins tactique que psychologique. :

« Si c’était à refaire, je ne peux pas dire que je gagnerais, mais je pense que sur des aspects de go pur, l’intelligence humaine peut être meilleure qu’AlphaGo, mais qu’en revanche psychologiquement, sur la concentration, il est meilleur ».

Bon, s'il le dit ...

Pour certains, cette victoire de la machine n'est qu'une "anecdote" : Why this week’s man-versus-machine Go match doesn’t matter (and what does)

Pour d'autres, dont Serge Abiteboul et Tristan Cazenave, il s'agit avant tout d'une "victoire de l'humanité" (titre sur Slate), ou plus modestement des informaticiens (titre du même article publié sur le blog Binaire. Ils y donnent quelques détails techniques :

Les réseaux de neurones profonds allient la simplicité et la généralité. Ils sont capables de créer leurs propres représentations des caractéristiques du problème pour arriver à des taux de réussites bien meilleurs que les autres méthodes proposées. Ils reposent sur des apprentissages qui demandent des temps assez longs pour les plus gros réseaux. Pour accélérer l'apprentissage, les concepteurs de réseaux profonds utilisent des cartes graphiques puissantes comme celles de Nvidia qui permettent de réaliser très rapidement des multiplications de grandes matrices. Malgré cela, le temps d'apprentissage d'un gros réseau peut se compter en jours voire en semaines. Les réseaux utilisés pour AlphaGo sont par exemple composés de 13 couches et de 128 à 256 plans de caractéristiques. Pour les spécialistes : ils sont « convolutionnels » avec des filtres de taille 3x3, et utilisent le langage Torch, basé sur le langage Lua. Pour les autres : ils sont très complexes. AlphaGo utilise l'apprentissage profond en plusieurs phases. Il commence par apprendre à retrouver les coups d’excellents joueurs à partir de dizaines de milliers de parties. Il arrive à un taux de reconnaissance de 57 %. Il joue ensuite des millions de parties contre différentes versions de lui même pour améliorer ce premier réseau. Cela lui permet de générer de nouvelles données qu’il va utiliser pour apprendre à un second réseau à évaluer des positions du jeu de Go. Une difficulté est ensuite de combiner ces deux réseaux avec une technique plus classique de « recherche Monte-Carlo » pour guider le jeu de l’ordinateur.

Sur Mediapart, Michel de Pracomtal semble plutôt d'accord :
Jeu de go: la victoire de la machine signe le triomphe de l'intelligence humaine

(...) la crainte d'être dépassés par les outils que nous avons créés est le fil conducteur de l’histoire humaine, depuis qu’un bipède a taillé son premier biface, l’a utilisé pour trancher la viande ou se raser, avant d’en faire une arme de destruction massive qui a provoqué l’extinction des ours des cavernes, et finalement de s’en servir pour tuer son prochain. Bien avant la bombe atomique, la maîtrise du feu a mis entre les mains d'Homo sapiens une puissance capable de le détruire. AlphaGo n’est qu’un chapitre de plus de notre histoire prométhéenne. Si les machines prenaient le contrôle, ce serait un nouveau rebondissement de ce feuilleton dont l'humain est à la fois le scénariste et l'acteur principal. L’intelligence artificielle ne remplacera pas l’homme, ni la femme, ni les enfants. L’IA, c’est nous.

Sur le site de Google Deep Mind, on peut trouver un lien vers l'article publié sur Nature (Mastering the game of Go with deep neural networks and tree search), encore faut-il y avoir accès. En fait il y a un article plutôt bien fait chez Dan Maas : How AlphaGo Works ... où l'on trouve un lien direct vers le pdf de la publi en question :)