Machine Learning, deep learning… simple comme Rembrandt

Image : The next Rembrandt, Microsoft, ING, Université de technologie de Delft, musées néerlandais Mauritshuis et Museum Het Rembrandthuis

Peindre comme Rembrandt, gagner au jeu de Go contre des champions, ou des mimiles dans un jeu télévisé…

Le 23 mars AlphaGo conçu par DeepMind, filiale de Google, l’a finalement emporté finalement 4-1 contre Lee Sedol, l’un des meilleurs joueurs mondiaux de go. AlphaGo était 279 ème mondial, et Lee Sedol déclaré avant le match pouvoir battre la machine 5-0 ou 4-1… il a finalement perdu à 4-1. Lee Sedol semblait pourtant dominer la partie  jusqu’à ce qu’on découvre qu’AlphaGo avait choisi une stratégie déconcertante à première vue, mais gagnante en fin de jeu. Grâce au deep learning. Et la machine a triomphé de l’homme.

Ce mois d’avril c’est Microsoft, associé au groupe ING, à  l’Université de technologie de Delft et aux musées néerlandais Mauritshuis et Museum Het Rembrandthuis, qui a conçu un programme informatique capable d’analyser des centaines d’œuvres de Rembrandt, d’apprendre la manière de peindre du maitre hollandais du XVIIè siècle, pour produire une nouvelle toile du maître « à la manière de »… (voir ici ). Un spécialiste peut observer la manière dont Rembrandt peint les cheveux, un faussaire doit savoir dessiner comme Rembrandt pour imiter son geste de pinceau et en passant des heures à s’entraîner dans les musées, en étudiant les techniques picturales perdues du XVIIè siècle en Hollande… mais une machine peut apprendre de manière statistique (machine learning) à partir des autres tableaux de Rembrandt eux-même.

On se rappelle du programme Watson d’IBM qui, durant les parties du jeu télévisé Jeopardy!, Watson analysait les questions qui lui étaient posées en langage naturel, les analysait avant de se plonger dans les 200 millions de pages de langage naturel que contient sa mémoire pour répondre à la question. Tout cela en 3 secondes.

 

Google Traduction, la Pierre de rosette du web

En gros, quand on veut qu’une machine prenne une décision intelligente, on a deux solutions : soit le savoir humain, soit un algorithme statistique ou auto-apprenant. On se rappelle que le traducteur Google  n’utilise absolument aucun traducteur humain… il ne se fonde pas non plus sur des règles grammaticales, de syntaxe ou de sens qui seraient programmées « en dur » ou encore des exemples. Google Traduction c’est la « pierre de Rosette » de la traduction; cette pierre, conservée au British Museum sur laquelle figure le même texte en 3 écritures : des hiéroglyphes égyptiens, de l’écriture démotique et du grec ancien… et qui a permis de traduire les hiéroglyphes égyptiens.

Google Translate fonctionne grâce à la méthode de traduction automatique satistique , élaborée pas Franz-Josef Och qui a remporté le concours  DARPA pour la vitesse de traduction automatique en 2003, devenu le chef du département de traduction automatique de Google.

Il s’agit dans ce cas d’utiliser un corpus de textes en deux langues et d’appliquer des modèles statistiques à ces data pour ensuite traduire sans règles de grammaire ni de syntaxe. Mais comment faire pour trouver ces pierres de Rosette ? Google utilise l’immense corpus des documents de l’ONU disponible dans les six langues officielles de l’organisation.

“ Les androïdes rêvent-ils de moutons électriques? ” (Philip K.Dick)

Mais le deep learning va plus loin… “Les androïdes rêvent-ils de moutons électriques?” s’interrogeait Philip K.Dick en 1968 dans ce qui allait bientôt devenir Blade Runner. Google a surpris son monde en montrant l’image d’un machine learning en train de rêver. Sur le blog de recherche de Google, un post intitulé Inceptionism: going deeper into neural networks”, les chercheurs exposent les résultats d’une expérience qui consiste à utiliser une intelligence artificielle, habituellement entraînée à reconnaître des images par exemple, en retournant la mécanique à générer ses propres “rêves”. Résultat : des scènes psychédélique dignes de de Las Vegas Parano.

Le deep learning  utilise l’apprentissage automatique par la machine comme par exemple un processus de classification : étiqueter chaque donnée en l’associant à une classe. On peut ainsi utiliser plusieurs algorithmes d’apprentissages, supervisé ou non, analysant par similarité (de parties de Go par exemple), en transposant des connaissances d’un domaine à un autre…Le deep learning par sa capacité auto apprenante permet donc d’éviter l’usage d’un expert.

Le machine learning extrait des caractéristiques d’une image par exemple pour les appliquer  une algorithme. Le deep learning va encore plus loin… il va inverser le processus : l’algorithme découvre par lui-même les caractéristiques d’une image par exemple grâce à des architectures de neurones empilées. Google, Amazon, Facebook, Baidu se sont mis au deeep learning dont le Pape est un français : Yann LeCun devenu l’expert de Facebook fin 2013 après avoir été considéré pendant des années comme un marginal de la communauté de l’I.A. en France ! Comme il l’a déclaré lui-même au Monde « En lisant un dialogue entre Noam Chomsky et Jean Piaget sur l’apprentissage inné ou acquis du langage, j’ai repéré un argument faisant référence aux réseaux de neurones que je ne connaissais pas. Ce champ prometteur était quelque peu abandonné et je m’y suis plongé tout seul » c’était  au début des années 1980, il était étudiant.
Pourquoi ? Parceque s’opposant au behaviorisme qui considère que la connaissance est le résultat des réponses d’un sujet à son environnement, Jean Piaget (1896-1880), psychologue et biologiste (rien à voir avec l’IA donc!) a construit la thèse du Constructivisme. Selon cette théorie la connaissance s’élabore à partir des représentations anciennes du passé. Le sujet re-conceptualise à partir de ses concepts et expériences passés. Exemple : l’apprentissage des langues par un enfant.

Sur cette hypothèse Lecun a construit l’apprentissage profond non supervisé qui reprend le fonctionnement du cerveau :

  • Capacité d’abstraction à partir de données
  • Réseaux neuronaux multicouches qui apprennent tout seul (deux rond et un triangle => probablement un chat avec deux yeux et ses oreilles > oreilles à 45° => c’est un chat, c’est sûr; gris => c’est peut être un chartreux?;  gris moyen => c’est un chartreux)
  • Généralisation et prédiction :  » Un chartreux est un chat gris moyen » Le système fini par pouvoir donner un avis plus percutant que l’homme sur les chats, il s’est « fait son opinion » si j’ose dire, reconnaît des races rares, des personnes sur Facebook, conduit une voiture en percevant son environnement, etc…

La particularité est qu’on alimente pas un arbre de décision avec des spécialistes mais que la machine apprend toute seule via une architecture de réseaux de neurones d’inspiration neurobiologique. Au lieu de partir d’un pixel on peut partir d’un mot et par abstraction successives faire de la traduction, de mots et remonter au langage.

Ecoutez absolument la leçon inaugurale de Yann Lecun au Collège de France:

Capture

 

Voir ici aussi une très bonne explication à suivre absolument sur le machine learning et le deep learning, l’apprentissage des réseaux de neurones artificiels, les synapses…

Voir ici une très bonne explication à suivre absolument sur le machine learning et le deep learning, l’apprentissage des réseaux de neurones artificiels, les synapses…

Welcome my son, welcome to the machine

Les capacités analytiques du machine Learning peuvent être appliquées à des foules de situations :

  • En santé, la machine peut analyser vos antécédents familiaux, vos comportements alimentaires, des cas cliniques et ensuite en dialogue délivrer un diagnostic ou des options de traitement, identifier les risques et facteurs positifs d’un traitement.
  • En transport, identifier la meilleure façon de se rendre d’un point à un autre…
  • En marketing-ventes, l’analyse des comportements clients permet de savoir si une personne a visité huit fois un site Internet avant d’acheter un meuble, de mieux cerner les attentes d’un client et et d’y répondre en terme de pertinence d’offre, de pricing…
  • Pour vérifier les transactions bancaires… c’est ainsi que j’ai découvert alors que je j’avais retiré de l’argent en région parisienne qu’un pirate de ma carte dont le numéro s’était probablement vendu sur le dark web. Il avait été bloqué lors d’un prélèvement à partir des US un quart d’heure plus tard. Les banques vérifient donc le contexte, les distances, le temps entre transactions…
  • Votre fil Facebook ne vous montre que certaines pages de vos amis ou de vos fils d’abonnement, derrière un algorithme de machine learning qui analyse les caractéristiques du contenu et essaie de comprendre quelle type de nouvelles ont le plus de chances de vous intéresser… puis il vous les propose.

Google Machine learning et « ruines circulaires »

Mais Google a fait un pas de plus dans le machine learning qui permettait de détecter un chat dans une vidéo de reconnaitre des photos ou d’améliorer sa recherche. Il l’a ouvert en Open source. Baptisée TensorFlow, elle est désormais disponible sous licence Apache. C’est désormais le monde entier des données partagée qui va pouvoir auto apprendre en temps réel et de manière globale. Une sorte de Noosphère[1] qui met en réseau non seulement les données et les documents ou les savoir mais les capacités d’apprentissage automatique.

La nature a mis une dizaine de millions d’années pour que naissent les oiseaux, à partir de leurs ancêtres les dinosaures, le premier avion des frères Wright date seulement de… 1903… l’homme a construit des aéronefs en très peu de temps grâce à ses capacités cognitives et de symbolisation. L’émergence de la cognition humaine a transformé fondamentalement la biosphère et Teilhard de Chardin a montré que la rapidité de circulation des idées, leur échauffement, fait passer la noosphère d’un état à un autre comme l’eau passe de l’état solide à l’état liquide à l’état gazeux en s’échauffant faisant muter la conscience que l’homme a de lui-même. En dehors des prospectus des cabinets de conseil et autres gogos des sociétés de High tech’ en tous genres qui parlent un peu vite de « révolution numérique »… la mutation digitale, la « planétisation » des savoirs et des processus de connaissance ont des enjeux à ce niveau-là.

Je pense enfin à cette nouvelle de Borgès Les ruines circulaires. Un personnage e réveille après un choc dans un amphithéâtre en ruine. Il tente de rêver un homme entier dans son esprit. Il l’imagine et lui donne corps. A la fin de la nouvelle, le feu entoure le personnage qui s’attend à mourir. Il se rend alors compte qu’il est, lui-même, en train d’être rêvé par l’esprit d’un autre. Dieu quoi. La vrai question est donc de savoir, dans le processus cognitif, quand la machine va commencer à prendre conscience d’elle même. On se rappelle que la conscience de soi celle de sa finitude que symbolise la mort signe l’émergence de l’humain pour les anthropologue. L’homme est la première créature qui enterre ses morts, cela signe l’apparition du religieux, le soin d’autrui, la « responsabilité pour autrui » comme dit Emmanuel Levinas.

Le croisement du deep learning et de l’immense quantité de data désormais disponibles en réseau de manière exponentielle ouvre à l’homme des perspectives fascinantes.

Comme le disait la chanson culte et visionnaire des Floyds dans les années 70 :Welcome my son, welcome to the machine !

 

[1] La noosphère, selon la pensée de Vladimir Vernadsky et Pierre Teilhard de Chardin, désigne la « sphère de la pensée humaine ». Voir ici : https://fr.wikipedia.org/wiki/Noosph%C3%A8re

Répondre

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s