La Silicon Valley se convertit au « machine learning »

Des scientifiques de l'Université de Californie à Berkeley avec le robot BRETT, utilisant le "deep learning" afin d'améliorer sa dextérité, en mai 2015.

Des scientifiques de l’Université de Californie à Berkeley avec le robot BRETT, utilisant le « deep learning » afin d’améliorer sa dextérité, en mai 2015. PETER EARL MCCOLLOUGH/The New York Times-REDUX-REA

Une boîte mail qui répond pour vous à vos courriers électroniques ? Un rêve pour les plus connectés d’entre nous. Et une piste de travail chez Google. Lundi 2 novembre, la société de Mountain View a fait un pas dans cette direction. Sa plate-forme Inbox s’est enrichie d’un outil de suggestion de réponses, baptisé Smart Reply. Après avoir analysé le contenu d’un message reçu, celui-ci propose désormais trois débuts de réponse adaptés. Exemples : « j’arrive », « je m’en occupe », « très drôle »…

A première vue, cela ressemble à une de ces nombreuses fonctionnalités que les géants du Web ajoutent sans cesse à leurs services ou applications mobiles. Derrière cette nouvelle possibilité, se cache pourtant une révolution qui agite les sociétés de la Silicon Valley, le « machine learning » (que l’on peut traduire par l’apprentissage automatique), une forme d’intelligence artificielle. « Un programme informatique qui apprend tout seul », résume John Giannandrea, qui dirige les efforts de Google dans le domaine.

Le machine learning est une véritable rupture. Dans le cas de Smart Reply, les ingénieurs de la société n’ont pas écrit des lignes et des lignes de codes informatiques pour tenter de prévoir les innombrables scénarios possibles – une tâche presque impossible à accomplir. Ils ont au contraire bâti un algorithme capable de déterminer tout seul les réponses à proposer en fonction des mots contenus dans le message reçu. Pour cela, ils l’ont abreuvé de millions de conversations. Petit à petit, message après message, phrase après phrase, ce programme est devenu « intelligent ».

Un nombre gigantesque de données

L’idée n’est pas nouvelle. Les scientifiques l’ont théorisée dans les années 1980. « Mais les ordinateurs n’étaient alors pas assez puissants pour la mettre en pratique », dit Greg Corrado, chercheur chez Google. La discipline est revenue sur le devant de la scène ces dernières années. D’abord, parce que la puissance informatique est désormais suffisante. Ensuite, parce que les entreprises disposent d’un nombre gigantesque de données. Ce qu’on appelle le big data. Ces données sont indispensables car les algorithmes apprennent par l’exemple. Pour reconnaître un chat, ils doivent analyser des milliers de photos d’animaux afin d’en déterminer les caractéristiques.

« Le machine learning nous permet de repenser tout ce que nous faisons », expliquait fin octobre Sundar Pichai, le nouveau directeur général de Google. Près de 1 200 projets dans le domaine sont en cours de développement au sein de la société de Mountain View, contre seulement 100 il y a deux ans. En 2014, l’entreprise avait également dépensé plus de 500 millions de dollars (466 millions d’euros) pour racheter la start-up britannique DeepMind spécialisée dans l’intelligence artificielle. Et elle avait débauché, l’année précédente, Geoffrey Hinton, spécialiste de la recherche sur les réseaux neuronaux artificiels.

Ses rivaux ne sont pas en reste. Facebook dispose de trois laboratoires de recherche, dont un récemment ouvert à Paris. Ils sont dirigés par le Français Yann LeCun, autre grand nom du secteur. Apple, Microsoft, Amazon ou encore IBM sont également très actifs dans ce que l’on appelle aussi le « deep learning ». « Ces sociétés investissent énormément dans la recherche et recrutent des scientifiques par dizaines », note Pedro Domingos, professeur à l’université de Washington et auteur du livre The Master Algorithm : How the Quest for the Ultimate Learning Machine Will Remake Our World (non traduit).

« Une période de progrès très rapides »

« Nous sommes entrés dans une période de progrès très rapides », poursuit le spécialiste. Un sentiment partagé par Geoffrey Hinton : « Le chemin récemment parcouru est impressionnant. Il y a encore cinq ans, nous pensions que le point atteint aujourd’hui ne le serait que dans de très nombreuses années. »

Sans le savoir, la majorité des internautes utilise déjà quotidiennement des produits et des fonctionnalités issues de l’apprentissage automatique. Quand Netflix ou YouTube leur recommandent une vidéo à regarder ; quand Amazon leur suggère d’ajouter un produit à leur panier d’achats ; ou quand leur boîte mail filtre automatiquement les messages indésirables.

La technique sert aussi à l’amélioration des outils de traduction. Le but est de détecter les expressions et de comprendre le contexte afin de ne plus traduire mot à mot. « Nous n’en sommes pas encore là », reconnaît M. Hinton. Les chercheurs utilisent le machine learning pour les logiciels de reconnaissance vocale, notamment pour résoudre le problème des accents régionaux. « Pendant des années, nous étions bloqués à un palier de 70 % de mots reconnus. Puis d’un coup, nous avons réalisé un véritable bond en avant », indique Alex Lebrun, qui a rejoint Facebook après le rachat, en début d’année de sa start-up Wit.ai spécialisée dans les interfaces vocales.

« Menace existentielle »

Surtout, le machine learning doit permettre de créer « des produits jusqu’ici impossibles à concevoir », ajoute M. Giannandrea. Chez Google, il s’agit notamment d’un nouveau service de stockage de photos au sein duquel il sera possible d’effectuer des recherches thématiques (par exemple : les photos avec un chat). Si l’entreprise ne souhaite pas le confirmer officiellement, la méthode d’apprentissage est aussi certainement au cœur de son projet de voiture sans conducteur. « Personne ne peut programmer un tel véhicule, estime Pedro Domingos. Mais il est possible de concevoir une voiture capable d’apprendre en observant les hommes conduire. » En juin, Google avait aussi dévoilé Deepdream, un programme capable de reproduire des formes à partir d’une image.

Chez Facebook, le principal projet est un assistant personnel, baptisé M. Encore en phase de développement, il doit permettre de commander un repas, réserver un billet d’avion ou annuler un abonnement directement sur Messenger, la plate-forme de messagerie maison. Un vrai concierge virtuel. A terme, la majorité de ses actions seront effectuées par un algorithme informatique, capable de déterminer la meilleure réponse à adresser aux requêtes des utilisateurs. « Sans ces technologies, nous touchions aux limites des méthodes traditionnelles de programmation », assure M. Lebrun, chargé du projet.

Au-delà, le machine learning peut également s’appliquer à la robotique. Dans un rapport publié début novembre, les analystes de Bank of America Merrill Lynch estimaient que la moitié des emplois aux Etats-Unis pourraient être remplacés par des robots au cours des vingt prochaines années, en particulier dans l’industrie. « Nous aurons des robots dans nos maisons effectuant les tâches domestiques. De nombreux emplois vont changer ou disparaître. Et peut-être qu’un jour plus personne n’aura besoin de travailler », explique M. Domingos.

« D’abord, les machines pourraient accomplir de nombreux travaux sans être très intelligentes. Cela pourrait être positif. Mais quelques décennies plus tard, cette intelligence pourrait devenir assez forte pour nous causer des soucis »

« La technologie devrait s’occuper des travaux difficiles pour permettre aux gens de faire les choses qui les rendent véritablement heureux », espérait en 2013 Larry Page, le cofondateur de Google. Un futur qui semble encore bien loin, tant le machine learning n’en est encore qu’à ses débuts. « Les programmes actuels ne peuvent accomplir qu’une seule tâche simple, ajoute M. Corrado de Google. Ils apprennent lentement et requièrent encore un important niveau de créativité et beaucoup de travail humain. » Chaque algorithme doit en effet être codé par des ingénieurs. Mais à plus long terme, des programmes pourraient aussi créer d’autres programmes capables d’apprendre.

Ces éventualités alimentent déjà les inquiétudes. Et non des moindres. « Une intelligence artificielle très poussée sera excellente pour accomplir ses objectifs. Mais si ces objectifs ne sont pas les mêmes que les nôtres, nous aurons alors des problèmes, redoutait le célèbre physicien britannique Stephen Hawking, dans une interview à la BBC fin 2014. Les humains, qui sont limités par leur lente évolution biologique, ne pourraient pas rivaliser. Cela pourrait être la fin de la race humaine. »

Même prudence chez Bill Gates, le cofondateur de Microsoft. « D’abord, les machines pourraient accomplir de nombreux travaux sans être très intelligentes. Cela pourrait être positif. Mais quelques décennies plus tard, cette intelligence pourrait devenir assez forte pour nous causer des soucis », écrivait-il en début d’année. « Il s’agit de notre plus importante menace existentielle, s’est inquiété Elon Musk, le patron du fabricant de voitures électriques Tesla, lors d’une conférence organisé par la MIT en octobre. Il faudrait mettre en place une surveillance réglementaire, peut-être au niveau international, pour être certains que nous ne faisons pas quelque chose de très stupide. »

« Des craintes très exagérées, influencées par Hollywood », répond M. Domingos pour qui « peu d’experts considèrent un scénario à la Terminator, où les robots prendraient le contrôle sur l’humanité, comme une hypothèse sérieuse. » Selon le professeur, « le problème vient du fait que les gens confondent l’intelligence artificielle à l’intelligence humaine. Un ordinateur peut résoudre des problèmes, mais il n’a pas la personnalité, la conscience, les émotions qui nous rendent humains », poursuit-il. Avant de reconnaître qu’il pourrait être possible, un jour, de concevoir une intelligence artificielle capable d’apprendre tout cela.

Jérôme Marin

http://www.lemonde.fr/economie/article/2015/11/12/l-intelligence-artificielle-fait-rever-les-geants-du-web_4807768_3234.html#28omYwUi81Xjyj4r.99

Publicités