Accueil Machine learning

Machine learning

« Revenir au glossaire

et Intelligence artificielle.

Le dictionnaire du CNTRL (Centre national de ressources textuelles et lexicales) en propose la définition suivante : « Recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains » (La Recherche, janv. 1979, n° 96, vol. 10, p. 61).

Cette expression, que l’on croyait réservée à une poignée de spécialistes à la pointe de l’informatique, est entrée récemment dans le langage courant. Si l’intelligence artificielle (IA) recouvre de nombreux domaines, quelques-unes de ses applications font désormais partie de notre actualité. Pas un jour ne passe sans que soit annoncée une recherche, une activité, une invention qui lui est liée, prête à modifier notre vie quotidienne.

L’an 2000 a marqué l’entrée de la société dans l’ère de l’information numérique. Des réseaux interconnectés permettent à des terminaux de communiquer grâce à un langage unique. A peine quinze ans plus tard, l’intelligence artificielle sort des laboratoires. Ses applications se démocratisent, outrepassant l’idée que les internautes pouvaient s’en faire, à travers l’image d’un robot nommé Hal dans 2001 : L’Odyssée de l’espace, le célèbre film de Stanley Kubrick, la trilogie Matrix des frères Wachowski ou A.I. de Steven Spielberg. L’intelligence artificielle ne relève plus désormais de la science-fiction.

Le développement des machines connectées et la dématérialisation des contenus ont fait entrer l’IA dans nos vies. Avec des dizaines de milliards d’objetsconnectés à l’horizon 2020, un monde numérique se superpose au monde réel. L’informatique ayant envahi tous les domaines d’activité, la puissance de calcul des ordinateurs, combinée à la gigantesque avalanche de données disponibles (big data), nous fait entrer dans un monde où les machines apprennent à tirer d’elles-mêmes des conclusions auxquelles, seul, l’homme ne serait pas parvenu, en corrélant des masses impressionnantes d’informations. C’est l’une des branches de l’IA appelée le machine learning  (apprentissage automatique), dont certaines applications sont déjà répandues, comme la traduction automatique, la reconnaissance optique de caractères ou, plus spectaculaire encore, la reconnaissance du langage naturel, dont l’assistant personnel intelligent Siri d’Apple, fonctionnant à la voix, est un exemple connu. Les progrès du machine learning intéressent les géants de l’internet. Facebook et Google s’en servent pour perfectionner leurs algorithmes, notamment afin qu’ils soient capables de donner la priorité aux contenus de qualité. Avec l’essor du big data, le machine learning se retrouve au cœur du fonctionnement de nombreux services sur le web, principalement dans les domaines de la publicité, du marketing et de la recommandation.

De nombreuses applications d’un usage courant sont des concentrés d’intelligence artificielle, comme la commande vocale sur les smartphones, l’étiquetage automatique des photos sur les réseaux sociaux, l’assistant personnel intelligent (basé sur la reconnaissance vocale, le traitement du langage naturel et la synthèse vocale) qui anticipe les demandes de son utilisateur (Google Now), les applications résumant un article en quelques lignes (Summly) ou le convertissant en vidéo (Wibbitz), sans oublier les lunettes à réalité augmentée et autres wearable technologies. Sur un autre registre, le géant du commerce en ligne, Amazon, utilisera avant la fin de l’année 2014 quelque 10 000 robots, construits par sa filiale Kiva Systems, afin d’assurer le traitement des commandes, imposant des rythmes de travail déjà dénoncés par ses employés. Ce sont également les algorithmes du trading à haute fréquence (THF) qui génèrent seuls, sans intervention humaine, une bonne partie (40 %) des transactions sur les marchés boursiers du monde entier.

Combinée au big data, l’intelligence artificielle s’apprête à révolutionner notre vie de tous les jours, avec le déploiement de l’analyse prédictive. Répandue dans le secteur de la finance, cette méthode d’anticipation des phénomènes politiques, économiques et sociaux est appliquée dans des secteurs d’activité toujours plus nombreux. Ainsi, grâce à elle, les techniques du marketing et de la publicité ciblée atteindront des niveaux de perfection inégalés en matière de prévision des comportements individuels, analysant toutes les données disponibles sur les acheteurs potentiels, leurs habitudes, leurs goûts, leurs humeurs, leurs moyens financiers, etc. A la tête d’équipes constituées d’informaticiens, de mathématiciens, de statisticiens, des entreprises se sont spécialisées dans la lecture du futur proche, comme cette start-up suédoise Recorded Future, financée par Google et la CIA.

Le plus grand laboratoire d’intelligence artificielle au monde est en train de voir le jour à Mountain View, le Google X Lab. En décembre 2012, Google a embauché l’ingénieur, informaticien, futurologue et, notamment, inventeur des premiers scanners, Ray Kurzweil, pour travailler sur de nouveaux projets concernant l’apprentissage automatique et le traitement du langage. Un autre expert mondialement reconnu du deep learning (apprentissage en profondeur) – branche de l’intelligence artificielle s’inspirant de la neurobiologie –, Geoffrey Hinton, a rejoint Google en mars 2013, après que sa compagnie DNNresearch a été intégrée à Google. En mai 2013, l’entreprise de Mountain View s’est également associée à la Nasa dans un projet de recherche baptisé Quantum Artificial Intelligence Lab. En décembre 2013, Google a effectué par ailleurs sa huitième acquisition d’entreprise dans le domaine de la robotique en moins d’un an, en reprenant le fabricant de robots, Boston Dynamics, constructeur de prototypes de robots humanoïdes pour l’Agence de recherche et développement de l’armée américaine (Darpa). Un mois plus tard, en janvier 2014, Google annonçait l’acquisition de la société américaine Nest Labs, spécialisée dans les alarmes et les thermostats intelligents pour la maison, et deux semaines plus tard, le rachat de DeepMind, entreprise britannique spécialisée dans l’intelligence artificielle, à l’origine d’applications commerciales dans les domaines de la simulation, du commerce électronique et des jeux.

Les recherches en intelligence artificielle sont prometteuses, notamment celle sur le cerveau artificiel. Ce projet de deep learning conduit au sein du Google X Lab par Andrew Ng, professeur à l’université de Stanford, a déjà démontré en 2012 qu’un réseau de 16 000 processeurs, exécutant un logiciel simulant le fonctionnement du cerveau humain, est capable d’apprendre à reconnaître des chats dans des vidéos, sans que soit introduite dans le système l’information « ceci est un chat ». Des chercheurs de l’université américaine de Purdue (Indiana) ont présenté en décembre 2013 les résultats d’une expérience similaire de deep learning, avec un processeur capable d’apprendre à reconnaître des images.

Classée en 2013 parmi les dix technologies d’avenir par le MIT (Massachusetts Institute of Technology), le deep learning intéresse tous les géants de l’internet. En janvier 2014, Facebook a embauché le Français Yann LeCun, spécialiste de l’intelligence artificielle à l’université de New York, pour diriger son nouveau laboratoire consacré à cette technologie. Ces recherches en intelligence artificielle doivent permettre de renforcer l’efficacité des services proposés par les groupes internet, en anticipant plus efficacement les comportements des internautes. Selon Sylvain Peyronnet, professeur à l’université de Caen au sein du Groupe de recherche en informatique, image, automatique et instrumentation (Greyc), « l’une des finalités, c’est d’arriver à modéliser le comportement des internautes pour trouver des patterns cachés ». Alain Cardon, chercheur en informatique avancée et intelligence artificielle à l’Institut national des sciences appliquées de Lyon (INSA), ajoute : « Cela pourrait aussi devenir un formidable outil de contrôle et de surveillance des humains. D’où l’intérêt de créer un comité d’éthique de l’informatique au niveau mondial » (source : 01net.com, 28 janvier 2014). La modélisation et l’anticipation des comportements humains conduisent à une société où régnerait, en l’absence de garde-fous, la tyrannie de la transparence. Comme le soutient sans se lasser la CNIL (Commission nationale de l’informatique et des libertés), les individus devront être informés, éduqués, responsabilisés sur les conséquences de ces intrusions permanentes dans leur vie privée, au risque d’y perdre leurs libertés et d’être manipulés sans le savoir. Contrairement à certains États précurseurs, comme les pays baltes, la Scandinavie et la Grande-Bretagne, la France n’a toujours mis en place un enseignement du code informatique à l’école.

Grâce aux progrès de l’intelligence artificielle durant ces dix dernières années, la société bascule dans l’ère de l’analyse prédictive. Qu’en sera-t-il alors, lorsque la capacité de traitement de données massives des ordinateurs concernera également la prise de décision ? L’invention des voitures sans chauffeur – les Google cars dont des prototypes sont déjà autorisés à circuler, sous certaines conditions, dans l’Etat du Nevada depuis mai 2014 et à partir de septembre 2014 sur les routes de Californie – est cet exemple spectaculaire où un robot décide à la place de l’homme. Le futurologue de Google, Ray Kurzweil, annonce que le test de Turing – le moment à partir duquel on ne saura plus distinguer si l’on converse par écrit avec une machine ou un humain – sera passé en 2029.

Tandis que le physicien Stephen Hawking, spécialiste des trous noirs, s’interroge : « Prend-on assez au sérieux l’intelligence artificielle ? ». A l’occasion de la sortie en avril 2014 de Transcendance, film de science-fiction réalisé par Wally Pfister qui raconte l’histoire d’un ordinateur doté d’une conscience et capable de réfléchir de manière autonome, le scientifique écrit, dans une tribune publiée dans le quotidien britannique The Independent en mai 2014 : « Réussir à créer une intelligence artificielle pourrait être le plus grand événement de l’histoire de l’humanité. Cela pourrait également être le dernier, si nous n’apprenons pas à éviter les risques. » Stephen Hawking nous avertit :« On peut imaginer que telle technologie déjoue les marchés financiers, dépasse les chercheurs, manipule nos dirigeants et développe des armes dont on ne pourra pas comprendre le fonctionnement. L’impact à court terme de l’intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée. » La notion de progrès évince souvent celle du risque…

N.B : Nous vous recommandons la lecture de l’article, aussi ironique qu’inquiétant, d’Olivier Tesquet, « 2014-2100 : confessions d’un enfant du siècle Google », (Télérama, n° 3350, 29 mars 2014).

WordPress » Erreur

Il y a eu une erreur critique sur ce site.

En apprendre plus sur le débogage de WordPress.