Hinnovic » Intelligence artificielle: histoire et notions de base (partie 1 de 2)

Intelligence artificielle: histoire et notions de base (partie 1 de 2)

L’intelligence artificielle, souvent abrégée sous le terme IA, fait désormais partie intégrante de nos vies, ses progrès et les changements qu’elle pourrait impliquer dans nos sociétés remplissant les pages des journaux (papier ou en ligne) quasiment chaque semaine. Bien sûr, le domaine de la santé ne fait pas exception puisqu’on nous promet ni plus ni moins qu’une révolution technologique grâce à l’IA. Sur Hinnovic, nous serons de plus en plus amenés à parler de la recherche scientifique en IA et de ses applications dans le secteur de la santé, tout en apportant bien sûr une critique éclairée. Dans la première partie de ce billet, nous vous proposons une introduction à certains concepts et à certaines notions inhérentes à l’intelligence artificielle, sans pour autant rentrer dans du jargon technique. Dans la deuxième partie, nous nous intéresserons plus spécifiquement à l’intelligence artificielle dans le domaine de la santé.

Une naissance post Seconde Guerre mondiale

Alan Turing (Science Museum, London/SSPL)

La publication en 1950 de l’article scientifique « Computing Machinery and Intelligence » par Alan Turing est considérée par certains comme l’acte de naissance de l’IA, Turing étant reconnu comme le père de cette discipline à la convergence de plusieurs champs de connaissances techniques et scientifiques. Les tout débuts de l’intelligence artificielle datent donc de 70 ans, même si la table avait été mise avant Turing par d’autres visionnaires. C’est notamment dans l’article cité plus haut que le brillant mathématicien britannique décrit ce qui deviendra le célèbre « test de Turing » qui, pour résumer, consiste à établir une conversation par messages écrits et à l’aveugle entre un humain, un autre humain et une machine afin que le premier détecte lequel de ses 2 interlocuteurs est la machine. Les limites de ce test, également appelé « The imitation game », ont d’ailleurs récemment été démontrées par deux chercheurs dans la revue Journal of Experimental & Theoretical Artificial Intelligence (Warwick et Shah, 2016). Voici un exemple de test de Turing. Saurez-vous trouver si l’examinateur a affaire à un être humain ou à un ordinateur ? En 2014, une équipe de l’Université de Reading (Royaume-Uni) annonça qu’un programme informatique avait réussi à passer pour la première fois le test de Turing. Pourtant, ce n’était pas le cas, parce que les conclusions des chercheurs se sont basées sur une mauvaise lecture de l’article original du scientifique britannique, comme il est expliqué ici dans un billet du mathématicien Jean-Paul Delahaye. Le test de Turing résiste donc toujours aux machines.

1970 – 1990, deux décennies de doutes après une décennie d’euphorie

Six ans après la publication du papier d’Alan Turing (et 2 ans après sa mort), plusieurs scientifiques organisèrent la conférence de Dartmouth au Royaume-Uni. C’est lors de cet événement qui se déroula sur plusieurs semaines que le terme « intelligence artificielle » fut officiellement adopté et que la discipline fut reconnue comme une science à part entière. Dans les années qui suivirent et sous l’influence de la guerre froide, d’importantes avancées furent réalisées, notamment grâce à la progression exponentielle des capacités de calcul des premiers ordinateurs. L’optimisme était tel qu’en 1967, le scientifique Marvin Minsky déclare dans un livre que « d’ici une génération… le problème de la création d’une intelligence artificielle sera résolu de manière substantielle ».

Malgré cette euphorie, l’IA allait connaître à partir du début des années 70 une petite décennie de déceptions liées à des difficultés inhérentes à la discipline, mais aussi à un mur: la limite de la puissance de calcul des machines pour la technologie de l’époque.

Le début des années 80 voit l’avènement des systèmes experts qui sont « une technique de l’intelligence artificielle, qui permet de reproduire les mécanismes cognitifs d’une personne dans un domaine bien particulier ». Les premiers du genre datent du début des années 70 comme le célèbre MYCIN, présenté en 1974 par Ted Shortliffe lors de sa soutenance de doctorat. À la fin des années 70 et à la suite de plusieurs améliorations, le système réussissait à diagnostiquer les maladies du sang avec des résultats égalant les spécialistes humains, voire dépassant ceux des médecins généralistes. En dépit de certaines avancées technologiques et scientifiques, la double décennie 70-80 ne fut pas à la hauteur des attentes et des promesses établies dans les années 60. À contrario, les années 90-2000 ont vu une renaissance de l’intérêt pour l’IA. Les financements pour la recherche scientifique (tant privée que publique) ont graduellement repris, permettant des avancées substantielles. De nos jours, l’IA est pratiquement dans toutes les têtes… et au cœur de nos vies. Des applications sur les téléphones intelligents aux moteurs de recherche sur internet, des voitures autonomes aux drones, de la reconnaissance faciale à la reconnaissance vocale, de la finance à la santé, ce dernier domaine suscitant lui aussi d’importantes questions d’éthique.

Quelques termes et notions à connaître 

Dans le vocabulaire et le jargon scientifique et technique en intelligence artificielle, on retrouve souvent les notions et concepts suivants :

 

  • L’apprentissage automatique (machine learning) 

Schématisation du processus d’apprentissage machine (Crédit : David Louapre – Science Étonnante sur Youtube)

Discipline de l’intelligence artificielle, l’apprentissage automatique  consiste à générer des connaissances de façon automatique en exploitant des données brutes. À partir des connaissances acquises, il est alors possible pour la machine de créer un modèle permettant de prendre des décisions. Dans cette capture d’écran reprise d’une conférence de Yann Le Cun, le chercheur reprend l’analogie d’un panneau rempli de boutons qu’on tourne afin de raffiner le résultat. Dans ce cas-ci, le but pour l’algorithme fictif étant de reconnaître par lui-même la différence entre un avion et une voiture. Évidemment, les algorithmes les plus puissants contiennent bien plus de « boutons », en fait des centaines de millions que la machine doit ajuster alors qu’on lui présente des milliards d’exemples. Parmi les applications, on peut citer le robot Curiosity à la surface de Mars qui décide lui-même quelles informations envoyer aux ingénieurs de la NASA afin de réduire le temps d’inaction du robot causé par la distance entre la planète rouge et la Terre, l’information transmise mettant en moyenne 24 minutes pour se rendre d’un astre à l’autre à la vitesse de la lumière, donc celle des ondes électromagnétiques. L’apprentissage automatique profite également à la reconnaissance automatique de visages ou d’images, à la détection de fraudes sur internet ou pour générer les informations à vous montrer sur Facebook, mais il existe bien d’autres exemples.

 

  • Les réseaux de neurones artificiels (artificial neural networks) 

Schématisation d’un réseau de neurones artificiels (crédit : David Louapre – Science Étonnante sur Youtube)

Éléments fondamentaux de l’apprentissage profond, les réseaux de neurones sont des fonctions mathématiques dans lesquelles on injecte des données en entrée (les « X ») et à partir desquels sort un résultat (le « Y »). On ajuste les variables (les boutons) en leur donnant un poids ou une importance. Le problème, c’est que plus on ajoute de neurones et de relations entre ceux-ci, plus la phase d’apprentissage devient complexe, c’est-à-dire qu’il devient très difficile de trouver les bonnes combinaisons. Dans certaines situations, pour pallier cette difficulté, on ajoute une étape qui va consister à extraire des données caractéristiques de ce que doit reconnaître la machine. Par exemple, pour la reconnaissance d’image, on va indiquer à la machine qu’une voiture à 4 roues, des pare-chocs, des phares à l’avant et à l’arrière, etc., comme l’explique très bien le physicien et communicateur scientifique David Louapre dans cette explication en vidéo. Cependant, cela implique de créer un « algorithme d’extraction de caractéristiques ».

 

  • L’apprentissage profond (deep learning) 

Schématisation de l’apprentissage profond (Crédit : David Louapre – Science étonnante sur Youtube)

L’apprentissage profond consiste à utiliser plusieurs couches de neurones artificiels afin de laisser l’algorithme extraire lui-même les caractéristiques essentielles de l’information à traiter. On associe les couches de réseaux de neurones avec des couches intermédiaires, évitant ainsi de multiplier les entrées à traiter et, comme nous l’avons vu plus haut, les relations entre les neurones. C’est cette accumulation de couches de neurones qui donne son appellation à l’apprentissage profond. Voici plus en détail l’explication de ce qu’est l’apprentissage profond, toujours sur la chaîne Youtube Science Étonnante de David Louapre :

 

 

  • Les agents intelligents 

Un agent est toute chose qui peut être vue comme percevant son environnement par des capteurs et réagissant à celui-ci à l’aide d’effecteurs. Un « agent intelligent » (AI) doit être capable d’agir, de ressentir ou de capter des informations, de comprendre, raisonner et apprendre. Un être humain est bien sûr un agent intelligent, mais certains robots rentrent également dans cette définition, qu’on parle de robots physiques ou de logiciels. Une voiture autonome, un téléphone intelligent, un système de haut-parleur intelligent rentrent également dans la définition d’agents intelligents. On classe les AI en 4 grandes catégories : les agents simple réflexe par un exemple un robot-aspirateur, les agents réflexe avec état interne, les agents basés sur les buts et les agents basés sur l’utilité. Une catégorie à part est celle des agents apprenants qui peuvent améliorer leurs performances en apprenant de leurs comportements.

Après plusieurs périodes de doutes et de nombreuses difficultés à surmonter, il semble que l’intelligence artificielle soit de nouveau entrée dans une période faste de son histoire. Alors que certains y voient déjà une révolution dans de nombreux domaines, y compris celui de la santé, d’autres appellent à mettre en place des garde-fous devant les écueils potentiels s’il advenait qu’on perde le contrôle du véhicule IA. En d’autres mots, une intelligence artificielle responsable est-elle possible et surtout nécessaire ?
 

Note : Vous pouvez lire la 2ème partie de
ce billet sur l’intelligence artificielle en santé en cliquant ici.

RÉFÉRENCES

  • Turing, A. M. (1950). Computing Machinery and Intelligence. Mind 49: 433-460.
  • Warwick, K., & Shah, H. (2017). Taking the fifth amendment in Turing’s imitation game. Journal of Experimental & Theoretical Artificial Intelligence, 29(2), 287‑297. https://doi.org/10.1080/0952813X.2015.1132273
Auteur : Jérémy Bouchez
Hinnovic.org

Laisser un commentaire:

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Commentaires modérés. Les commentaires hors sujet seront effacés.

Email this to someoneTweet about this on Twitter6Share on Facebook4Share on LinkedIn0Print this page