Site de publication : Conseil de l’Europe
Type de publication : Article
Date de publication : 2019
Lien vers le document original
Une définition complexe à opérer et à partager
Si le terme d’« intelligence artificielle » (IA) est entré dans le langage commun et son utilisation devenue banale dans les médias, il n’en existe pas réellement de définition partagée.
Au sens large, le terme désigne en effet indistinctement des systèmes qui sont du domaine de la pure science-fiction (les IA dites « fortes », dotées d’une forme conscience d’elles-mêmes) et des systèmes déjà opérationnels en capacité d’exécuter des tâches très complexes (reconnaissance de visage ou de voix, conduite de véhicule – ces systèmes sont qualifiés d’IA « faibles » ou « modérées »).
Cette confusion contribue à entretenir des craintes purement spéculatives (des IA autonomes conscientes s’opposant aux humains) qui resteraient anecdotiques si elles ne troublaient pas la mesure des réels enjeux, tels que l’impact sur les droits fondamentaux de processus de prise de décision fondés sur des modèles mathématiques, et donc difficile l’élaboration de cadres de régulation.
Une définition à restreindre, au cas par cas, aux technologies utilisées
L’IA est en réalité une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et techniques (notamment logique mathématique, statistiques, probabilités, neurobiologie computationnelle et informatique) et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain.
Les spécialistes préfèrent en général employer le nom exact des technologies concrètement en œuvre (qui relèvent aujourd’hui essentiellement de l’apprentissage automatique – machine learning) et sont parfois réticents à employer le terme d’ « intelligence » car les résultats, bien qu’extraordinaires dans certains domaines, demeurent encore modestes au regard des ambitions entretenues.
Qu’est-ce que l’apprentissage automatique (machine learning) ?
Après avoir connu deux périodes de fort développement (entre 1940 et 1960, puis entre 1980 et 1990), l’IA a connu un nouvel essor en 2010 grâce aux algorithmes dits d’apprentissage automatique. Deux facteurs sont à l’origine de ce nouvel engouement des chercheurs et des industries informatiques : l’accès à des volumes massifs des données et la découverte de la très grande efficacité des processeurs de simples cartes graphiques d’ordinateur pour accélérer le calcul des algorithmes d’apprentissage.
L’actuelle révolution de l’IA ne vient donc pas d’une découverte de la recherche fondamentale mais de la possibilité d’exploiter avec efficacité des fondements relativement anciens
L’actuelle « révolution » de l’IA ne vient donc pas d’une découverte de la recherche fondamentale mais de la possibilité d’exploiter avec efficacité des fondements relativement anciens, tels que l’inférence bayésienne (XVIIIème siècle) ou les neurones formels (1943) pour l’une des sous-classes de l’apprentissage automatique, l’apprentissage profond (ou deep learning).
L’apprentissage automatique a opéré un changement complet de paradigme par rapport à la précédente génération d’IA, les systèmes experts, avec une approche voulue comme inductive : il ne s’agira plus pour un informaticien de coder les règles à la main mais de laisser les ordinateurs les découvrir par corrélation et classification, sur la base d’une quantité massive de données. Autrement dit, l’objectif de l’apprentissage automatique n’est pas réellement d’acquérir des connaissances déjà formalisées mais de comprendre la structure de données et de l’intégrer dans des modèles, notamment pour automatiser des tâches.
Systèmes experts et apprentissage automatique : deux conceptions différentes de l’IA
Très concrètement, dans sa phase d’apprentissage, la machine va rechercher les liens entre des données préalablement sélectionnées pour un domaine spécifique (par exemple, sur 10 années, dans différentes villes, le nombre de crèmes glacées vendues et la température de l’air) et les catégoriser. Ce modèle pourra ensuite être utilisé pour résoudre des questions du type : s’il fait 25°, combien de glaces puis-je espérer vendre dans tel lieu ?
Bien que certains systèmes construisent des modèles de manière relativement autonome, l’intervention humaine demeure encore essentielle, qu’il s’agisse de choisir les données d’apprentissage, d’identifier leurs éventuels biais ou alors, quand cela est possible, de distinguer parmi les corrélations celles pouvant être réellement la cause d’un phénomène (si l’on vend beaucoup plus de glaces pour un lieu donné, est-ce à cause de la température ou de la présence d’un très bon glacier ?).
Les Wathinotes sont soit des résumés de publications sélectionnées par WATHI, conformes aux résumés originaux, soit des versions modifiées des résumés originaux, soit des extraits choisis par WATHI compte tenu de leur pertinence par rapport au thème du Débat. Lorsque les publications et leurs résumés ne sont disponibles qu’en français ou en anglais, WATHI se charge de la traduction des extraits choisis dans l’autre langue. Toutes les Wathinotes renvoient aux publications originales et intégrales qui ne sont pas hébergées par le site de WATHI, et sont destinées à promouvoir la lecture de ces documents, fruit du travail de recherche d’universitaires et d’experts.
The Wathinotes are either original abstracts of publications selected by WATHI, modified original summaries or publication quotes selected for their relevance for the theme of the Debate. When publications and abstracts are only available either in French or in English, the translation is done by WATHI. All the Wathinotes link to the original and integral publications that are not hosted on the WATHI website. WATHI participates to the promotion of these documents that have been written by university professors and experts.