Livre complet sur l’intelligence artificielle et python

Livre complet sur l’intelligence artificielle et python

...

Histoire et sémantique de l’IA

L’intelligence artificielle génère toutes sortes de fantasmes pour les uns et de craintes pour les autres. Elle s’inscrit dans une Histoire humaine faite de machines qui démultiplient la puissance humaine, d’abord mécanique, puis intellectuelle avec de l’automatisation et une recherche effrenée de puissance et d’effets de levier. Elle s’alimente de nombreux mythes, de celui du golem qui mêne aux robots ou Frankenstein et à celui d’Icare7 . Tout cela alors qu’il n’existe même pas de consensus sur la définition de ce qu’est l’intelligence artificielle ! Elle est source d’une interminable bataille sémantique8 qui touche notamment les startups du numérique9 .

Cela s’explique notamment par la difficulté que l’Homme a pour définir sa propre intelligence, sa conscience et ses mécanismes de raisonnement. Nous ne savons pas encore tout du fonctionnement du cerveau biologique. Mais il est vain de vouloir le copier. Il doit servir de source d’inspiration pour faire différemment et mieux, tout comme l’avion a des caractéristiques que n’ont pas les oiseaux. Cohabitent donc des définitions étroites et larges de l’IA.

Pour certains, seul le deep learning est digne de faire partie de l’IA et le machine learning et même les moteurs de règles, pas du tout. Comme si seules les technologies un peu magiques dans leur apparence pouvaient faire partie de l’IA. Pour nombre de spécialistes du secteur et votre serviteur, toutes les technologies de l’histoire de l’IA en font partie10. Certaines ont une dimension anthropomorphique comme la vision artificielle ou les agents conversationnels, d’autres, beaucoup moins lorsqu’elles analysent de gros volumes de données pour identifier des corrélations, des tendances ou faire des prévisions. Des composantes isolées de l’intelligence humaine sont déjà intégrées dans les machines avec des capacités de calcul brutes et de mémoire qui dépassent celles de l’Homme depuis des décennies.

On associe aussi à l’IA les logiciels qui exploitent la force brute pour gagner à divers jeux de société. On peut opérer un jugement de Salomon en rappelant qu’artificiel est le contraire de naturel. Le débat sur la "vraie" IA est sans fin. Il n'y aura probablement jamais d'IA exactement équivalente à l'intelligence humaine, ne serait-ce que parce que celle-ci est construite autour d'un substrat biologique qui l’alimente avec son cerveau, ses sens, son système hormonal, ses muscles, son squelette, ses hormones, ses besoins vitaux, une relation au temps et un processus de développement bien particulier.

Le cerveau est lent mais massivement connecté et parallèle. Plus des deux tiers des neurones de notre cerveau sont dans le cervelet alors qu’il n’en représente que 10% du poids. Celui-ci cogère les mouvements appris avec le cortex. Aussi curieux que cela puisse paraître, d’un point de vue quantitatif, une bonne part de notre intelligence est située dans la capacité à se mouvoir dans l’espace, et que les robots ont d’ailleurs bien du mal à imiter.

La partie cognitive du cerveau ne représente qu'à peine 10% des neurones du cerveau. C’est surprenant 11! Cela n’enlève rien à l’intelligence humaine qui est plus que diverse. D'un point de vue sémantique, il faut peut-être s'échapper de la définition anthropomorphique de l'intelligence. Il y a des intelligences diverses. La notion d’intelligence intègre la capacité à comprendre, apprendre et à s'adapter à des situations nouvelles. On retrouve à des niveaux variables ces capacités dans des systèmes non vivants ou des systèmes vivants très simplifiés par rapport au cerveau humain. Les fourmis n’ont que 250 000 neurones en tout mais font preuve d’une certaine intelligence collective. L’intelligence de l'Homme est très diverse, entre le pékin moyen et le scientifique de génie et entre ma médiocre maîtrise de la flûte à bec et les meilleurs joueurs de violon du monde, Jimmy Page et Jimmy Hendrix à la guitare !

Rien n'empêche d’ailleurs de créer d'autres formes d'intelligences que l'intelligence humaine. Les machines démuliplient la force physique de l’Homme. A charge pour l’IA de démultiplier l’intelligence humaine. Cela devrait être une boîte à outils pour l’Homme. L’intelligence artificielle est une discipline de l’informatique intimement liée à d’autres sciences : les mathématiques, la logique et les statistiques qui lui servent de base théorique, les sciences humaines (sciences cognitives, psychologie, philosophie, linguistique, …) et la neurobiologie qui aident à reproduire des composantes de l’intelligence humaine par biomimétisme, et enfin, les technologies matérielles qui servent de support physique à l’exécution des logiciels d’IA.

L’IA représente à la fois un pan entier de l’informatique avec sa diversité, ses briques technologiques, ses méthodes, ses assemblages et solutions en tout genre, et un ensemble de technologies qui sont maintenant imbriquées dans quasiment tous les pans du numérique. C’est un véritable écosystème hétéroclite. La grande majorité des solutions commerciales d’IA sont faites de bric et de broc, en fonction de besoins spécifiques.

On est loin d’avoir sous la main des solutions d’IA génériques, tout du moins dans les entreprises. Dans le grand public, des briques d’IA sont déjà utilisées au quotidien sans forcément que les utilisateurs le remarquent. C’est par exemple le cas des systèmes de suivi du visage dans la mise au point des photos et vidéos dans les smartphones. Les briques technologiques les plus génériques de l’IA sont les bibliothèques logicielles et outils de développement comme TensorFlow, PyTorch, scikit-learn ou Keras12.

Hauts et bas de l’IA

L’IA puise ses sources dans le concept théorique de calculus ratiocinator de Gottfried Wilhelm Leibnitz (circa 1671), la machine et le fameux test de Turing que l’on ne présente plus (1935 et 1950), les neurones formels de Warren McCulloch et Walter Pitts (1943), l’architecture de John Von Neuman qui sert encore de base à celle des ordinateurs traditionnels d’aujourd’hui (1945) ou encore le théorème de l’information de Claude Shannon (1949). L’histoire moderne de l’intelligence artificielle a cependant véritablement démarrée au moment du Summer Camp de Darmouth, organisé entre le 18 juin et le 17 août 1956 à Hanover dans le New Hampshire aux USA.

Le groupe de travail fondateur du summer camp de Darmouth comprenait John McCarthy, Claude Shannon, à l’époque au MIT, Marvin Minsky, à l’époque à Princeton, Allan Newell et Herbert Simon de Carnegie Tech, et Arthur Samuel et Nathaniel Rochester, tous deux d’IBM. Ce dernier avait conçu l’IBM 701, le premier ordinateur scientifique d’IBM lancé en 1952.

Il s’agissait d’une sorte de hackathon intellectuel de huit semaines dont l’objectif était de réfléchir aux concepts permettant de reproduire dans des machines diverses composantes de l’intelligence humaine de base comme la maîtrise du langage, la vision et le raisonnement13 . Environ une trentaine de personnes y ont participé en tout. Plaçons-nous dans le contexte de l’époque : l’informatique est alors un marché naissant avec à peine quelques centaines d’ordinateurs dans le monde, fonctionnant tous avec des lampes. 1955 était l’année de l’apparition des premiers mainframes à transistors avec notamment l’IBM 702 dont seulement 14 exemplaires ont été fabriqués.

C’est l’IBM 360 qui va véritablement faire émerger le marché des mainframes. Il sera commercialisé seulement 8 ans plus tard, en 1964 !

Voyage éternel ou aboutissement ?

L’expression « intelligence artificielle » fut couchée sur papier le 31 août 1955 par l’un des initiateurs de ce summer camp, John McCarthy14 dans la note de 13 pages proposant l’organisation du Summer Camp de Darmouth15 . Elle recouvre les sciences et technologies qui permettent d’imiter, d’étendre et/ou d’augmenter l’intelligence humaine avec des machines. Une autre définition courante de l’IA est le champ académique de la création de logiciels et matériels dotés de certaines formes d’intelligence. Selon Grace Solomonov, la femme de Ray Solomonov, l’un des participants du Summer Camp de Darmouth, le terme d’IA a été choisi par John McCarthy parce qu’il était neutre par rapport aux sciences existantes comme la cybernétique16. Elle évoque aussi les sources de science-fiction qui inspirèrent son mari (ci-dessous).

L’IA est en fait une appellation créée par un chercheur afin de faire parler de son domaine et lui permettant d’éviter d’être assimilé à des disciplines voisines comme les mathématiques, les statistiques ou l’informatique. C’est une forme de déclaration d’indépendance d’une nouvelle discipline scientifique. Plus de 60 ans plus tard, l’IA décrit aussi bien le champ du possible d’aujourd’hui dans ces domaines que la quête permanente et insatisfaite de l’incorporation des différents aspects de l’intelligence humaine dans des machines. L’IA a atteint l’âge de la retraite mais est encore adolescente et brouillonne.

"théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence" dans la pratique, pour l'instant : l'IA simule, complète et parfois dépasse largement des composantes isolées de l’intelligence humaine aucune IA n’a pour l’instant les capacités intégratives de l’intelligence humaine si on comprend la méthode, ce n'est plus de la magie comme dans le machine learning de base ce n'est pas de l'IA et tant que le test de Turing n'est pas passé, l'IA n'existe pas !

L’appellation la plus appropriée serait peut-être celle d’intelligence humaine augmentée, l’IA étant principalement destinée à démultiplier les capacités de l’Homme, comme tous les outils numériques jusqu’à présent, même si dans certains cas, l’IA peut effectivement se substituer aux travaux de l’Homme pour quelques tâches élémentaires comme, à relativement moyen terme, la conduite de véhicules18 . Dans le domaine du raisonnement automatisé, l’IA est censée apporter une rationnalité dont l’Homme ne fait pas toujours preuve. Là encore, nous sommes dans l’ordre de la complémentarité. L’intelligence artificielle incarne finalement la conquête d’un Graal distant, ayant été à l’origine, sur son chemin, d’un tas d’avancées technologiques relativement distinctes et plutôt complémentaires de l’intelligence humaine19. Celle-ci est encore unique dans la capacité à réagir avec discernement face à des situations nouvelles, à tirer profit de circonstances fortuites, à discerner le sens de messages ambigus ou contradictoires, à juger de l'importance relative de différents éléments d'une situation, à trouver des similitudes entre des situations malgré leurs différences, à établir des distinctions entre des situations malgré leurs similitudes, à synthétiser de nouveaux concepts malgré leurs différences ou à trouver de nouvelles idées20 .

Bases conceptuelles

Deux ans après le summer camp de Darmouth avait lieu le Congrès de Middlesex (1958) au Royaume Uni avec des contributions des principaux artisans du Congrès de Darmouth, Marvin Minsky et John MacCarthy ainsi qu’Oliver Selfridge, lui aussi présent à Darmouth. L’objet des publications associées était la modélisation et la mécanisation des mécanismes de la pensée en particulier avec des logiques heuristiques. S’en suivirent des publications clés comme Some Methods of Artificial Intelligence and Heuristic Programming de Marvin Minsky qui jettait les bases théoriques de la programmation heuristique approfondie peu après dans Steps Toward Artificial Intelligence de Marvin Minksy.

La même année, Pandemonium : a paradigm for learning d’Oliver Selfridge, jettait les bases des réseaux de neurones pour la reconnaissance des formes, puis Programming with common sense de John McCarthy, celle des systèmes experts. McCarthy est aussi connu pour être le créateur à la même époque du langage LISP qui servit pendant plusieurs décennies à développer des solutions logicielles d’IA travaillant en logique formelle et à base de règles. Les années 1960 furent une période de recherche fondamentale importante, notamment au MIT AI Lab. Ces recherches étaient principalement financées par l’ARPA, l’agence de recherche du Pentagone créée en 1958, devenue la DARPA en 1972, l’équivalent de la DGA française, mais évidemment bien mieux financée avec un peu plus de $3B21 de budget annuel actuellement. La recherche sur l’IA était financée par les deniers publics, notamment aux USA et au RoyaumeUni. Encore aujourd’hui, une très grande partie des recherches les plus avancées sur l’IA aux USA sont financées par l’omniprésente DARPA et réalisées par des laboratoires de recherche d’Université ainsi que chez les GAFA, ainsi que par les agences liées au renseignement comme la CIA et la NSA. Ce qui peut alimenter au passage les craintes sur les applications futures de l’IA, notamment au moment hypothétique où elle atteindrait le stade de l’AGI (IA généraliste).

En France, on peut noter quelques dates clés avec la création de l’INRIA en 1967, à l’époque IRIA22, dans le cadre du plan calcul visant à apporter une indépendance à la France dans les calculateurs nécessaires au développement de la dissuation nucléaire. La création du langage Prolog par Alain Colmerauer23 et Philippe Roussel à l’Université d’AixMarseille de Luminy date de 1972. La recherche française en IA ne semble cependant avoir véritablement décolé qu’à la fin des années 1970. Elle s’est plutôt spécialisée dans l’IA symbolique, un domaine dont on entend peu parler depuis le tsunami mondial du deep learning lancé à partir de 2006. Il recouvre diverses techniques de modélisation des connaissances et du raisonnement.
