Quasiment depuis la naissance de l’Intelligence Artificielle (IA) dans les années 50, une opposition sévit entre deux grandes écoles : l’approche symbolique et l’approche connexionniste. Elles partagent un même but, celui de l’IA, c’est à dire, créer des logiciels qui ont des comportements aussi intelligents que possible. Pourtant, elles constituent deux directions très différentes, deux visions différentes de l’intelligence, et par extension, deux visions différentes de l’IA.

Le symbolisme (ou parfois aussi appelé cognitivisme), produit de l’IA globalement à partir de règles, en modélisant des processus de pensées humaines, tel qu’on pourrait les décrire en psychologie par exemple. Il s’agit de dire à la machine quoi faire très clairement. Il y a ici à l’œuvre une grande quantité d’algorithmes, en particulier tous ceux qui sont impliqués dans la résolution de problématiques de la théorie des jeux (gagner à un jeu de société ou un jeu vidéo), ou encore les systèmes experts, qui constituent la manière la plus élémentaire de représenter un processus décisionnel formel. Le connexionnisme est une approche plus mathématique et plus autonome. La volonté est ici de permettre à une IA de faire ses propres déductions, d’apporter une forme d’intelligence, ou de logique, qui ne soit pas attendue. On parle, modestement, de phénomène d’émergence. Le connexionnisme est majoritairement représenté par le machine learning, lui-même sous-découpé en deux catégories : le machine learning supervisé et le machine learning non-supervisé. Dans le supervisé, on donne des exemples, par exemple de chiens et de chats, pour que la machine “apprenne” à distinguer. Le non-supervisé, lui, cherche un sens dans des données et fait des recoupements. La Big Data se sert largement de ces deux approches: la première plutôt pour prédire, la seconde plutôt pour visualiser.

Les réseaux de neurones artificiels, un terme que l’on entend de plus en plus, font partie du machine learning supervisé. Le réseau est élémentairement une représentation mathématique d’un comportement, qui se configure en essayant de reproduire les comportements qui lui sont présentés. C’est une approche statistique et inductive, dans la mesure où le système n’a pas une compréhension abstraite ni sémantique de ce qu’il traite. Il se contente de chercher des invariants, c’est à dire des points communs à tous les exemples. Plus le réseau de neurones est complexe, plus les invariants peuvent être complexes.

Le réseau de neurone artificiel n’est pas une simulation d’un cerveau humain. C’est une technique qui s’en inspire vaguement, mais qui reste très différente. Il y a des travaux qui vont dans le sens d’une simulation du cerveau humain. Mais les plus réalistes ne sont pas forcément plus efficaces/utilisés, et réciproquement.
Le réseau de neurones connaît aujourd’hui un regain de popularité, depuis plusieurs années, au point qu’il est devenu courant de penser que le machine learning est un synonyme de l’intelligence artificielle. Et bien au delà, tout ce qui n’est pas du machine learning serait de l’IA dite… “faible” !

Remettons les choses dans l’ordre :

  • Machine Learning ne veut pas dire que la machine apprend toute seule, ni même qu’elle apprend comme un enfant le ferait. Le réseau de neurones artificiels est une recherche d’invariants, basée sur des exemples préparées par des humains. Le coût du machine learning est très lié, globalement, au coût de la donnée.
  • On parle parfois d’IA “forte” et d’IA “faible”. A ce jour, l’IA forte est un mythe, un fantasme que nous ne sommes pas sûrs d’atteindre un jour. C’est l’idée d’une IA si complexe qu’elle pourrait développer spontanément un instinct de survie, une volonté propre, des sentiments… et peut-être mériterait des droits similaires à un être vivant. C’est bien sûr très très loin de ce qu’on sait faire, et pire encore, nous manquons terriblement de compréhension de ce que ça signifiera exactement.
  • Il faut être modeste avec la notion d’intelligence. Il y a des choses plus ou moins faciles à expliquer au grand public, dans ce qui est fait en IA. Globalement, le mot “intelligence” est très largement galvaudé ici, il en va de même pour “learning”. Nous appelons globalement intelligence, ce qui résout des problèmes complexes.
    Ces confusions ont bien sûr servi un certain marketing et une certaine vague médiatique, mélangeant allégrement utopies de la science fiction et progrès pas à pas des acteurs de l’IA.

Il y a une idée qui reste, celle que le symbolisme et le connexionnisme convergeraient vers une intelligence artificielle plus puissante que l’un des deux seul, et possiblement une “AGI” (pour “Artificial General Intelligence”), une étape de plus dans l’IA, qui permettrait d’avoir des IA capables de répondre à toute une large gamme de problèmes, y compris certains pour lesquels elle n’a pas été prévu. Tout cela est encore très spéculatif, est balbutiant, mais il reste encore un grand potentiel d’évolution du domaine de l’intelligence artificielle.

Thomas Solignac, Spécialiste IA, culture&sens 2018.

Note : culture&sens est fière d’être partenaire des meet-up « AI & Society » que Thomas organise mensuellement. Pour en savoir plus, cliquer ici.



» A lire également dans même catégorie :