top of page
Rechercher
  • Photo du rédacteurAnouchka

L'intelligence artificielle ou IA est-elle une reproduction du cerveau humain? Mythe ou réalité?


La dénomination IA ou intelligence artificielle a été adoptée au congrès de Dartmouth, sur le campus de l’Université de Dartmouth dans le New Hampshire ( Etats Unis), en 1956, lors d’une réunion scientifique qui ambitionnait l’étude des techniques permettant la simulation des différentes facultés de l’intelligence par une machine, plutôt que de chercher à construire une machine ayant la capacité d’égaler le cerveau humain. Cette réunion se déroulait dans la plus grande confidentialité autour d’une vingtaine de chercheurs en informatique, en électronique et en sciences cognitives, réputés pour être des précurseurs dans leurs domaines de compétences. La plupart des diverses approches de l’IA conçoivent un cerveau artificiel comme un système qui fonctionne suivant les règles d’un algorithme. Depuis les débuts de l’IA, les interrogations sur ses fonctions dans la société, les différents problèmes éthiques qu’elle soulève, ainsi que sa supposée capacité à non seulement remplacer l’homme mais peut-être même à le dépasser voire à le détruire sont une source inépuisable de polémiques. Cette vision de l’intelligence artificielle synonyme de machine « Zèbre », suivant l’expression de Jeanne Siaud-Facchin, c’est à dire surdouée, en capacité de surpasser l’homme, voire de le détruire est un legs de Marvin Minsky (1927-2016), un des pères fondateurs de l’IA, qui fut professeur au MIT et conseiller de Stanley Kubrick et Arthur C. Clarke pour son film 2001: l’Odyssée de l’espace, sorti en 1968 et dans lequel l’ordinateur HAL finit par éliminer les humains. Ce film marqua une des premières apparitions de l’IA dans la culture du grand public. Mais qu’en est-il aujourd’hui? Est-il légitime de prendre ombrage de l’IA? A-t-on raison de la redouter? Dans quelle mesure est-elle un enjeu d’avenir? Quelles sont ses réussites, ses échecs, ses limites?


Marvin Minsky définissait l’intelligence artificielle comme étant : « La construction de programmes informatiques capables d’accomplir des tâches qui sont pour l’instant accomplies de façon satisfaisante par des êtres humains ». Inventé par Marvin Minsky et son collègue John Mc Carthy dans une démarche pluridisciplinaire, l’IA recouvre les branches de :

  • la reconnaissance de la parole ou d’images

  • l’apprentissage automatique

  • le jeu

Actuellement, l’intelligence artificielle qui fait référence au champ de l’informatique utilise « la logique formelle, les statistiques théoriques et l’algèbre pour modéliser et simuler des facultés intellectuelles comme le raisonnement, la compréhension du langage naturel, la perception… » ( Ganascia, J. 2017). Ce qui permet de qualifier l’IA de science se démontre par le fait que les chercheurs créent des modèles qui sont soumis à deux types de validation : la validation formelle et la validation théorique. La validation formelle étend son champ d’action à la « cohérence des modèles ( qui prennent la forme d’algorithmes, c’est à dire de séquences d’opérations logiques, définies et non ambiguës) et sur leur aptitude à faire l’objet d’une simulation informatique » Ganascia, J. 2017). En outre, l’IA reproduit au moyen d’ordinateurs nos capacités mentales telles que nos capacités à « raisonner, à comprendre des textes, à démontrer des théorèmes, percevoir des formes… » (Ganascia, J. 2017). Concernant la validation empirique qui est susceptible de se porter soit sur les résultats, soit sur les processus, il s’agit de comparer nos facultés intellectuelles avec les résultats des ordinateurs.


Si l’IA peut actuellement se prévaloir d’être une discipline scientifique qui fait l’objet de méthodes rigoureuses issues de la communauté de chercheurs et dont les résultats sont appuyés sur des expériences solides, alors on est en droit de se demander d’où vient ce puissant courant de pensée qui la place au centre d’un débat angoissant sur son pouvoir possible sur l’homme?

De nos jours, il est admis qu’il existe deux formes d’IA :

  • L’intelligence artificielle faible : Weak Artificiel Intelligence ou étroite (Narrow Artificiel Intelligence) qui stimulerait des facultés cognitives spécifiques comme la reconnaissance de la parole, la compréhension du langage naturel ou encore la conduite automobile

  • L’intelligence artificielle dite générale ( Artificiel General intelligence ) ou forte (Strong Artificiel Intelligence ) capable de reproduire un esprit voire une conscience et qui serait selon les dires une intelligence artificielle en devenir proche présentant des répercutions majeures, positives tout comme négatives sur « le devenir humain » selon l’expression de Ganascia (2017).

L’origine de cette distinction entre IA faible et IA forte se situe dans les années 1980 et se rattache aux travaux du philosophe américain John Searle qui à cette même époque remettait en cause les théories des philosophes cognitivistes qui postulaient que le fonctionnement de l’esprit serait similaire à celui d’un ordinateur et qu’il serait par là même intégralement reproductible grâce aux techniques de l’IA. John Searle, enthousiaste au regard des réalisations pratiques de l’IA mais conscient de ses limites intrinsèques distingua alors deux formes d’IA :

  • « l’IA faible » : « celle des ingénieurs susceptibles de reproduire un grand nombre de fonctions cognitives avec une manipulation symbolique d’information » (Ganascia, J. 2017). Il prédit qu’elle aboutirait à des réalisations techniques incroyables

  • « l’IA forte » des philosophes : qui permettrait de reconstituer l’esprit humain doté de son champ de conscience à l’aide de l’IA, persuadé que celle-ci n’atteindrait pas ses objectifs

Afin de le prouver, Searle utilisa l’expérience dite de « la chambre chinoise » qui se passe dans une cellule localisée en chine dans une prison où personne ne parle l’anglais et où l’on dispose d’une écriture idéographique. L’américain qui ne parle que l’anglais est enfermé dans la geôle avec un panier qui contient des carreaux sur lesquels sont dessinés des idéogrammes impénétrables et un livre présentant des règles de type : si tels et tels caractères sont présentés dehors et visibles par l’oeilleton, il faut présenter tels et tels caractères du panier. Il était en outre stipulé au prisonnier, qu’il ne pourrait manger que si et seulement si il obéissait avec diligence aux injonctions du livre. Si quelques années plus tard, après avoir appris à manipuler les carreaux de faïence, le prisonnier se voit brandir des banderoles sur lesquelles se trouvent des caractères chinois équivalents et que celui-ci y réponde avec pertinence, nous pourrions être amenés à en déduire que l’américain comprend parfaitement le chinois. Pourtant, Searle, en tant que linguiste, affirme le contraire : l’américain selon lui se livre à une activité « mécanique » selon sa propre expression, purement syntaxique, obéissant à des règles précises mais il n’accèdera jamais à la sémantique, c’est à dire au sens et ne comprendra jamais un seul mot de chinois. Searle compare la manipulation de carreaux sémantiques à ce que fait le programme de l’IA. Il en découle que la machine peut donner l’illusion de comprendre, mais qu’elle ne peut a minima accéder à la signification et encore moins à la conscience. Actuellement, ce sont les ingénieurs qui ont repris à leur compte le terme d’IA forte et qui l’emploient pour « promouvoir leur technique et son pouvoir illimité sans disposer d’autres arguments que l’auto-affirmation de leur pouvoir » (Ganascia, 2017).


Si l’IA nous interpèle par ses capacités incroyables, il est toutefois important de souligner ses réussites et domaines d’excellence mais aussi ses limites. L’IA égale, voire même dépasse l’être humain dans la reconnaissance d’un visage ou d’un morceau de musique ou bien encore retranscrit instantanément une phrase lue et entendue, toutes activités que l’humain accomplit sans y réfléchir. De plus, l'IA peut se montrer supérieure aux humains en : jouant aux échecs ( confère victoire de Deep Blue contre Kasparov en 1997) ou au jeu de Go (confère victoire d’AlphaGo contre Fan Hui en 2015) ou dans l’identification d’une tumeur sur une radiographie ou encore prévoir la panne d’une machine grâce à ses vibrations mais elle se montre incapable de synthétiser toutes ses compétences pour faire une analyse de situation ou un raisonnement ( Linden, I. 2020).

Depuis les victoires de Deep Blue et d’AlphaGo, les méthodes statistiques occupent une place importante qui inclut les réseaux de neurones et l’apprentissage profond ou deep learning. Il s’agit pour la machine d’apprendre à utiliser d’immenses collections de données afin de « reproduire sur une tâche donnée des comportements similaires aux comportements les plus fréquents » (Linden, 2020). La machine, dotée d’un cerveau artificiel est à même, au terme de son apprentissage, de réaliser une tâche apprise et de restituer la réponse la plus vraisemblable. Mais l’IA ne prend en compte que les données pour lesquelles elle a été paramétrée, programmée. Elle est incapable de démarche exploratoire, de mener une enquête, de corréler des éléments anticipés. Ce processus lui est actuellement inaccessible.

Dans le domaine médical par exemple, l’IA se montre une aide efficace dans le diagnostic mais les décisions finales appartiennent aux médecins.

Régi par les algorithmes, notre monde risque fort de ressembler à une société de gens agissants tous selon des stéréotypes qui excluront les singularités de chacun qui sont à la base de chaque personnalité. Nous risquons de nous focaliser très vite sur des publications par exemple qui iront toutes dans le même sens et brideront notre sens critique. L’exemple donné par Linden (2020) est significatif : la consultation des informations triées par les algorithmes sur les réseaux sociaux nous conduirons à adhérer à des fake news, le web étant majoritairement acquis à ces thèses. Si l’on admet qu’un réseau de neurones est un calculateur de données, une fois l’apprentissage terminé, il est possible en maitrisant bien la fonction de manipuler les données afin d’obtenir une réponse forcée (Linden, 2020). En outre, la collecte des données utiles à leur construction peut poser problème car même si ces données sont anonymisées, il a été prouvé qu’en quelques clics sur les réseaux sociaux, il est possible de décrypter le profil de l’internaute.


Si l’intelligence humaine ne peut rivaliser avec les prodiges de l’IA, elle lui reste supérieure car c’est elle qui conçoit les algorithmes et se définit en fonction de sa pensée c’est à dire de sa capacité à créer, concevoir, juger et comprendre. Cette hégémonie de l’humain sur la conception, le choix, et les objectifs pré-déterminés nous ramène à une évidence qu’on voudrait pourtant nous occulter, à savoir, le fait que l’IA n’est pas « neutre » et qu’elle est même insidieusement guidée vers des résultats établis au préalable. De plus, L’IA renverse les codes en matière de domination : il n’est plus question de domination maître/esclave ou patron/ouvrier mais bien d’une domination par un maître décomposé, n’éprouvant aucune émotion mais qui fournit des résultats incontestables (Zarka, 2019). Il semble bien impossible de contester les performances de résultats élaborés par une machine learning dont les performances sont infaillibles : alors comment contester un refus de prêt bancaire ou d’entrée dans une Université ? Les enjeux de l’IA avancent, masqués mais sont bien réels : enjeux financiers, sociaux et économiques ainsi que de souveraineté. Deux super-puissances sont actuellement en compétition dans la course pour devenir leader mondial de l’IA : les Etats-Unis qui lui consacre l’essentiel de la recherche et compte les entreprises les plus avancées et la Chine qui clame haut et fort son intention de devenir le numéro 1 du secteur de l’IA en 2030 ( Georges, B. 2019). Si l’on a pu évoquer au sujet de certains algorithmes le terme d’ADM, qui signifie, en l’occurrence : Arme de destruction massive (cf : Cathy O’Neil, Algorithmes. La bombe à retardement, préface de Cédric Villani, Paris, Les Arènes, 2018), l’exemple des subprimes, cité par Zarka (2019) me semble plus que parlant. Il s’avéra une catastrophe tout d’abord financière, puis économique et social au niveau mondial en raison de la persistance des milieux bancaires à croire en la capacité infaillible de leurs algorithmes. On ne saurait imputer ces résultats catastrophiques à un simple programme mathématique défaillant dans sa conception car on ne saurait faire l’impasse sur l’intrication du maillage qui implique une interaction étroite entre la complexité des facteurs économiques, financiers et leurs conséquences sociales.

L’ordinateur le plus puissant du monde ne saurait contenir la totalité de la complexité du monde et encore bien moins l’aléatoire, l’imprévisible que concentre la fibre même du réel. La notion d’aléatoire est depuis Epicure une donnée bien connue. Le monde ne peut se réduire à des formules mathématiques. La notion de clinamen qui désigne cette déviation spontanée des atomes en des lieux et moments indéterninés et leur permet de se rencontrer, de s’agglomérer pour former des corps démontre bien l’inhomogénéité de l’univers. En l’absence de clinamen, « La nature n’eut rien crée », nous dit Epicure. L’IA ne crée pas, elle se contente d’inférer présent et futur sur une base de données du passé (Zarka, 2019).


Comme nous venons de le voir, l’IA trouve ses limites dans sa non-capacité à improviser et le risque de se laisser impressionner par ses prouesses est réel pour l’homme. Les machines conçues avec la technologie actuelle sont issues d’une intelligence basée sur leurs algorithmes ne sont, en fait, que de très puissants calculateurs. Dans le contexte actuel, les domaines de la conscience de soi, des émotions et des relations sociales échappent à leurs compétences. Si l’on voulait « implémenter » ces notions sous la forme de données matérielles, il faudrait que celles-ci puissent se calculer pour être ensuite transférées à la machine ( Linden, 2020). Si des travaux sont actuellement en cours pour développer des machines qui analysent et simulent des émotions ( Thomas Moerland, Joost Broekens et Catholijn M. Janker, « Emotion in reinforcement learning agents and robots and robots : a survey », Machine Learning, 2018, n°107, p.443-480), la technologie actuelle qui serait aux fondements de cette découverte reste à développer. En outre, selon Michel Benasayag, « La pensée n’est pas dans le cerveau » (propos recueillis par R. Meyan dans Le Courrier de l’Unesco, juillet-septembre 2018). En outre, la compréhension de la complexité du cerveau n’est encore que très partielle, aussi, comment serait-il possible de la répliquer et d’en doter une machine?


Bibliographie


  • Ganascia, J. (2017). « L’intelligence artificielle n’est pas une science ». Dans : , J.Ganascia, Intelligence artificielle : vers une domination programmée? (pp. 31-35). Paris : Le Cavalier Bleu.

  • Ganascia, J. (2017). « Nous passerons bientôt de l’intelligence artificielle faible à l’intelligence artificielle forte ». Dans :, J.Ganascia, Intelligence artificielle vers une domination programmée? ( pp.59-65). Paris, Le Cavalier Bleu.

  • Georges, B. (2019). Intelligence artificielle : de quoi parle-t-on? Constructif, 3(3), 5-10.

  • Linden, I. (2020). Entre rêves et illusions… L’intelligence artificielle en question. Revue d’éthique et de théologie morale, 3(3), 11-27.

  • Zarka, Y. (2019). Editorial : L’intelligence artificielle ou la maîtrise anonyme du monde. Cités, 4(4), 3-8.

122 vues0 commentaire
bottom of page