L'IA et nous

Reprise d'une série de 3 posts linkedIn de 2020


L'IA et nous : Pourquoi nous avons peur 

Pour qui consulte l'actualité des start-up, l'Intelligence Artificielle est devenue un thème obligé. C'est le nouveau Graal, la dernière marotte du cycle d'innovation qui semble désormais tenir lieu de pulsation cardiaque à l'industrie de la Haute Technologie.

Mais cette fois, comme jamais avant, une angoisse palpable accompagne l'excitation habituelle. Entre la destruction de masse d'emplois de service - plausible ; la suspicion de fantasmes morbides au sein des industries de défense - possible ; et la crainte de produire une créature de Frankenstein dont le but serait notre élimination ; il semble que cette fois nous voyions la technologie d'abord comme une menace.

Cependant, si toutes ces peurs ont des raisons d'être, le débat reste ouvert. Pour qui veut défendre le développement de l'IA sans nécessairement traiter ses contradicteurs de zélateurs rétrogrades du Moyen-Âge, les arguments rationnels existent. D'ailleurs sur la question le biais culturel est fort : les Européens sont pessimistes, les Américains ambivalents, tandis que les Asiatiques sont culturellement prêts à accepter des machines pensantes. Cela devrait nous inciter à réfléchir à notre perception des machines.

L'hypothèse que j'avancerais, c'est que notre peur - réelle - des IA ne vient pas d'abord de leur potentiel de compétition avec nous, que ce soit sur le plan économique ou militaire. Notre peur la plus profonde, c'est de découvrir que nous sommes des machines pensantes avec une illusion de libre-arbitre.

Le libre-arbitre est absolument nécessaire à notre civilisation Occidentale (et peut-être moins en Asie), parce que c'est la base de ses institutions juridiques et politiques. C'est pourquoi l'IA, vidant cette notion de sa réalité, constituerait une menace pour l'existence même de notre capacité à vivre en société.

Mais c'est une mauvaise raison de craindre l'IA, parce que l'intelligence n'a été redéfinie que récemment comme la capacité à résoudre des problèmes dits complexes. Ces problèmes que nous nous évertuons toujours davantage à formuler en termes quantitatifs, parce que nous pouvons nous aider des machines pour les résoudre. Nous avons redéfini l'intelligence d'une façon qui privilégie la manipulation des nombres - tout en lui conservant inconsciemment un lien avec le libre-arbitre qui ne procède pas de cette nouvelle définition.

Le lien entre l'intelligence et le libre-arbitre provient de la définition classique de l'intelligence, à savoir que l'intelligence est raisonnement, c'est-à-dire langage. C'est le Logos Grec, qui donne -logie dans tous les noms de science.

Dans ce qui suit, je me propose d'investiguer si cette vision traditionnelle est encore d'actualité, et si oui, comment cette définition redécouverte peut modifier notre perception de l'IA, notamment en la rendant moins menaçante. 

 



 
Jeunes homo sapiens perpétuant une tradition vieille de 400 000 ans 

 

L'IA et nous : Le langage est l'intelligence

Dans la première partie de cet article, j'ai fait l'hypothèse que notre angoisse vis-à-vis de l'IA était alimentée par une définition biaisée et assez récente de l'intelligence. Nous devrions au moins reconsidérer si la conception traditionnelle de la raison comme langage - et non comme procédure de calcul - pourrait encore tenir aujourd'hui.

Bien sûr, cela peut paraître curieux : je considère que les mathématiques sont le langage de la nature, et donc du réel. Mais il ne s'agit pas ici de discuter de la structure du texte, ou de prétendre que nos discours auraient quelque propriété intrinsèque les mettant hors de portée de représentation par un modèle mathématique. En fait je suis même convaincu que nous finirons bien par en trouver un.

Mais plus simplement, il faut signaler qu'un modèle mathématique de la structure de la phrase n'est pas suffisant pour décrire ce qu'est le langage. Les modèles actuels représentent le texte - et non le contexte qui le rendent nécessaire ou opportun, et qui avec le texte forme le langage.

D'ailleurs l'industrie de l'IA emploie le terme "langage naturel", mais elle n'étudie que le texte. Or on obtient une vision très différente dès lors qu'on approche ce langage naturel comme un objet de science : quelles sont ses conditions de possibilités ? comment est-il apparu ? 



Des sons articulés avant une pensée articulée

Pour commencer, le langage exprime une signification, ce qui demande un alter ego - un être distinct de moi par son identité pour que la communication soit nécessaire ; et structurellement identique pour que la communication soit possible. Évacuer cette condition comme nous le faisons depuis Chomsky, c'est passer à côté de sa dimension sociale.

La zoologie nous dit que les groupes sociaux peuvent exister avant que le langage se développe ; et la paléontologie nous a appris que toute capacité supplémentaire de coopération était un avantage énorme en termes de survie du groupe à l'aube de l'humanité. Bien sûr, vous pouvez chasser sans le langage, ainsi que construire un abri, vous reproduire et prendre soin de vos petits. Tous ces problèmes - relativement complexes - sont résolus par des animaux dont le cerveau fait la taille d'une cacahuète. C'est l'instinct. Mais pour conserver le feu, ou chasser le mammouth - activités pour lesquelles l'homme ne pouvait pas avoir développé un instinct -, le développement du langage semble un facteur d'adaptation du comportement bien plus crédible que des mutations d'ADN.

Nous pouvons considérer cela comme une cause plausible : le langage s'est développé comme un avantage évolutif apportant au groupe des bénéfices cumulatifs à chaque nouveau niveau de complexité qu'il atteint. L'aspect de groupe est crucial : chaque progrès dans les capacités de communication bénéficie au groupe bien avant l'individu, comme nous pouvons le voir dans les signaux d'alerte des oiseaux.

L'intelligence - au sens de la raison et de la conscience de soi - est potentiellement le résultat de l'intériorisation graduelle de schéma de comportements collectifs. Dans cette hypothèse, le langage est la matrice du raisonnement et de la conscience de soi, au moins autant qu'elle en est le véhicule.

Cerveau conscient et pilote automatique

Tout ce que je viens de dire est évidemment hautement hypothétique. Cependant les résultats de la recherche en neurosciences tendent à confirmer au moins le rôle central du langage dans les processus cognitifs - y compris la perception.

Il est établi - et accepté depuis longtemps - que les hémisphères jouent des rôles assez différents, même s'ils travaillent ensemble : le cerveau droit est prépondérant dans la reconnaissance des formes, la mémoire à court terme, les réflexes acquis et la réponse générale au stress et aux menaces ; tandis que le cerveau gauche travaille dans les situations sécurisées, sur l'information langagière, 4 fois plus lentement sur des tâches similaires, et semble l'agent principal de la mémoire à long terme.

"Grâce" au cerveau droit, nous pouvons réellement parler sans réfléchir, parce que bien des actes de langage sont automatisés par la simple répétition, et deviennent ainsi disponibles en tant que réponses réflexes / inconscientes : "Je ne pensais pas ce que j'ai dit" est en fait une excuse valide pour bien des gaffes. Littéralement, pour penser ce qu'on dit, on doit être conscient de ce qu'on dit au moment où l'on parle - pas après. Une phrase produite sur le mode automatique n'aura que l'apparence du langage, et pas beaucoup plus de signification que si elle avait été prononcée par un perroquet.

En règle générale, la structure du langage doit répondre de la relation entre la phrase et le contexte dans laquelle elle est prononcée - parce que c'est une partie de sa signification. De ce fait, Je est le mot le plus important du langage, parce qu'il est celui de la conscience de soi par le locuteur. Et les autres pronoms personnels suivent de près, puisque ce sont ceux de la conscience de l'autre et du groupe.

La machine peut nous imiter dans la seule mesure où nous l'imitons

Revenons à la comparaison de ces deux conceptions de l'intelligence, comme langage et comme calcul. Deep Blue a fait sensation en son temps en battant Kasparov aux échecs (et AlphaGo, Lee Sedong au jeu de Go). L'univers des échecs, comme celui du Go, est un espace immense mais régi par des règles très simples. Et si vous ne vous sentez pas ontologiquement menacé par le fait qu'une calculatrice de poche à 5€ vous bat en calcul, les exploits de Deep Blue et AlphaGo ne devraient pas vous inquiéter non plus.

Ce qui a changé, c'est que nous découvrons, notamment avec les techniques du Deep Learning, que des mécanismes complexes comme l'établissement de stratégies gagnantes, sont en fait des problèmes assez simples mais dans des espaces mathématiques avec des milliers de dimensions. Une partie de nous, que nous croyions relever spécifiquement de l'humain, relève en fait de la machine complexe.

Et c'est précisément pourquoi nous aurons des machines capables d'imiter l'humain, en particulier les domaines où nous avons mécanisé la pensée : à chaque fois que nous appliquons une procédure, nous tirons une réponse d'un ensemble prédéfini en fonction de paramètres connus. A chaque fois que nous faisons cela, nous prenons le travail des machines - et elles finiront par le récupérer. Ces cas sont simplement plus répandus que nous le pensions : le conseil juridique ou le diagnostic médical tombent clairement dans cette catégorie.

Et cela aura manifestement des bons côtés : si 90% des contentieux juridiques peuvent être résolus à l'aide de recommandations rapides, impartiales, et cohérentes, comment ne pas y voir un progrès en termes d'équité dans l'application de la loi ? Sans compter l'effet sur les délais d'instruction ou le coût global de la justice... De même, qui ne voudrait, s'il avait le choix, être pour 20€ opéré par un chirurgien qui n'a pas besoin de sommeil, ne s'énerve jamais, et affiche 99,99% d'opérations réussies ? Le niveau de soin réservé aux occidentaux aisés pourrait devenir abordable pour le monde entier.

Là j'ai volontairement viré à l'optimisme pur, pour contrebalancer l'angoisse qui peut nous empêcher de réfléchir à l'avenir. Bien sûr il s'agit d'un bouleversement complet de l'organisation sociale et économique, et il y a aussi de bonnes raisons d'être inquiets, parce que nous ne sommes pas très doués pour négocier de tels virages en douceur.

Il est donc sans doute temps pour nous de faire un effort conscient pour devenir plus humains, pour que l'efficience machinique nous reste un complément plutôt qu'une compétition. Parce que là, nous n'allons pas gagner - et il faut continuer à faire du calcul mental, mais pas pour se passer de calculatrice.

Comment nous pouvons commencer à développer le côté authentiquement humain de notre intelligence sera l'objet de la dernière partie. 


Nos perceptions peuvent être étendues par un exercice conscient

 

L'IA et nous : Développer l'Intelligence Naturelle

Dans les précédentes parties j'ai essayé de montrer comment les système à base d'IA, avec toutes leurs capacités à exécuter des procédures complexes, ne devaient pas être nécessairement tenues pour des menaces ; cependant leur impact sur notre société nous oblige, pour pouvoir tirer parti de cette puissance, à développer notre intelligence proprement humaine - l'intelligence naturelle.

Etudier comment le langage peut nous aider à développer nos capacités cognitives sera aussi l'occasion de redécouvrir la définition de ce qu'est l'intelligence. Car dire que c'est le Logos manque un peu de précision ou de puissance opératoire - même si ça fait bien dans les dîners en ville.

Raconte-moi une histoire

La forme la plus ancienne de connaissance est certainement le conte. Il est frappant de voir comme il est partie intégrante de nos institutions, nos coutumes, mais aussi de nos fonctions cognitives. Il existe une anecdote à ce sujet, qui vient en plusieurs versions - comme il se doit pour un conte ...

Un jour une femme demanda à Albert Einstein quels livres elle devait lire à son fils pour qu'il devienne un bon scientifique. Einstein répondit : "des contes de fées" - "et après ?" demanda-t-elle - "davantage de contes de fées" répliqua Einstein.

Le plus surprenant est qu'Einstein n'était pas en train de se moquer d'une maman surinvestie - ou de faire preuve de son excentricité bien connue. Il y a de nombreuses indications que ce qu'il disait était littéralement exact, et plus encore qu'il ne croyait. Nous savons que ce qu'il voulait dire était que l'imagination était la fonction la plus importante pour un chercheur ; mais les recherches actuelles semblent également montrer que les histoires sont les matrices du raisonnement complexe - ce qui était certainement l'objet de la question initiale de son interlocutrice. Les histoires permettent en effet d'associer dans une mémoire de long terme des éléments d'informations disparates, selon des relations qui ont un sens.

La première preuve de cela réside dans les techniques de mémorisation, qui transforment des conventions en micro-histoires, afin d'éviter une mémorisation à court terme seulement. Par exemple, le mot espagnol pour s'asseoir est sentar. Pour le retenir sans effort pour toute votre vie, il suffit de vous rappeler que "les centaures ne s'asseyent pas". La phrase a un sens qui capte l'imagination, et recouvrer sentar à partir de centaure est très facile. L'autre possibilité est d'apprendre l'équivalence sentar = s'asseoir, ce qui demandera un bon nombre de répétitions.

Nous retenons les histoires sur le long terme parce que la mémoire à long terme est opérée par le cerveau gauche, comme le langage. On peut même arguer que les histoires sont la forme naturelle de la mémoire de long terme, si l'on étend cette notion à toutes les informations unifiées par un sens. Le premier résultat, c'est que nous pouvons nous souvenir des choses avec beaucoup de précision et de résilience si nous en faisons une histoire que nous exprimons, soit à l'écrit soit à l'oral. En soi, il s'agit déjà là d'un acquis important : pour maîtriser la complexité de notre monde, nous avons beaucoup de choses à connaître. Autant les apprendre efficacement.

Perception consciente

Mais au-delà de la mémorisation, l'acte de langage participe aussi de la perception. Ceci va à l'encontre de la conception commune : nous pensons couramment que la perception envoie mécaniquement des signaux au cerveau, et que celui-ci les transforme en images mentales du réel. La perception serait alors un mécanisme inconscient dont la précision dépendrait essentiellement de la sensibilité de nos organes physiques.

En réalité, il en va tout autrement. Nous pouvons développer nos perceptions bien au-delà de ce que nous croyons, et il y a une foultitude de preuves à l'appui de cela. L'image mentale que nous formons, même d'un phénomène visuel, est le résultat d'un double processus de mise des perceptions en histoire, et de l'histoire en image. Pour vous en convaincre, faites le test :

Avisez un coucher de soleil, un jardin, une peinture, n'importe quelle scène visuelle - y compris la plus banale. Décrivez-là par écrit ou oralement pour quelqu'un à qui vous voulez la faire partager. Nommez chaque couleur, chaque forme que vous pouvez, ce que les agencements provoquent comme harmonie - ou comme laideur. Votre vision de la scène va changer radicalement.

La façon la plus courante de rendre compte de cela, c'est de parler d'expansion de la conscience (sans LSD). Cette expérience de perception informée par le langage est impressionnante parce qu'elle a un effet visuel inattendu. Mais aussi parce qu'elle dit quelque chose de notre rapport au monde - à savoir que nous percevons le plus souvent le monde selon une granularité assez grossière, parce qu'une partie signification de nos perceptions et interactions est inconsciente, ou pré-consciente. Ici nous ne parlons bien entendu pas de l'inconscient freudien mais plus banalement de tout ce que nous faisons de façon automatique.

Parlez librement

Et nous sommes en droit de dire que les mêmes principes s'appliquent aux processus intellectuels, et en particulier à notre perception des connaissances. Une technique efficace de remédiation à un bon nombre de difficultés scolaires consiste à faire passer l'élève de l'exécution automatique à l'exécution consciente - précisément en lui faisant prononcer à voix haute ce qu'il écrit, ou décrire ce qu'il fait. Les résultats sont parfois spectaculaires : division par 10 du nombre de fautes dans une dictée par exemple. Le plus difficile est de convaincre les élèves de le faire, parce qu'on leur a malheureusement enseigné à travailler en silence et rapidement, et qu'ils voient le fait de parler en travaillant comme une régression vers un stade plus infantile, se privant ainsi de la meilleure partie de leur intelligence.

Il n'y a pas de fatalité cependant : à presque n'importe quel âge il suffit de quelques mois, parfois quelques semaines, pour modifier les circuits cognitifs et rendre un processus conscient. Et pour aider nos adolescents à surmonter leurs réticences, nous pouvons nous-mêmes nous appliquer - avec profit - cette méthode. Pour les aider eux, le plus simple est de beaucoup leur demander "pourquoi" et "comment" sur des éléments de leur leçon, deux questions qui les orientent vers le sens de ce qu'ils viennent de dire.

Connaître c'est aimer

Cette perception plus consciente des choses et des connaissances a d'ailleurs un autre impact d'une extrême importance : elle les fait aimer. En effet, plus les éléments perçus sont en relation avec d'autres éléments - de savoir ou de la vie quotidienne -, plus ils deviennent familiers. Comme un vieux pull, ou une maison d'enfance, les retrouver nous procure le bonheur de se sentir chez soi. C'est assez évident pour l'expérience directe des choses - et nous pouvons accélérer cette familiarisation en leur parlant, ou par la pratique ancestrale du journal personnel. Même un nombre peut devenir familier, acquérir presque une identité lorsque ses diviseurs, multiples, carrés et compléments, tous les nombres auxquels ils est relié par une opération, sont évoqués avec lui.

Car si la familiarisation par la connaissance est avérée, alors il n'est plus possible d'opposer la réussite scolaire et le bonheur de l'élève. En effet, le mécanisme qui gouverne le rapport entre le familier et le bien-être est très bien documenté, ainsi que celui entre l'incertain et le stress : le cerveau gauche ne devient prédominant que dans les domaines connus, et libère des hormones qui contribuent à la détente. C'est pourquoi les enfants vous demandent une histoire le soir, et peuvent facilement s'endormir en cours de route : l'histoire met en route les sphères du langage, et donc la partie du cerveau qui signale qu'on est en sécurité.

Conclusion

La crise que représente le développement de l'Intelligence Artificielle est aussi l'opportunité de réfléchir à ce qui nous rend humains, et de choisir consciemment de le renforcer.

Si nous réussissons à développer notre intelligence du monde, nous aurons davantage de bonheur à l'habiter, et serons plus à même de faire des choix personnels et collectifs profitables à l'humanité, en particulier concernant la place des machines. Et d'ailleurs, le premier résultat du développement de l'Intelligence Naturelle pourrait bien être de changer notre regard sur nos créatures digitales pour ne plus les craindre :

Objets inanimés, avez-vous donc une âme 

Qui s'attache à notre âme et la force d'aimer ?

(Lamartine)

Commentaires

Posts les plus consultés de ce blog