par Emmanuel Brochier, Maître de conférences en Philosophie à l’IPC – Facultés libres de Philosophie et de Psychologie.

Aujourd’hui, la question de savoir si une transformation de l’être humain pourrait advenir en raison du développement des robotiques, ne semble avoir de sens qu’à la lumière de l’évolution. Nous montrerons comment cette question s’est imposée avec le transhumanisme, et en quoi les robotiques pourraient, tout au moins théoriquement, permettre d’augmenter l’homme dans ses capacités physiques, psychologiques et intellectuelles, et contribuer à l’amélioration de son ressenti ou à une profonde transformation de sa nature. Le problème est de savoir si nous avons encore le choix. Est-il en effet sérieusement possible d’envisager une robolution qui ne soit pas conduite par des philosophies de l’homme augmenté ? Nous le croyons, à condition toutefois que nous sachions relever les défis de l’éducation. Mais sommes-nous prêts à ne pas vivre comme des robots ?

Lire l'article complet

François-Xavier Clément : Il me revient l’honneur de présenter notre intervenant et je vais être particulièrement bref car il m’a prévenu que lui-même n’étant pas un robot, il aura probablement des difficultés à rester dans un format strict et le développement de sa pensée nécessitera de donner un peu d’ampleur, et d’ampleur peut-être à la notion de temps, mais ça serait un autre sujet. Simplement vous dire qu’Emmanuel Brochier est professeur à l’IPC – Facultés libres de Philosophie et de Psychologie de Paris, qu’il est docteur en histoire de la philosophie médiévale, sur le sujet qu’il a traité dans la philosophie de saint Thomas d’Aquin tout particulièrement, et dans ce travail il a reçu la mention Très honorable, avec les félicitations du jury, à Paris IV-Sorbonne en 2010. Parmi ses engagements intellectuels, Emmanuel Brochier est membre de l’équipe de recherche de l’IPC intitulé « Métaphysique, philosophie de la nature et philosophie pratique ». Il est par ailleurs membre associé au Laboratoire d’histoire des sciences et de philosophie du CNRS à Nancy, il est membre du comité de direction de la formation et de la recherche de l’IPC, il fut aussi vice-président de la Société Internationale de Philosophie Réaliste et à ce titre a participé à de très nombreux travaux depuis son engagement comme professeur au sein de cette Faculté. Je souligne au passage, et ma présentation ne sera pas exhaustive vous l’aurez compris, il est membre de l’équipe de recherche d’éthique biomédicale de la Faculté Notre-Dame du Collège des Bernardins depuis 2014, et qu’à ce titre le sujet qu’il va aborder fait partie des sujets, j’ose le dire, de prédilection, d’Emmanuel Brochier, je l’ai moi-même entendu à plusieurs reprises sur ce sujet, et je sais qu’il est capable d’entrer en résonance aussi bien avec la tradition réaliste, mais aussi avec d’autres traditions philosophiques pour y apporter à la fois un regard critique, et une lumière qui est celle de la tradition réaliste.

Emmanuel Brochier : « Il est une chose dont nous avons maintenant la certitude, écrit Isaac Asimov : les robots changent la face du monde et nous mènent vers un avenir que nous ne pouvons encore clairement définir ». Ce n’est pas seulement que les futurs sont contingents, c’est aussi, comme il appert dans l’ensemble des récits d’Isaac Asimov, l’affirmation de la nécessité d’une redéfinition de l’humain avec l’idée transhumaniste que l’homme tel qu’il est aujourd’hui n’est que le moment d’une histoire évolutive et qu’il sera profondément transformé par la seule présence de robots de plus en plus humains. Or, ce que la science-fiction prophétise , les roboticiens tendent à le réaliser. La question se pose alors de savoir si les robotiques transforment l’avenir de l’être humain, et elle se pose en des lieux prestigieux comme l’université d’Oxford qui a son Institut pour le futur de l’humain créé en 2005 par le philosophe Nick Bostrom , celle de Cambridge avec son Centre d’étude des risques existentiels créé en 2012 , ainsi que l’université de Berkeley aux Etats-Unis avec son Institut de recherche sur les machines intelligentes qui réunit des noms célèbres dans la sphère transhumaniste comme Ray Kurzweil ou Aubrey de Grey . Néanmoins, la question est-elle bien posée ? A-t-elle un sens en dehors de la science-fiction et du transhumanisme ? Pourquoi les transhumanistes sont-ils en train de nous imposer leurs problématiques ?

Les robotiques sans le transhumanisme

Il faut reconnaître qu’aucune définition du robot ne fait encore autorité, et qu’il semble quelque peu impropre d’appeler robot un système téléopéré comme le « robot chirurgien » da Vinci de la société Intuitive Surgical . Nous avons toutefois déjà pris l’habitude de parler des robots ménagers. Ces derniers ont-ils quelque chose en commun avec les robots tondeuses qui apparaissent sur nos pelouses ou le robot aspirateur Roomba, de la marque iRobot, dont la première génération a été commercialisée en 2002 aux Etats-Unis, et qui fonctionne, comme on dit, en parfaite autonomie ? Pourquoi un Jacques de Vaucanson qui au XVIIIe siècle, à défaut de savoir réaliser son projet d’un homme artificiel, fit un canard mécanique qui « allonge son cou pour aller prendre le grain dans la main, l’avale et le digère », n’est-il pas considéré comme le père de la robotique ? Quelle différence y a-t-il entre un automate et un robot autonome ? Dire qu’un robot est une machine mécatronique, alliant mécanique, électronique et informatique, c’est n’envisager que les robots de deuxième et troisième génération. En revanche, les robots de première génération n’étaient guère différents des automates. Quand Joseph F. Engelberger et George Devol décident dès 1958 de créer le premier robot industriel, ils l’appellent Unimate, une simple contraction d’Universal Automation . Le premier brevet est déposé en 1961. Il s’agit d’un bras articulé d’1,5 tonne, capable de manipuler une pièce de 150 kilos. Il sera installé sur les chaînes de montage de General Motors dans le New Jersey. On le considère avec raison comme le premier robot dans la mesure où il y avait chez Engelberger et Devol la volonté de construire des artéfacts comparables à ceux que l’on trouve dans les romans d’Isaac Asimov. La science-fiction est donc à l’origine de la robotique. Et ce, d’autant plus que le mot lui-même provient de la S-F. Chacun sait que le néologisme robot apparaît en 1920 dans la pièce de théâtre de Karel Čapek intitulée R.U.R, un acronyme qui désigne les Robots Universels de Rossum . Le concept de robot devient alors plus clair, puisque robota signifie corvée en langue tchèque, et rob signifie esclave en slave. La pièce de Karel Čapek met en scène un certain Rossum qui produit dans ses ateliers des androïdes dont les performances au travail sont bien supérieures à celles de l’homme. Pour autant, les robots de Rossum ne sont pas des hommes, ce sont des esclaves dont la fonction est de décharger l’homme de ses corvées. L’ingénieur Fabry, l’un des protagonistes de la pièce, déclare : « un Robot remplace deux travailleurs et demi ». Ainsi le robot apparaît-il comme le dispositif qui permet de décharger l’homme d’un travail inhumain. Hélène, une « robote », insiste pour rendre les robots plus perfectionnés en les dotant d’une capacité de raisonner. Ils finiront par se retourner contre les humains, qui sont tous éliminés sauf un, le seul à pouvoir travailler pour les robots. Radius, le meneur de la révolte, peut alors déclarer : « L’étape de l’humanité est dépassée. Le monde nouveau a commencé. Vive le gouvernement des Robots ! » Sa déclaration suggère que, même doté d’une capacité de raisonner, le robot n’est pas un homme, tout comme la copie, y compris lorsqu’elle est améliorée, retouchée, n’est pas l’original. Selon Karel Čapek, il manque au robot la capacité d’éprouver des émotions. L’automate imitait le vivant sans être vivant, le robot ne sera jamais lui aussi qu’une imitation. Notons que les robots de Karel Čapek ne sont pas des êtres de métal, ils sont issus de matériaux biologiques de synthèse. Ainsi, Asimo par exemple, le premier robot humanoïde capable de marcher, construit par Honda Motor en 2000, est encore bien loin de ressembler aux robots de Rossum . Par ailleurs, il n’est pas nécessaire d’avoir une forme humaine pour être un robot. Il suffit d’un système qui reproduise dans le monde réel une tâche humaine ou l’activité d’un animal domestiqué par l’homme, comme le phoque Paro, ce robot en peluche développé à partir de 1993 pour aider les personnes atteintes de la maladie d’Alzheimer, et certifié en 2009 aux Etats-Unis (par la Food and Frug Administration) robot thérapeutique . Nous n’avons pas défini le robot, pas plus que les organismes internationaux de normalisation, mais nous pouvons dire comme Joseph Engelberger, celui que l’on considère comme le père de la robotique : « Je ne sais pas définir ce qu’est un robot mais j’en reconnais un quand je le vois ».

Il existe donc différentes robotiques, dans la mesure où les robots que nous fabriquons n’imitent jamais les hommes dans l’ensemble de leurs tâches, mais seulement dans quelques tâches bien spécifiques. On a pris l’habitude de distinguer les robots industriels des robots de service, une distinction qui cependant commence à devenir obsolète. Dans le premier cas, le robot opère au sein d’un environnement fermé sans interaction avec l’homme, dans l’autre il peut entrer en contact avec lui. Le robot industriel, selon George A. Bekey en 2008 , remplace l’homme pour les travaux considérés comme dangereux, ennuyeux, sales et stupides. Nous sommes dans l’esprit des robots de Rossum. Leur forme dépend bien naturellement de leur fonction. Les robots de deuxième génération sont tous munis de capteurs visuels, sonores ou tactiles par lesquels ils collectent les données de leur environnement, de processeurs qui analysent les informations, et d’effecteurs qui leur permettent d’agir dans le monde – ce en quoi le robot apparaît comme une machine qui simule l’animal. Les robots de troisième génération sont en outre dotés d’une intelligence artificielle – ce en quoi ils simulent les compétences des animaux supérieurs, et nous rappellent que l’homme est lui-même un animal. Les robots de service, en revanche, sont utiles au quotidien, soit pour surveiller, soit pour assister l’éducation ; ils peuvent aussi être des compagnons de jeux. Ils prennent parfois une forme humanoïde comme Nao, ce robot de 60 cm créé en 2005 par la société française Aldebaran Robotics qui, depuis, a été vendu au japonais Softbank ; ou Romeo son grand frère de 1,40 m dont le projet initié en 2009 vise à le rendre capable d’assister des personnes dépendantes et ainsi à le doter de la capacité de se repérer face à des obstacles, de marcher, de porter des objets, et d’aider des humains à se relever . Beaucoup ont vu, par ailleurs, ces images d’Atlas, le robot humanoïde de Boston Dynamics capable de faire un salto arrière ou de franchir un parcours d’obstacles . Financé par la Darpa, il a un usage militaire. Boston Dynamics a également produit Bigdog, un robot d’assistance pouvant jouer le rôle d’une mule , ainsi que SpotMini qui, très agile, est capable de monter les escaliers et d’attraper des objets bien que ce soit un robot quadrupède . On a également beaucoup parlé, pour les dénoncer, des robots tueurs . Ils ne sont pas nécessairement mobiles, mais sont totalement autonomes en ce sens que les militaires leur délèguent la décision de tuer. La Chine, la Russie et les États-Unis se livrent à une course qui n’a de précédent que la course au nucléaire. À titre d’exemple, on peut évoquer le char-robot autonome russe Nerehta ou encore l’entreprise russe Kalashnikov qui développe NeuroNet, une technologie logicielle d’apprentissage automatique — basée sur des algorithmes de réseaux de neurones artificiels — permettant au robot, selon leur communiqué de presse, « d’identifier des cibles, de s’améliorer par l’expérience et de décider par ’lui-même’ des tirs à effectuer ». Dans ce cas, peut-on encore parler de robotique de service ? Quoiqu’il en soit, la distinction a perdu de sa pertinence depuis le développement de la cobotique, un marché en 2020 estimé à 100 milliards d’euros par la Commission européenne. Le terme a été proposé en 1996 par J. E. Colgate, W. Wannasuphoprasit et M. A. Peshkin . Il s’agit de promouvoir un « robot conçu pour une interaction directe avec un opérateur humain, dans un espace de travail partagé ». Dans ce cas, le robot n’est pas autonome ou n’est que semi-autonome téléopéré. On distingue la cobotique industrielle, militaire, médicale et conviviale. Pour sa part, Laurence Devillers insiste sur les robots sociaux qui vont entrer dans nos quotidiens comme y sont entrés les ordinateurs. Dans son laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (LIMSI-CNRS), « nous travaillons, dit-elle, sur une modélisation d’un certain humour de l’ordinateur ». L’objectif est aussi de conférer de l’empathie à la machine : « L’empathie artificielle des robots interagissant avec nous amène un nouveau champ de recherche sur la coévolution entre humain et machine . » Selon elle, à terme, les avancées de l’intelligence artificielle le rendant possible, l’objectif serait de construire des « robots éthiques » capables de choisir les tâches selon des principes moraux.

Laurence Devillers est à la fois roboticienne et spécialiste de l’éthique des robots. Elle dénonce le fantasme du transhumanisme. Car les robotiques ne transforment pas l’avenir de l’être humain, mais seulement la société des hommes. Nous sommes loin de la science-fiction et d’une redéfinition de l’homme. En revanche, comme le suggère le nom de cette discipline nouvelle, l’éthologie artificielle, la robotique permet de modéliser l’animal et l’homme . Et les nanorobots du transhumaniste Ray Kurzweil ont déjà leur prototype avec les machines moléculaires pour lesquelles J. Frazer Stoddart, Bernard F. Feringa et le français Jean-Pierre Sauvage ont reçu le prix Nobel de chimie en octobre 2016 . Il se pourrait donc, qu’avec les robotiques, le transhumanisme ne soit plus un fantasme.

Les enjeux transhumanistes de la robotique

L’idée d’un homme transformé, amélioré, augmenté au moyen des nouvelles technologies est défendue par le transhumanisme. Mais ce dernier reste difficile à définir. Nick Bostrom par exemple, qui a fondé en 1998 avec David Pearce l’Association Mondiale Transhumaniste (WTA), devenue depuis Humanity + , avoue en 2017 dans un interview aux Échos, ne pas savoir s’il est transhumaniste et ce, en raison de la grande confusion autour de ce terme. À force de désigner tant de choses si différentes, le mot finit par ne plus rien signifier du tout. Nick Bostrom garde néanmoins la conviction « que, dans le futur, la technologie ne servira plus seulement à transformer le monde extérieur, mais qu’elle offrira des possibilités de transformer la nature humaine en étendant nos capacités humaines ». C’était déjà la principale thèse de la déclaration transhumaniste signée en 2009 dans le cadre de l’Association mondiale transhumaniste . Le transhumanisme y apparaît à la fois comme un mouvement culturel et comme un courant philosophique dont la caractéristique est d’envisager ce que pourrait être l’homme dans le futur à long, court et moyen terme. La déclaration reconnaît qu’il existe des scenarii dystopiques avec le risque de perdre tout ce qui est souhaitable, et des scenarii utopiques qui décrivent un avenir « excessivement souhaitable », une position down to earth, c’est-à-dire intermédiaire, restant néanmoins transhumaniste. En effet, tout l’enjeu de celui-ci est, selon ce que Nick Bostrom appelle le « Principe de développement différentiel des technologies », de favoriser l’élargissement du potentiel humain quand cela est souhaitable, et de ralentir le développement de technologies dangereuses ou malfaisantes. Alors, certes, le transhumanisme n’est lié à aucune technologie particulière, et peut donc être envisagé sans les robotiques, tout comme celles-ci peuvent présenter des problématiques indépendantes du transhumanisme, mais dès qu’il est question du dépassement de l’humain, de sa transformation, la problématique est transhumaniste. On pourrait aller jusqu’à dire que le développement du transhumain passe également par ceux qui, par ailleurs, dénoncent le transhumanisme comme un fantasme ou un mythe, et qu’il peut être promu par des personnes qui ignorent tout de celui-ci – ce qui apparaît clairement lorsqu’on prend en compte le vrai transhumanisme, pour reprendre l’expression de Max More , c’est-à-dire non pas celui des médias ou de ses détracteurs, mais celui des transhumanistes eux-mêmes. Pour un état de l’art sur le plan académique écrit en langue française, nous renvoyons à l’article de l’Encyclopédie Philosophique disponible en ligne, signé par Jean-Yves Goffi . Selon Simone Batemane et Jean Gayon, « l’expression human enhancement désigne un ensemble d’actions, réelles ou projetées, qui visent à augmenter les potentialités du corps humain, voire en créer de nouvelles . » Ils distinguent très justement trois usages de cette expression : l’augmentation des capacités, l’amélioration de la nature humaine, et l’amélioration du ressenti. Regardons dans chacun des trois cas les liens avec les robotiques.

En ce qui concerne l’augmentation des capacités, nous nous bornerons aux cas des exosquelettes et de la « machine superintelligente » imaginée par le mathématicien Irving J. Good dès 1965 . Selon la norme ISO 8373 de 2012, sur « Les robots et les composantes robotiques », les exosquelettes appartiennent à la catégorie des robots physiques à contention (RAPac). Autrement dit, il s’agit de combinaisons robotisées qui permettent « d’allier la force, la robustesse et la répétabilité d’un robot avec l’intelligence et les capacités d’analyse et de prise de décision d’un opérateur humain ». Dans son rapport publié en 2017 sur « les robots et dispositifs d’assistance physique », l’INRS constate que ces dispositifs ont pour objectif « d’augmenter et améliorer les performances de l’opérateur ». « On peut faire l’hypothèse, note également le rapport qui cherche à évaluer les risques en milieux professionnels, que les changements introduits dans l’organisation du travail par l’utilisation d’un RAP, une augmentation de la cadence et la réduction des temps de pause pourraient mener à des risques psychologiques liés à l’interaction homme-robot, tels qu’un sentiment de dépendance, de perte d’autonomie et d’identité ». Quant aux risques physiques, ils seraient « liés à une possible standardisation du geste, à une éventuelle fonte musculaire ou à l’inverse, une sur-sollicitation locale et un déplacement des contraintes sur d’autres zones du corps . » Jean-Jacques Atain Koudio et Adel Sghaier, les rapporteurs, ne sont pas des transhusmanistes. Où est alors la différence ? Car Nick Bostrom affirme lui aussi la nécessité de prendre en compte « le principe du bien commun » en vertu duquel une technologie ne peut être développée que « pour le bénéfice de toute l’humanité et mise au service d’idéaux éthiques largement partagés », au premier rang desquels il y a, comme chacun sait, la santé définie depuis 1946 comme « un état de complet bien-être physique, mental et social ». La différence ne réside pas dans le fait, mais dans son interprétation. Tout outil augmente l’homme, en ce sens qu’il renforce et prolonge nos organes. En revanche, comme le notait Alexandre Koyré, la machine, quand elle incarne une mathématique, élargit la puissance de l’homme. En ce sens, la machine n’est pas le prolongement de l’organe . On manie un outil, tandis qu’on conduit ou actionne une machine. « Il est tout à fait remarquable, écrit Koyré, qu’Aristote ait si bien compris l’essence de la machine, l’automatisme, que les machines n’ont réalisé pleinement que de nos jours ». La machine est comme l’esclave de la Politique d’Aristote, un « instrument animé », et donc un robot ou l’embryon d’un robot, un golem . Koyré pensait à la célèbre formule d’Aristote : « l’esclavage cesserait d’être nécessaire si les navettes et les plectres pouvaient se mettre en mouvement d’eux-mêmes . » Ainsi, il appert que l’homme augmenté n’est pas un concept transhumaniste. Ce qu’ajoute le transhumanisme n’est autre qu’une interprétation évolutionniste, du moins si l’on en croit le sens que prend le mot avec Julian S. Huxley en 1951 . Huxley envisageait alors une philosophie qui ne se reconnaissait plus dans l’Humanisme – celui des Lumières promu par Rousseau et par Condorcet –, puisque celui-ci avait échoué, le progrès des sciences et des technologies ayant conduit à la barbarie et, non comme on l’avait espéré, à la paix universelle. Biologiste néodarwinien, auquel on doit également le syntagme théorie synthétique de l’évolution, Huxley estimait que l’homme, restant homme, allait réaliser de nouvelles possibilités qui le feraient évoluer, et que cette croyance méritait d’être désignée par un nom nouveau : transhumanism. Ainsi, dès lors que nous envisageons l’augmentation d’une capacité humaine par une nouvelle technologie comme quelque chose qui pourrait constituer un avantage évolutif, non pour une entreprise ou pour une économie, mais pour l’homme lui-même, nous entrons dans la perspective du transhumanisme.

La superintelligence, de son côté, est quelque chose qui n’a aucune actualité et n’en a jamais eu ; elle intéresse cependant les transhumanistes dans la mesure où ceux-ci sont persuadés qu’à l’avenir, elle pourrait en avoir une. Certes, les architectures actuelles de nos intelligences artificielles ne permettent pas la réalisation d’intelligences générales. Mais ces architectures seront tôt ou tard dépassées. Il faut espérer, estime Nick Bostrom, que nous parvenions à réaliser une ou plusieurs superintelligences avant le développement des nouvelles technologies qui pourraient s’avérer très dangereuses :
Puisqu’un péril non négligeable serait associé au développement par les humains de la biologie de synthèse, des nanotechnologies moléculaires, du génie climatique, des instruments d’augmentation biomédicale et de manipulation neuropsychologique, des outils de contrôle social permettant le totalitarisme ou la tyrannie, et de toutes les technologies encore non imaginées, ce serait vraiment une bénédiction d’éliminer ces risques. Un argument pourrait ainsi être développé en vertu duquel une arrivée précoce de la superintelligence est préférable .

Selon Bostrom, le projet d’une superintelligence est réaliste puisque l’évolution a déjà produit un cerveau humain sans que celui-ci ne constitue pour autant le terme de l’évolution, et parce que la nature est imitable dans ses processus et dans ses résultats . La superintelligence serait donc une machine qui, imitant l’intelligence humaine, excéderait « largement les performances cognitives des êtres humains dans tous les domaines possibles . » Notons que la réflexion autour de la superintelligence constitue non pas une théorie scientifique dotée d’un pouvoir prédictif mais, comme l’envisageait Popper pour la théorie de l’évolution, un « programme métaphysique de recherche », et que ce programme porte sur un certain type de robots, et pas seulement sur un ordinateur surpuissant, puisque Nick Bostrom affirme que « le but ultime de l’intelligence artificielle doit être la disparition du travail » (Les échos 27/06/2017). Cependant, on pourrait croire que nous sommes loin du transhumanisme, parce qu’il n’est pas question d’un homme augmenté mais, dans les scenarii de Bostrom, de sa copie devenue plus parfaite que l’original. Ce serait toutefois oublier la première définition du transhumanisme contemporain qui apparaît en 1990 avec Max More. Le transhumanisme se présentait alors comme un courant philosophique qui cherche à prolonger et à accélérer l’évolution de la vie intelligente par-delà sa forme et ses limites actuelles au moyen de la science et de la technologie, et ce dans le respect de principes et de valeurs qui promeuvent la vie . » Avec Nick Bostrom, il est clair que celui-ci vise encore, et principalement, l’augmentation des capacités intellectuelles, ainsi que le transfert de nos capacités de calcul et de décision à la machine. En ce sens, si nous restons dans la perspective transhumaniste, il n’est pas exagéré de dire que les robots de 3° génération constituent déjà la population des transhumains, sans que nous ayons à attendre une superintelligence qui relèverait, quant à elle, du posthumain. Il n’est donc pas nécessaire d’être transhumaniste pour contribuer au monde des transhumains. Si l’on en croit Max More, le transhumaniste est un philosophe qui envisage une « eupraxsophy », c’est-à-dire qui ne se contente pas d’interpréter le monde, mais cherche à orienter l’évolution de l’humanité au moyen des sciences et des technologies, et à lumière de valeurs qui promeuvent la vie.
Néanmoins, l’exosquelette reste un vêtement, et la superintelligence, un compagnon hostile ou bienveillant. Or les transhumanistes envisagent des transformations bien plus profondes, celles du corps humain lui-même, dont les cas du cyborg et des nanorobots se présentent comme des exemples exemplaires. Les progrès en robotique constituent ainsi une opportunité de la plus haute importance pour le transhumanisme.

En 2005, les grands médias font connaître Neil Harbisson qui se considère comme le premier cyborg . Du fait qu’il apparaisse sur la photo de son passeport avec un eyeborg, Harbisson estime ne plus être ni un homme ni une machine. Et en 2010 il crée la Fondation Cyborg . Son eyeborg fonctionne avec une caméra montée sur le crâne qui capte les couleurs et les convertit en temps réel en ondes sonores. Cependant, nous sommes encore loin du vrai cyborg. Il faut rappeler que l’origine de ce concept n’est pas dans la science-fiction, mais dans un article publié en 1960 par deux scientifiques, écrit dans le cadre de la conquête spatiale , où le mot cyborg, simple contraction du syntagme anglais cybernetic organism, sert à désigner une solution pour s’approprier des espaces inhabitables au moyen d’un dispositif cybernétique incorporé qui laisse l’esprit libre : le mot d’ordre était alors de transformer l’homme plutôt que son environnement . En ce sens, il ne suffit donc pas de porter un eyeborg pour devenir un cyborg. On ne peut parler de cyborg que lorsque l’intégration d’un dispositif robotique permet à un organisme une adaptation en milieux hostiles. Le cyborg n’a donc de sens lui aussi qu’à la lumière de l’évolution, il s’agit à proprement parler d’un homme ou d’un animal évolué. Quoiqu’il en soit, dans tous les cas de figure, le cyborg ne consiste pas seulement en une amélioration des capacités humaines, mais en un changement de la nature humaine. Évidemment, il n’est pas question de conférer ici un sens métaphysique au mot nature , mais de faire référence à la structure et aux fonctions que le corps humain peut ou non exercer. Le présupposé philosophique issu de l’évolution et confirmé par les nanotechnologies, comme le déclarent Rocco et Bainbridge, dans le rapport CT-NBIC , qui a promu en 2002 la convergence des nouvelles technologies pour l’amélioration de la performance humaine, et propulsé le transhumanisme sur la scène internationale, est qu’il n’existe pas de différence radicale entre le vivant et le non-vivant, l’artificiel et le naturel. Ainsi, l’enjeu transhumaniste des robotiques met en évidence l’existence d’une philosophie de la nature sous-jacente et naïve parce que jamais interrogée .

Cette naïveté semble apparaître au grand jour chez Ray Kurzweil. Dans ses prévisions de 2015, il estimait en effet qu’en 2039 des nano-véhicules seraient implantés directement dans le cerveau pour nous permettre, en effectuant une entrée et une sortie arbitraires des signaux de notre cerveau, des expériences de réalité virtuelle « à immersion totale » sans équipement supplémentaire. Il affirmait également que 2042 pourrait voir la première réalisation potentielle de l’immortalité grâce à un essaim de nanorobots qui viendraient compléter le système immunitaire et nettoyer les maladies. En 2043, le corps humain devrait, à ses yeux, pouvoir prendre n’importe quelle forme grâce à un grand nombre de nanorobots. Les organes internes seraient alors remplacés par des dispositifs cybernétiques de bien meilleure qualité. Les principes de ses prédictions sont exposés dans The singularity is near . Ici, les nanorobots ne sont plus les éléments d’un être hybride, ils viennent se substituer à l’organisme tout entier. Certes, Kurzweil est très contesté . Mais ceux qui protestent pourraient avoir oublié de prendre la mesure du changement qui s’est produit lorsqu’on est passé, pour parler à la manière d’un Koyré, du monde de l’à-peu-près à l’univers de la précision. En médiatisant notre rapport au monde par des instruments de mesure, nous avons certes gagné en précision, mais nous sommes sortis du monde du sens commun pour entrer dans le monde entendu comme « la totalité mathématique de tous les phénomènes », selon l’expression de Kant. Et Michel Paty d’insister : « le rôle de l’instrument n’est pas seulement de fournir la « mesure », mais de produire le phénomène . » La conséquence est que les sciences sont dans l’incapacité de dire ce que sont les choses qui existent indépendamment de toute mesure, et donc de distinguer le corps humain d’une machine qui, en elle-même, peut être modifiée, améliorée, augmentée. Ainsi, quand nous protestons, y compris lorsque nous sommes des hommes de sciences, nous retournons dans le monde de l’à-peu-près où, forts de notre expérience de vivre, l’homme nous semble spécifiquement ou foncièrement différent de la machine. En revanche, et paradoxalement, dans le monde de la précision, cette distinction s’évapore. En 1936, Alan Turing a montré que la machine était d’essence mathématique . Dans God and Golem, Wiener écrit : « pour nous une machine est un dispositif convertissant des messages d’entrée en messages de sortie. Un message dans ce contexte, est une séquence de quantités qui représentent des signaux dans le message . » Ainsi entendue, une machine est indifférente à son support. Comme le dit John R. Searle avec beaucoup d’humour, on pourrait fabriquer un ordinateur avec des chats, des souris et du gruyère, il faudrait seulement beaucoup de chats, beaucoup de souris et beaucoup de gruyère . Et Jean Vioulac dans Approche de la criticité d’ajouter avec malice :
La difficulté à concevoir l’ère de la machine se redouble du fait que la pensée elle-même est soumise à l’emprise du calcul de toutes choses, qu’elle devient ainsi machinale, et le dispositif de recherche n’est lui-même, comme le reconnaissait Wiener après Husserl, qu’une « machine scientifique » où les ‘chercheurs’ sont autant de rouages bien huilés enrôlés dans un vaste programme de numérisation et de databasification universelles .
Dans ce cas, le problème est moins le transhumanisme et ses projections que, pour l’homme dont l’existence a en elle-même sa consistance propre indépendamment de toute mesure, le risque d’imiter la machine dans ses décisions et dans sa manière de penser. C’était déjà un risque du même ordre que Jean-François Lyotard perçut lorsqu’il introduisit en philosophie le concept de post-modernité. Dans ce rapport sur l’état du savoir remis au gouvernement du Québec en 1979, il suggérait avec clairvoyance que l’informatisation de la société rendait quasi impossible le fait qu’une philosophie classique puisse encore orienter les sciences , et que ces dernières ne se justifiaient plus que par la « performativité ». Certes, on pouvait objecter avec Claude Bernard que le principe fondamental de la méthode scientifique est le doute, et donc que la science cherche avant tout la vérité . Mais cela revenait à ne pas voir que les sciences et les technologies ont changé de paradigme lorsque fut introduit dans les faits le concept d’innovation comme critère principal pour financer les projets de recherche. Outre que les scientifiques ne sont plus libres de leur recherche, contrairement à ce que recommandait le rapport « Science – The Endless Frontier » qui avait mis en place en 1945 le modèle Recherche & Développement , puisqu’ils sont désormais enjoints à ne chercher que ce qui pourrait avoir un impact sociétal, il est au moins un point où le changement de paradigme apparaît nettement : en effet, l’innovation est désormais devenue le critère qui dispose fortement les scientifiques à se montrer optimistes plus que sceptiques sur les résultats attendus . De ce point de vue, tout l’effort de Kurzweil semble n’exprimer que sa volonté d’être le premier de classe. On pourra toujours lui objecter que sa démarche est vaine, qu’un homme est autre chose qu’une machine. Si l’on en croit Thomas Kuhn, dont l’astrophysicien Jean-Pierre Luminet vient, pour l’édition 2018 de la Structure des révolutions scientifiques, de rappeler l’importance pour comprendre ce qui se joue avec l’IA et le transhumanisme , on n’aboutira jamais qu’à un dialogue de sourd. Il faudrait pouvoir retrouver les chemins d’une philosophie de la nature dont Olivier Rey a rappelé, dans son ouvrage sur le rôle de la science dans l’absurdité contemporaine, qu’elle n’avait jamais été réfutée , une philosophie fortement enracinée dans l’expérience commune plutôt que stimulée par l’imagination, soutenue par le langage ordinaire, lequel n’exprime point comme on l’a trop souvent répété des constructions, mais une première compréhension des choses, et surtout une philosophie fortifiée par de solides raisonnements. Elle ne s’opposerait pas aux développements de nos sciences, mais servirait de contrepoint et de régulateur.

Maintenant, et en vue de formuler une conclusion provisoire, admettons que malgré l’inscription de notre être dans une histoire évolutive, nous renoncions à transformer notre « nature » humaine, la question se pose encore de savoir si nous renoncerions aussi à l’amélioration du ressenti. Sans aborder la question des robots sexuels, même si le problème se posera et se pose déjà , les robots sociaux semblent pouvoir devenir de bons partenaires pour une amélioration du ressenti . Laurence Devillers écrit :
Le rôle des émotions dans la prise de décision rationnelle a été montré par António Damásio et a donné des nouvelles perspectives à la construction d’artefacts d’intelligence artificielle : les robots doivent être interactifs émotionnellement pour mieux s’adapter à l’environnement social et prendre les bonnes décisions. Le comportement émotionnel est un attribut nécessaire des relations sociales, ce qui fait de l’interprétation et de la reproduction d’émotions une capacité indispensable des robots intégrés dans le milieu des interactions sociales.

N’aurions-nous pas, en effet, un meilleur ressenti avec des robots amis qui prennent de bonnes décisions ? Loin d’être transhumaniste, Laurence Devillers estime possible, au moins dans une certaine mesure, de construire des robots éthiques capables de choisir les tâches à effectuer en fonction de principes moraux : « Un robot éthique pourrait ainsi refuser de faire une tâche ou pourrait choisir de faire une tâche plutôt qu’une autre en se fondant sur des raisonnements éthiques . » De son côté, Nick Bostrom estime que seule une superintelligence peut être éthique, car nous sommes dans l’incapacité de dire ce que doit être l’éthique, vu que les philosophes de professions se partagent entre l’éthique déontologique (25,9%), l’éthique conséquentialiste (23,6%), et l’éthique de la vertu (18,2%) . Entre ces deux positions, il ne semble y avoir qu’une différence de proportion. Ainsi, que révèle la croyance selon laquelle on pourrait transférer la morale à une machine ?

La question bien déterminée est donc moins, je crois, de savoir si les robotiques transforment l’avenir de l’être humain que de savoir si les robotiques sont une bonne modélisation de l’homme ou, pour être encore plus précis, la question est de savoir si l’éducation n’a pas transformé l’avenir de l’être humain au point qu’il pourrait désormais devenir parfaitement imitable par des robots, voire au point où il pourrait chercher lui-même à imiter des robots de plus en plus performants, ou vouloir renoncer à ce qui pourtant l’élève : comme calculer, traduire, cuisiner, ou écrire une thèse . Le problème est que l’homme dont on dit qu’il se distingue par sa morale, semble avoir fini par accepter pour lui-même une morale d’esclave, c’est-à-dire de robot . Dès lors, le problème est aussi de savoir quelles sont, en dehors de toute technologie, les ressources dont l’homme dispose pour se libérer de ses nouveaux esclavages ? Peut-on miser sur la contribution d’une philosophie de la nature émergente ? Les résultats déjà obtenus nous en donnent la conviction, mais la philosophie de la nature est une discipline encore trop méconnue.

Échange de vues

Marie-Joëlle Guillaume : Je remercie beaucoup notre orateur de ses propos, qui suscitent en nous, je crois, un double sentiment. On est d’abord saisi d’admiration pour l’érudition dont vous faites preuve dans un domaine qui, pour la plupart d’entre nous sans doute, reste très neuf. Parallèlement, on est quelque peu déconcerté et l’on a même le vertige devant un certain nombre de perspectives. Il sera intéressant de les aborder dans le débat.
Vous avez souhaité nous parler successivement de deux choses. D’abord des robotiques sans le transhumanisme – et vous en avez tracé un panorama extrêmement détaillé, précis, incisif ; ensuite, des enjeux transhumanistes des robotiques. Si vous le voulez bien, nous allons suivre ce plan pour entrer dans le débat. Et donc évoquer d’abord les robotiques sans le transhumanisme. Personnellement, j’ai tout de même noté qu’au fil du développement, en décrivant l’évolution des robots, vous avez mis en évidence qu’en partant de robots chargés d’accomplir des tâches désagréables à la place de l’homme, on en arrive petit à petit à des robots qui pourraient exercer des tâches agréables, et transformer sinon les hommes, en tout cas les sociétés. C’est un élément très important. Car se pose alors le problème du travail humain et de sa valeur.

Notre ami Jean-Pierre Lesage, membre de notre Académie mais qui ne pouvait pas être là, souhaitait vous poser une question sur l’utilisation de la robotique dans le système productif – que je reprends tout à fait à mon compte après vous avoir entendu.

En effet, s’agissant de remplacer une tâche effectuée par un humain par une tâche effectuée par un robot, vous avez cité un certain nombre d’exemples et l’on pourrait en ajouter d’autres. Or, poser un diagnostic médical, rédiger un article – vous parliez aussi de rédiger des thèses – sont des tâches humainement intéressantes. Les humains qui effectuaient ces tâches vont perdre leur emploi. A cet égard, vous n’y avez pas fait allusion ici, mais je pensais en vous écoutant à certains débats sur les robotiques au Parlement européen, où l’on parle de développer une société de loisirs et de verser un revenu minimum à des hommes dont les robots auraient assumé les tâches. Or cela pose évidemment le problème de savoir ce que devient alors la dignité au travail de ces personnes. Certes, on entend dire aussi que les tâches robotisées vont libérer l’homme des travaux simples et répétitifs. Mais à travers votre exposé on s’aperçoit qu’il n’y a pas que ces tâches-là qui sont affectées par la robotisation, et on perçoit l’idée sous-jacente qu’il faut essayer de s’adapter à ce monde qui vient. Alors la question est simple, c’était celle de Jean-Pierre Lesage, c’est aussi la mienne : que devient finalement l’homme au travail dans cette perspective-là ? L’homme au travail avec tout ce que représente le travail, et je pense ici à la phrase de Saint-Exupéry : « La grandeur d’un métier est peut-être, avant tout, d’unir des hommes : il n’est qu’un luxe véritable, et c’est celui des relations humaines ». Les deux volets de cette phrase, tirée de Terre des hommes, rejoignent en profondeur, me semble-t-il, les questions soulevées par votre exposé, dès sa première partie.

Emmanuel Brochier  : Je vous remercie pour cette question, je crois que c’est la plus importante ; il est presque dommage que ce soient les développements des robotiques qui nous poussent à poser cette question sur le travail. Car nos manières d’envisager le travail posaient des problèmes avant l’avènement des robotiques. Il y a des auteurs qui, juste après-guerre, l’avaient remarqué. Je pense à quelqu’un que j’apprécie beaucoup, qui s’appelle Josef Pieper, auteur d’un ouvrage intitulé Le loisir, fondement de la culture, qui montre que nous avons fini par tomber dans l’idéologie du « travail total » en perdant le sens du loisir. Il dénonce la « surévaluation » du travail comme un problème profond, dont l’un des symptômes bien repéré par Michel Blay, est celui du burn out. Le travail rend désormais malade, dans son ouvrage l’Originalité de l’Occident. Dieu, la nature et l’homme, Michel Blay montre comment ce nouveau mal découle de notre vision de la nature. Aujourd’hui le travail rend malade, parce qu’il est guidé par une sorte d’idéologie du « travail total », qui repose sur une fausse anthropologie où l’on voit l’homme comme une simple puissance d’action et de transformation du monde. Mais Kant lui-même avait jadis envisagé la philosophie comme un travail d’Hercule, un lieu où il s’agit de « faire », et non où il s’agit d’accueillir et de comprendre le réel tel qu’il est. Si la philosophie devient aussi un travail, et si le travail prend toute la place, au point qu’il n’y a plus de véritable loisir, mais seulement des congés pour refaire ses forces, le risque est que le travail devienne nuisible pour l’homme, et pas seulement dans le sens médical du terme. La question est, je crois : est-ce que tout travail élève la dignité de l’homme ? Est-ce qu’il suffit de travailler pour honorer la dignité de l’homme ? Je crois qu’il y a, en amont du développement des robotiques, une vraie réflexion à mener sur la place du travail dans nos vies et sur la place du loisir, non pas des loisirs mais du loisir et du temps libre. L’intérêt de la robolution qui vient est de nous y contraindre.

Je ne sais comment aborder en peu de temps cette question qui est immense, mais ce qui me vient à l’esprit, c’est ceci : je vous ai parlé du concept d’innovation, qui avait été introduit en Europe en 1997 dans un rapport de la Commission Européenne, Society, The Endless Frontier. En fait, ce rapport fait écho à un autre rapport remis au président Roosevelt en 1945, qui s’appelle Science, The Endless Frontier. Entre les deux rapports, la conception du travail a changé. Dans le rapport américain qui a défini le modèle Recherche/Développement, si je le synthétise rapidement, il est dit : les scientifiques cherchent la vérité, ils sont compétents pour cela, donc ils doivent être libres de mener leurs recherches comme ils l’entendent. Évidemment, il y aura des applications technologiques qui rendront les entreprises plus compétitives, et du coup il y aura le plein emploi, et il y aura plus de temps libre pour le loisir, c’est-à-dire pour se cultiver. Il est intéressant de remarquer qu’après-guerre on avait une vision qu’on pourrait qualifier de « moderne » du travail, alors que dans la réalité des faits, le travail était total. C’était une intention politique forte d’ordonner le travail au loisir, à l’étude, à la culture du vrai. En 1997, au contraire, on se dit, non, le but de la recherche n’est pas de découvrir la vérité au sujet des structures fines de l’univers, mais d’obtenir des résultats qui permettent la transformation de la société. C’est la systématisation du concept d’innovation comme norme : on ne la finance qu’à partir du moment où une recherche est trouvée innovante, c’est-à-dire capable d’avoir l’impact sociétal désiré. Nous sommes alors passés au plan des politiques de recherche dans un régime de post vérité. L’homme lui-même est sommé d’être agile, c’est-à-dire toujours performant dans un environnement qui évolue sans cesse. Il doit se former pour rester performant, et non libérer du temps en vue du loisir. Dans ce cadre, l’avènement des robots va-t-il libérer du temps pour le loisir ou va-t-il, au contraire, mettre davantage de pression sur l’homme pour qu’il ait toujours la capacité de collaborer avec les robots ? Dans un régime de post vérité, on peut craindre que l’idée selon laquelle le loisir est plus important que le travail devienne inaudible. Le risque est de croire que toute la dignité de l’homme est dans le travail qu’il effectue et pourra encore effectuer, dans l’effort qu’il fournit.

Marie-Joëlle Guillaume : Mais le loisir aussi peut être malade. Ainsi, lorsqu’il est conçu simplement comme temps et lieu de consommation – ce qui est la tendance aujourd’hui…

Emmanuel Brochier : Vous savez, le loisir c’est skholè, c’est école, c’est le lieu où l’on apprend, le temps pendant lequel l’on reçoit ce qui mérite d’être reçu, où l’homme découvre et réalise ce en quoi il est grand. Il ne faut pas confondre le loisir dont je parle ici avec les loisirs. Si donc les robotiques transforment profondément la société dans un avenir relativement proche en libérant peut-être l’homme du travail au moins partiellement, la problématique sera de réussir ses temps libres. Cela me semble être une très bonne problématique. Mais saurons-nous y répondre ?

Père Jean-Christophe Chauvin : Il me semble que cette robotique dont on parle, bouleverse notre monde. Elle interroge notre propre humanité : qu’est-ce qui est propre aux hommes, puisque maintenant les robots font le travail des hommes. Quelle est la spécificité du travail humain, est-ce qu’il en reste une ? Je m’interroge là-dessus. Dans un premier temps, j’ai envie de dire, pour prendre un exemple tout simple, on se dit qu’on va distinguer une pâtisserie industrielle faite par un robot d’une pâtisserie faite par un artisan, par un grand pâtissier. Oui, mais jusqu’à quel point ? J’ai l’impression qu’aujourd’hui la machine va pouvoir rattraper l’homme, on a des ordinateurs maintenant qui jouent des morceaux de musique, non seulement des enregistrements, mais qui jouent des morceaux de musique à la façon de tel ou tel artiste. Alors, que reste-t-il de propre à l’homme dans le travail ? Je repense à cette encyclique de Jean-Paul II sur le travail humain, où il nous enseignait que la première chose que réalise le travail, c’est de construire l’homme, le travailleur lui-même. Finalement, nous sommes poussés dans nos derniers retranchements. Qu’est-ce qui doit être la préoccupation de notre société aujourd’hui ? Est-ce que c’est la tâche à accomplir, et j’ai bien peur qu’on trouve toujours un robot pour mieux accomplir la tâche de tel ou tel homme, ou bien est-ce que c’est l’homme qui doit être au centre de la société, de notre façon de voir. Le travail humain doit alors d’abord être considéré comme un moyen par lequel on retrouve un peu ce que disait Marie-Joëlle Guillaume, un moyen pour l’homme de s’exprimer, de développer notre humanité, les relations humaines. La question fondamentale que nous pose donc la robotique est la suivante : qu’est-ce qui est doit être au centre : l’homme ou la tâche à accomplir ?

Emmanuel Brochier : Deux choses peut-être : la première, c’est qu’en l’état des choses, le processus de robolution, comme on dit, ne va pas s’arrêter en disant : oh là là ! les hommes ne pourront plus se construire par leur travail. Il est sûr que beaucoup de métiers vont disparaître, y compris chez les cols blancs. Il y a des chiffres assez précis pour un avenir assez proche. Cela n’implique pas pour autant la disparition du travail. Le problème est donc que les personnes qui exerçaient les métiers qui disparaîtront ne seront pas nécessairement capables de se former aux nouveaux métiers. Mais nous l’avons dit, on appelle, on invite aujourd’hui dans l’entreprise à être agile, c’est-à-dire à s’adapter à un environnement toujours changeant. Cependant, je ne suis pas sûr que ce soit au profit de la personne humaine, surtout lorsque les changements vont trop vite et sont trop nombreux. Bref, il n’est pas juste de dire que le travail construit l’homme. L’homme peut se construire par son travail, mais il faut préciser dans quelles conditions le travail est un bien pour l’homme.

D’autre part, je crois qu’il y a une ambiguïté sur le mot travail. Le mot peut s’entendre en plusieurs sens. Je ne suis pas un spécialiste de cette question. Mais je crois pouvoir dire que ce qui est important pour élever l’homme, pour le faire grandir dans toutes ses dimensions, c’est l’activité. Pas nécessairement le travail. Pour le dire avec clarté, prenons un peu de recul, regardons en arrière, non pas pour revenir en arrière, bien sûr, mais pour mieux discerner dans ce que nous vivons. Chez les Grecs, par exemple, le travail était l’affaire des esclaves, et quand on était un homme bien éduqué, capable de déployer au maximum ses potentialités proprement humaines, on ne travaillait pas ! Mais celui qui ne travaillait pas ne vivait pas pour autant dans l’oisiveté. Et c’est là que j’en reviens au loisir. Ce n’est pas parce qu’on ne travaille pas qu’il n’y a pas d’activité. Au contraire, il y a une activité qui relève du loisir, qui convient à l’homme et dont la valeur ne réside pas dans la productivité. Et je pense que ce type d’activité n’a pas totalement disparu aujourd’hui, mais il est sous-évalué. Ce n’est pas ici qu’on va répondre à la question de savoir si le monde grec peut nous aider à penser l’opportunité d’un monde sans travail, parce que c’est un chantier immense, mais je crois qu’il faut dès maintenant y réfléchir, évidemment, et s’y préparer. Il est évident que le travail va changer de forme, et il faut sans doute imaginer et préparer les jeunes à exercer des activités sans que ces activités soient du type de ce qu’on appelle aujourd’hui « travail », de ce qui peut être effectué par des robots comme jadis par des esclaves.

Marie-Joëlle Guillaume : En fait, je vous rejoins sur ce point, ce qui compte, c’est la finalité. Mais nous devons tout de même être attentifs au fait que c’est l’homme – et non le robot – qui est appelé par Dieu à co-créer le monde. Vous parliez des Grecs. Mais précisément : alors que pour les Anciens Grecs le travail était affaire d’esclaves, le christianisme en a fait l’apanage des fils de Dieu, à travers l’immense travail de défrichage des moines dans l’Occident du haut Moyen Âge ! Ce fut une révolution anthropologique. Peut-être avons-nous d’abord à remettre en valeur le mot « travail ».

Emmanuel Brochier : On notera d’abord avec les spécialistes de la question que la notion de travail n’apparaît pas dans la Bible. Par ailleurs, je ne suis pas sûr que dans ce qu’on appelle « travail » aujourd’hui, on retrouve exactement cette collaboration à l’acte créateur de Dieu dont vous parlez. Ce que j’évoque, c’est plutôt une autre activité que le travail entendu dans le sens que le terme a pris au XIXe siècle après Coriolis, où il est devenu quelque chose de réductible à une quantité. Je veux au contraire parler d’une activité qui serait plutôt une collaboration à l’acte créateur de Dieu tout autant qu’aux finalités inscrites dans la nature, que nous pressentons lorsque nous avons le souci de respecter la nature, mais que les technosciences ont fini par nous voiler. Donc, je n’opposerais pas les Grecs et la pensée judéo-chrétienne. Autrement dit, quelqu’un qui éduque des enfants, travaille-t-il ou non ? Il collabore à l’acte créateur de Dieu, mais ce n’est pas nécessairement considéré comme un travail, si ce sont ses propres enfants ! Si on cultive son jardin, est-ce que c’est un travail ? Donc le mot « travail » est ambigu, c’est ce que je voulais dire. Ce qui est important pour l’homme, c’est une activité, une activité qui collabore sans doute à la création, mais ce n’est pas nécessairement le travail au sens où on l’entend aujourd’hui. Si les robotiques nous permettent de le comprendre, viva la robolution !

Nicolas Aumonier : Le travail n’est pas l’emploi, évidemment, mais en vous écoutant, je pensais à ce qu’écrit René Descartes à l’ambassadeur de Suède à Paris, Descartes vient d’être invité par la reine Christine de Suède, il anticipe que celle-ci va le forcer à se lever tôt, et qu’il va sans doute y laisser sa vie. Ce qui s’est passé. Peut-on refuser à une reine ? Non. Donc il prend un détour, et dit que les singes pourraient parler, mais qu’ils s’en abstiennent, de peur qu’on les contraigne à travailler. Il y a probablement des travaux, des modes de travail dans lesquels on parle, on collabore, et des modes de travail dans lesquels on ne parle pas beaucoup, on échange peu, peut-être qu’ici cette remarque de Descartes peut nous aider à faire le tri entre des travaux pénibles et des travaux qui sont une élévation de dignité. Mais ce n’est pas très simple, d’autant que généralement le travail n’est pas comme la pluie, il vient d’un donneur de travail, et le travail devient alors un emploi, tandis que d’autres se donnent à eux-mêmes leur propre emploi et travaillent dans cet emploi personnel, et que d’autres encore attendent d’autrui un emploi. Ça n’est pas très simple à partir du moment où le donneur d’ordres attend du profit. Mais peut-être qu’une piste consisterait à dire que, un jour, nous en aurons peut-être assez, collectivement, d’effectuer des travaux répétitifs qui humanisent peu, et qu’un jour, peut-être, la concurrence avec les machines fera que le travail humain reprendra toute sa place, dépassant une robotique qui n’aurait pas de visée particulièrement transhumaniste.

Les robots modifient-ils la définition de ce que l’on entend par « altérité » ? Au début de la Deuxième méditation métaphysique, le je cartésien est réduit à sa plus simple expression de cogito, sait juste qu’il a un esprit, mais ne sait pas encore qu’il a un corps, et pose la question de ce qu’est l’altérité. Et Descartes demande si ce qu’il voit par la fenêtre sont des chapeaux et des manteaux dont un dispositif statique, voire mécanique, aurait pu être affublé, ou si ce sont bien des hommes. Les robots sont-ils comme des chapeaux et des manteaux dont on ne sait s’ils sont ou non les manifestations d’une altérité ? L’altérité est-elle seulement ce qui interagit avec nous, ou est-ce ce qui est de même niveau ontologique ou moral que nous ? Une plante, un robot ou un cobot constituent-ils une forme d’altérité, inférieure ou supérieure à l’altérité humaine ? La question apparaît dans le rapport du Comité d’éthique de l’UNESCO sur l’éthique des robots. Faudra-t-il un jour inventer un droit des robots, respecter les robots comme des êtres qui sont les dépositaires d’une certaine forme d’altérité, telles sont quelques unes des questions à discuter maintenant par notre Académie.

Emmanuel Brochier : Je ne vais pas me dérober, mais je m’intéresse à la question des robots, des nouvelles technologies et du transhumanisme dans une perspective qui n’est pas la perspective éthique ou économique, mais dans la perspective, j’ai suggéré le terme tout à l’heure, de la philosophie de la nature. C’est ma spécialité, et ce qui m’intéresse est ce que le robot dit de la nature, la transformation que cela induit dans notre conception de la nature. Néanmoins, je crois pouvoir répondre à cette question sur l’altérité dans une perspective éthique, en disant que la première recommandation des spécialistes d’éthique robotique est que les concepteurs doivent aider les utilisateurs à ne pas prendre les robots pour des personnes, qu’ils doivent aussi les aider à ne pas tomber dans des addictions, et à ne pas se laisser enfermer dans des isolements avec la machine. Donc, le robot est sans aucun doute une altérité. Il y a un lien affectif avec la machine qui peut se nouer, mais il s’agit d’une altérité qui ne doit pas se substituer à la personne humaine. Il y a là un risque et un enjeu éthique. Quant à savoir si l’on doit donner des droits aux robots, leur reconnaître une personnalité électronique… ce qui est gênant, c’est que cela ferait exploser, je pense, le concept de droit, et celui de personne aussi. J’ai travaillé sur la question de savoir si l’on peut considérer ontologiquement les robots comme des personnes, je ne vais pas rentrer ici dans cette question, mais je ne vois pas comment envisager une personnalité juridique indépendamment de toute personne physique. Rappelons qu’il s’agit d’abord d’une revendication des transhumanistes eux-mêmes qui prônent une « morale inclusive », en imaginant le jour où les robots auront une conscience de soi, et en se persuadant que nous pourrons nous-mêmes télécharger notre personnalité sur un support numérique. Le problème est qu’aucun robot, même intelligent, ne saurait être considéré comme une personne, car une personne n’est pas réductible à des descriptions mathématiques ou biologiques, contrairement aux robots.

Nicolas Aumonier : Simone Weil disait que le registre des droits est celui de la force et du totalitarisme, et qu’il ne faut donc pas assujettir le concept de personne au concept de droit, qui n’est pas celui de charité.

Marie-Joëlle Guillaume : J’ai envie de réagir aussi, parce que Simone Weil n’était pas confrontée au transhumanisme, et je pense que le problème aujourd’hui, c’est le rapport à la philosophie de la nature, ce qui au fond est à la base de votre réflexion. Quand on entend, quand on lit si peu que ce soit les transhumanistes – et ceux qui peut-être ne le sont pas tout à fait mais semblent aller dans cette voie -, on a l’impression que l’homme est réduit à une puissance de calcul. Dans cette perspective, effectivement, les ordinateurs seront infiniment plus forts que lui. Ayant réduit l’homme à un corps, qui est insuffisant, les transhumanistes ne sont pas contents du donné de la création, elle ne leur plaît pas, il faut refaire le monde pour qu’il soit meilleur. Kurzweil, que vous avez cité, est tout à fait dans cette logique : pour lui, il faut dépasser cette condition humaine qui n’est finalement pas intéressante. Mais la dépasser avec une puissance de calcul, c’est assez curieux à mon sens : le lien entre l’esprit et le corps n’apparaît pas. On voudrait se débarrasser d’un corps insuffisant, au nom d’une intelligence artificielle qui est essentiellement une puissance de calcul, mais tout cela au sein d’un pur matérialisme. En tout cas, les transhumanistes refusent absolument toute transcendance. Ce qui me frappe dans leurs propos, c’est qu’il y a à la base le postulat de l’athéisme.

Emmanuel Brochier : Non, non, ce n’est pas vrai. Il n’y a pas le Dieu chrétien, peut-être. Mais l’Association mondiale transhumaniste a fait une enquête sur un échantillon de plus de mille personnes, seuls 64 % des transhumanistes se disent athées. Or ceux qui adhèrent à l’Association mondiale transhumaniste sont des transhumanistes engagés. On aurait pu attendre beaucoup plus, 90 %, 99 %, moi je m’attendais à ces chiffres-là. Mais il y a plus étonnant : 8 % qui se disent chrétiens, 4 % qui se disent catholiques. J’ai évoqué tout à l’heure le rapport américain CT-NBIC de 2002 sur la convergence technologique. Or l’un des rapporteurs est Bainbridge, un sociologue des religions. D’après lui, les religions classiques sont plutôt des obstacles au transhumanisme, en revanche il est persuadé qu’on ne pourra pas développer les technologies comme il serait souhaitable sans une religion. D’autres, comme l’association française transhumaniste Technoprog, soutiennent que « le transhumanisme est compatible avec toutes les religions, y compris les plus fondamentalistes ». On ne peut donc pas dire que l’athéisme est à la base du transhumanisme.
Je me souviens également d’une conférence de Max More. Il était invité en Italie par des catholiques, et sa thèse était de dire, vous chrétiens, venez collaborez avec le transhumanisme, parce que finalement le transhumanisme propose quelque chose qui va dans le sens de ce que souhaitent les chrétiens, être libérés de tout ce qui pourrait empêcher l’exercice des vertus. Les transhumanistes savent que le transhumanisme est une notion qui appartient au patrimoine chrétien, puisque le mot a été créé par Dante pour dire la situation d’Adam au Paradis : recevoir un corps glorieux, c’est selon le mot de Dante être transhumanisé. Mais les transhumanistes ne veulent pas réfléchir en invoquant une autorité quelconque, religieuse ou autre. D’où l’impression d’un athéisme de base. Et sans la foi, ils reconnaissent que l’homme a besoin d’être sauvé, parce qu’il aspire à vivre autre chose.

Marie-Joëlle Guillaume : Oui, mais pas par nous-mêmes ! Les Pères de l’Église disaient : « Dieu s’est fait homme pour que l’homme soit fait Dieu ». C’est parce que Dieu s’est fait homme que l’homme peut être ‘’ déifié’’, ce n’est pas par ses propres forces !

Emmanuel Brochier : Oui, mais Max More commence cette conférence que je viens d’évoquer en disant ceci : je suis désolé, je dois dire que je suis athée, j’ai beaucoup travaillé, beaucoup discuté avec des catholiques, vraiment beaucoup, j’ai même enseigné la religion aux États-Unis, et j’ai regardé les preuves de l’existence de Dieu, et je n’en ai trouvé aucune. Je n’ai trouvé aucun argument rationnel, non pas pour le Dieu chrétien qui se révèle Dieu Amour, etc., mais en faveur de l’existence de Dieu. Autrement dit, Max More accuse en quelque sorte les chrétiens de fidéisme. C’est intéressant. Il dit, moi, j’ai cherché honnêtement, et je n’ai trouvé aucune raison qui me permette de dire que Dieu existe. Et pourtant j’ai beaucoup cherché, et il ajoute : parmi tous les théologiens que j’ai lus, c’est Thomas d’Aquin que j’ai préféré ! à cause de sa manière d’argumenter ! Mais cela n’a pas suffi, parce qu’il ne suffit pas de lire des textes. Peut-on leur reprocher de ne pas avoir la foi catholique ? Peut-on leur reprocher de désirer vivre d’une vie transhumanisée ? Peut-on leur refuser d’utiliser à cette fin les seuls moyens qu’ils ont à leur disposition, ceux des sciences et des nouvelles technologies ? À cette dernière question je pense qu’il est possible de répondre oui, mais à condition de ne pas argumenter en théologien et de sortir du paradigme technoscientifique. Puisque le transhumanisme concerne la nature et sa transformation, la réponse au transhumanisme ne pourra pas faire l’économie d’une philosophie de la nature.

Jean-François Lambert : Avant de revenir sur ce qui a été dit autour de l’empathie, etc., le psychanalyste Serge Tisseron a publié il y a deux ans un bouquin assez facile à lire, qui s’appelle Le jour où mon robot m’aimera, il soulève un certain nombre de questions tout à fait générales, notre rapport à l’objet tout court, et à l’objet très particulier qui est le robot. Dans cet ouvrage, il cite le cas des militaires américains qui sont désormais responsables de robots démineurs. Les robots démineurs en question ont en fait la forme de phasmes. Quand mes enfants étaient petits, on a élevé des phasmes à la maison, les phasmes, cela a la forme d’une branche, d’un petit bout de bois avec des pattes, donc le robot en question c’est une espèce de tube qui a un certain nombre de pattes. Et lorsqu’il détecte une mine, évidemment il y a une patte ou plusieurs pattes qui sautent. Et lorsqu’il n’y a plus de pattes, en principe on met le robot à la casse et on en donne un autre au militaire. Et donc il paraît que dans un certain nombre de cas, il refuse. Et dans un certain nombre de cas, on rend les honneurs, on l’enterre, ou en tout cas on lui fait une cérémonie militaire, on rend les honneurs au machin cassé. Et certains refusent qu’on leur en donne un neuf, et réclament qu’on le soigne absolument, c’est-à-dire qu’on lui remette des pattes, qu’on le répare, mais en fait qu’on ne le répare pas, mais qu’on le soigne. Des histoires comme cela, il y en a pas mal aujourd’hui, alors le problème qui se pose effectivement, c’est les robots assistants qu’on va mettre dans les maisons de retraite… Il a été évoqué le statut qui est en discussion, il se trouve que j’ai appris, il y a peu de temps, que l’histoire du statut de personne électronique au Parlement Européen est essentiellement portée par les mouvements LGBT. Une des machines de guerre qui pousse absolument, entre autres, c’est les mouvements LGBT. Donc qu’est-ce qu’on peut y voir ? C’est que finalement il y a là le refus de la différence, il n’y a pas de différence entre l’homme et la femme, il n’y a pas de différence entre le normal et le pathologique, il n’y a pas de différence entre l’homme et l’animal, au fond pourquoi y aurait-il, ou faut-il, maintenir une différence entre hétérosexuel et homosexuel, cela c’est bien connu, c’est entériné depuis longtemps, mais il est bien évident que c’est assez logique que les mouvements LGBT poussent à l’annulation de la différence, là aussi, entre l’homme et le robot.

Emmanuel Brochier : Pour rebondir sur ce qu’on vient de dire à l’instant, je crois qu’il y a Donna Haraway qui montre exactement ça dans son Manifeste Cyborg : elle met ensemble la question mâle/femelle avec d’autres différences, comme la différence homme/Dieu ou réel et virtuel, pour faire éclater toute opposition au moyen d’une fiction, celle du cyborg. Donc oui, il y a une convergence qui est également assumée par James Hughes dans son transhumanisme démocrate.

Jean-François Lambert : La question qui m’est venue, en lisant votre présentation, et vous l’avez reprise tout à l’heure, vous avez parlé d’« amélioration du ressenti ». Pour moi, cela ne va pas, c’est une chose qui tout de suite déclenche des réactions assez vives, parce que je pense qu’il y a là une incompréhension de ce qu’est un organisme vivant. Je vous rappelle que Hubert Dreyfus, dans un livre célèbre des années 70-80, disait que si les robots ne pensent pas, ce n’est pas parce qu’ils n’ont pas d’âme, mais parce qu’ils n’ont pas de corps. Or c’est évident qu’on peut simuler un corps, on peut simuler un comportement moral, on peut simuler tout ce qu’on veut, mais un organisme vivant, c’est un système dont le comportement a comme finalité première l’entretien du système. Et cela n’existe pas. Aucun robot aujourd’hui n’a pour finalité l’entretien de sa propre structure. Et il ne peut pas avoir de ressenti, si vous ne me croyez pas, lisez le bouquin…
Emmanuel Brochier : Mais ce n’est pas ce qu’on dit, ce n’est pas le ressenti du robot, c’est le ressenti que nous avons avec le robot. Et si l’on prend Nick Bostrom, c’est très intéressant, parce qu’il nous dit… souvent, on dit, le transhumanisme, c’est la toute-puissance, etc., non, le transhumanisme, ce n’est pas la toute-puissance, on ne sera jamais tout-puissant ; le transhumanisme, c’est le fait de choisir ses limites. Et j’évoque ce point maintenant, parce que le ressenti, c’est aussi et surtout cette satisfaction que l’on a dans l’exercice de sa liberté, entendue comme autonomie, c’est-à-dire comme capacité de choisir ses propres contraintes. Nous sommes là devant une conception très cartésienne qui est consubstantielle, me semble-t-il, au transhumanisme. C’est la béatitude au sens de Descartes. L’augmentation du ressenti ici, c’est donc de pouvoir exercer sa liberté avec des robots pour des choses qu’on ne pourrait peut-être pas faire avec des personnes humaines, ou du moins sans les robots.

Marie-Joëlle Guillaume : On peut penser que cela risque de nous conduire aussi à deux humanités, d’une part celle des forts et des puissants, les savants, les ‘’sachants’’, qui programmeront les robots – car tout cela, ce sont des algorithmes, donc il faut quand même qu’il y ait des gens derrière -, et puis tous ceux qui seront en définitive plus ou moins esclaves des robots. Car le jour où, pour pouvoir exercer un métier, une tâche, etc., on devra opérer son choix en fonction des empiétements des machines, est-ce qu’on sera toujours aussi libre ? Voilà énoncés de gros problèmes. En tout cas, vous nous avez donné une communication extrêmement dense, extrêmement riche – je crois que nous serons heureux de la relire – et qui nous ouvre de grands horizons de réflexion.

Séance du 13 décembre 2018