Domestiquée et perfectionnée de manière exponentielle par les américains et les japonais, la robotique passe par deux approches : l’efficacité toute militaire, et une sorte de composante sociale avec un rapport à l’être humain symétrique. Du côté treillis et M16 , le meilleur ami pucé de l’homme est BigDog, un robot quadrupède transporteur de matériel qui aime également s’éprouver sur un tapis de course. À l’horizon de l’aide à la personne et de la performance technique, Kenshiro, petit androïde de 12 ans et de 160 muscles, pourrait bien sortir furax de sa classe en shootant dans son cartable à la première réprimande venue. Dans chaque cas : deux images qui renvoient à l’être humain des sensations et des réflexions qui vont au-delà de la clé de 12. Pulsion électro-malsaine ? Non, plutôt embryon des droits de la robotique.
Théorisées par Isaac Asimov et John W. Campbell, les trois lois de la robotique sont des bases fixées comme axiomes nécessaires à une vie en symbiose entre êtres humains et machines dotées de réflexion. Un verrou censé empêcher toute survenue d’une agression par des interactions logiques et fonctionnant en vase clos. Elles sont présentées la première fois dans cette configuration :
« Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi. »
Ces interconnexions semblent ne pas avoir de faille, mais s’affaissent sur la base de la Première loi qui n’implique pas le fait qu’un robot a le potentiel de blesser ou de tuer un être humain s’il ignore que son acte peut entraîner ces mêmes conséquences. Ce qui poussera Asimov à modifier ces impératifs fondateurs en rajoutant une Quatrième loi, présupposé de base, nommée loi Zéro :
« Un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée. »
Un recentrage sur l’humain, qui vient de l’action souvent conjointe de la peur et de la sécurité. La machine, symbole de la fin du travail répétitif de l’ouvrier et par extension de toute forme d’obligation pour le citoyen, l’enferme également dans une névrose, décrite par Bourdieu sous le terme de « double vérité du travail ». Liberté doublée d’une absence de structuration dans une société qui avance toujours dans le cadre du modèle précédent, sans changer ses objectifs malgré l’amoindrissement des tâches. Le rapport à la machine, dans un premier temps non pensante, est d’ordre utilitaire. Un ordre, une exécution : du binaire. La mainmise est totale, seul subsiste le doute d’une perte d’efficacité. Les éléments se modifient dès que l’outil peut mettre en place un échange, même basique. La projection de sentiments, mélange d’un animisme de possession et de la volonté de transformation anthropomorphique propre à l’être humain, concerne déjà quelques objets considérés à ce titre comme importants dans l’entourage direct. Objets qui deviennent des réceptacles d’émotions au moment précis où ils peuvent être assimilés à une interface vivante, dans le sens d’un miroir qui renverrait par divers moyens ce que l’homme y projette.
C’est ce qu’a remarqué Kate Darling, chercheuse au MIT, lors d’un test réalisé sur un robot nommé Pléo. Abandonnée à un panel de participants durant l’évènement LIFT 13 de Genève, cette petite machine, quelque part entre Denver et le diplodocus lambda, devait subir les pires sévices. L’expérience était simple : torturer et maltraiter Pléo, sans autre raison que profiter d’un sursaut de bestialité. À l’inverse d’une vision nihiliste de l’être humain laissé devant ses pulsions, le résultat a poussé la scientifique à repenser le rapport au robot, tout du moins à l’objet interactif, après l’observation du malaise ressenti par les sympathiques cobayes troublés dans l’exécution de leur tâche. Seul un Pléo a été martyrisé au cours du test. Reste à savoir s’il l’avait mérité.
Droits des robots : un problème cartésien
« On n’a jamais été si proche du jour où le robot sera considéré d’égal à égal avec le canasson. »
La chercheuse a alors mis ces réactions en perspective avec les nombreuses vidéos qui tournent sur le net depuis la commercialisation de Pléo en 2007. Et ? Les scènes de démembrements et de mauvais traitements ont été les premières à fleurir, bien avant des séquences expliquant le fonctionnement de la bestiole ou glorifiant ses avantages. La brèche se situe sur cette analogie qui va transférer la notion de machine à celle d’un équivalent à l’animal. Kate Darling part de ce postulat pour mener un projet virtuel d’extension de droits aux robots dit sociaux. Exit donc la protection universelle pour la chaîne hi-fi ou le frigo : les machines ciblées ont l’impératif de coller aux comportements qui aboutissent à un surgissement de sentiments. Elles doivent donc être, comme le décrit la chercheuse « incarnées, autonomes, et interagir socialement avec nous ». Tenir ces dernières à distance d’une quelconque maltraitance est l’idée principale de la réflexion de Darling, qui arrête l’étendue de ces nouveaux droits aux mêmes limites que celles contenues dans les textes sur la protection animale. Ce qui implique aussi une sélection basée sur une sorte de potentiel empathique, à l’image des chiens ou des chevaux disposant d’un capital sympathie plus élevé qu’une vache ou un porc. Dû en partie à leur utilisation première, également à leur aspect brut et surtout à la portée de leurs échanges avec l’être humain. En d’autres termes : on n’a jamais été si proche du jour où le robot sera considéré d’égal à égal avec le canasson.
Adaptée à cette déclinaison du monde animalier, l’extension des droits aux robots poserait pour le moment des problèmes philosophiques de premier niveau, reprenant en un sens les interrogations de Descartes sur l’animal-machine. Pour la majorité centrées sur la souffrance, matérialisée par des cris qui n’étaient à l’époque perçus que comme des crissements métalliques. De là à parler de perception de la douleur chez le robot d’aujourd’hui ? Tout dépend de l’approche culturelle. Le shintoïsme japonais, notamment, ne cloisonne pas les notions d’objet et de chose vivante, ce qui ouvre dans l’absolu plus de portes à la proposition de Darling pour être acceptée rapidement sur l’Archipel japonais. La technologie est loin d’être suffisamment avancée pour créer un choc philosophique ancré sur un mimétisme troublant, mais le fait de repenser le vivant sur ces bases constitue déjà un premier pas vers la propagation d’un code de conduite. L’approche de Kate Darling dévie de la simple législation sur ce point précis : la conception universelle du respect d’un être en face de soi. De chair et de sang, ou pas.
Par la concession de droits aux robots sociaux, c’est un modèle qui est transmis. Ce qu’un enfant peut infliger à une machine sans contours intellectualisés, il risque de le répéter sur un animal ou sur un autre enfant ; plonger dans l’inhumanité par défaut de structure. Ce serait donc une application simple d’un enseignement qui se verrait validé par sa portée et non seulement par sa légitimité. Il sera en revanche autrement plus difficile de gérer l’évolution logique de cette acceptation qui glissera vers le thème de l’humain avec l’arrivée démocratisée d’androïdes, qu’ils agissent en tant qu’ouvriers ou auxiliaires de vie. Les débats qui devraient entourer leur catégorisation porteront sur des notions dont les échos résonnent depuis de nombreux siècles, ayant entraîné pléthore de mélodies dissonantes. Relire simplement la Controverse de Valladolid ou Les Animaux Dénaturés : qu’ils soient Bartolomé de Las Casas, Juan Ginés de Sepúlveda, Vancruysen ou Templemore, ils sont confrontés à la définition de l’être humain face à ce qu’ils nomment sauvage ou chaînon manquant. Ce qui sera plus tard robot.
La reproduction interdite
« L’empathie est sans doute la meilleure défense et la meilleure arme du robot. »
Outre la lourde définition de ce qui fait un homme, l’autre grande marche qu’il faudra franchir avec attention est l’accroissement de la ressemblance de la machine avec son concepteur. En priorité d’un point de vue strictement psychologique et ensuite d’un angle bien moins vertueux, celui du marketing. En tirant partie de l’empathie projetée, il est aisé de donner une impression de confort social qui peut tirer jusqu’à la confession, voire un chantage affectif motivé par l’argent. Et c’est sur cet élément que la législation risque de trébucher, en augmentant la valeur intrinsèque d’un produit reconnu comme vivant, ou tout du moins protégé par des textes officiels. Pour Kate Darling, il est important de surveiller la progression de ce versant mercantile, dans le cadre de son étude. D’autant que la notion de mort devra également rentrer en compte ; de façon pratique, avec l’extinction du robot ; de manière quasi ontologique via la disparition soudaine de tout ce qui rend palpable l’émotion empathique. Et qui réifie donc à nouveau la machine. Des axes de base qui ne répondent pourtant pas à la problématique de la justice.
Si là n’est pas le propos de la chercheuse américaine, où conduisent l’obtention de ces droits ? Sans introspection, ni conscience d’eux-mêmes, les robots sociaux ne peuvent exprimer ou témoigner d’une agression. Ils sont donc laissés soit à la merci d’un possible programme de détection d’agression soit à un témoignage de maltraitance extérieur. Tant qu’ils demeurent sous la totale propriété de leur possesseur et dans la configuration d’un équivalent animal. Le passage au statut d’androïde, et surtout à celui de robot organisé et autonome, peut brouiller le cadre juridique, et faire de ce qui était considéré comme instrument un être-machine, capable de déposer une plainte suivant un schéma précis. Plus de consommateur : l’humain est responsable de ce qui pourrait être vu comme un esclave, traité selon des lois protectrices, mais soumis. Notamment au niveau sexuel, tâche qui sera sûrement prioritaire, où le rapport à l’intimité dépendra également de l’évolution des droits de base et de la notion de dignité et d’estime de soi.
Le questionnement est repris dans la série d’Arte Real Humans, où Anita, jeune Hubot conçu comme modèle féminin, est perçue comme un danger/tentation suite au refus du père de famille de détruire son module de rapport sexuel. La révolution n’y est d’ailleurs pas charnelle, mais égalitaire. Pas de vote, pas de libération sexuelle : de la reconnaissance en tant que partie prenante du genre humain et non espèce secondaire. Et si le sujet est pour le moment envisagé un peu par-dessus la jambe, le texte de Kate Darling pourrait y mettre un peu d’affection, un peu d’émotion, dans l’idée où, si révolte il y a, comment réagiront les hommes composés à 100% d’organes et de tissus ?
L’empathie est sans doute la meilleure défense et la meilleure arme du robot. La robotique est loin de titiller les rebords de la conscience, mais le témoignage d’un soldat américain qui ne pouvait plus supporter la vision d’un robot démineur régulièrement mutilé laisse présager de futurs rapports complexes avec des objets de plus en plus biseautés par nos propres émotions. Aussi enrobée de SF que puisse paraître l’étude de Kate Darling, elle dresse pour la première fois un tableau de 1 et de 0 de la future inclusion de nouvelles entités dans les rapports de l’humain avec son environnement, intégrées et créées par lui seul. Où il est de fait question d’assumer et de responsabiliser. Sur ce point, force est de constater que l’homme n’est, lui non plus, pas encore au niveau.