mercredi 10 avril 2013

Humanoïde : Nous finirons par les aimer


HUMANOÏDE  Nous finirons par les aimer


Un article proposé par le Courrier International sur leur site, de Erik Sofge

Lien :
http://www.courrierinternational.com/article/2010/05/12/nous-finirons-par-les-aimer


L'article en question :


Se faire pirater le cerveau par une machine nécessite beaucoup moins d’équipements que je ne le pensais. Nul besoin de lunettes de réalité virtuelle ou d’hologrammes en 3D. Pas de casque truffé d’électrodes ni de fils serpentant jusqu’à mon cerveau. Tout ce dont un robot a besoin, c’est une paire d’yeux alertes. 

La scène se déroule au Media Lab, sur l’immense campus du Massachusetts Institute of Technology (MIT), aux Etats-Unis. Comme bon nombre de centres de recherche spécialisés, celui du Personal Robots Group tient plus de la chambre d’adolescent que du laboratoire scientifique : le sol est jonché de rouleaux de câbles emmêlés, de vieilles boîtes de pizza et des restes épars de robots après autopsie. Au beau milieu de ce bric-à-brac, un robot humanoïde à trois roues d’environ 1,50 m se met soudainement en marche et commence à examiner la pièce. Ses yeux bleus surdimensionnés allant d’un point à un autre, sa grosse tête blanche de poupée s’arrêtant sur le visage de chaque chercheur comme pour mieux le reconnaître. Puis Nexi se tourne vers moi et me dévisage avec un clignement d’yeux. Je m’arrête au milieu d’une phrase pour le regarder. Tout se passe de manière totalement instinctive, comme face au regard curieux d’un bébé. “Que veux-tu ?” ai-je envie de lui dire. “De quoi as-tu besoin ?” J’étais venu faire un reportage objectif plein de distance journalistique. Apparemment, c’est perdu d’avance. 

Nexi est un robot social. Son seul objectif est d’interagir avec les gens. Sa mission est de se faire accepter. Nul doute qu’aucun robot véritablement conscient de sa nature ne relèverait un tel défi. Pour se faire accepter par les humains, il faudrait en effet faire oublier des décennies de peur, voire de haine antirobot. La notoriété de Nexi, star incontestée de la recherche HRI (interaction homme-robot), lui a déjà valu des ennemis. Avant de me rendre au Media Lab, j’ai regardé une vidéo de Nexi, qui a été vue par des milliers de personnes sur YouTube. Dans ce clip, on voit les grands yeux expressifs du robot, son visage enfantin et adorable, mais il y a quelque chose de dérangeant. Nexi ressemble à une marionnette possédée voulant se faire passer pour un grand enfant. D’après les commentaires des internautes, cette vidéo “fait froid dans le dos”. 


Et pourtant, au moment de lui faire face, je me transforme instantanément en apôtre de la robotique. Comment imaginer que les seniors refusent les médicaments distribués par des robots infirmiers papotant avec eux en leur faisant des clins d’œil ? Les futurs robots sociaux n’auront qu’à suivre l’exemple de Nexi et exploiter nos instincts humains les plus irrésistibles. C’est pour cela que Nexi recherche les visages et semble vous regarder droit dans les yeux. Alors qu’il cligne de nouveau des yeux avec un petit bruit de moteur, je m’aperçois que je suis en train de sourire à cette chose. Je réagis en tant que créature vivante et sociale face à une autre. Nexi n’a pas encore dit un mot que je veux déjà être son ami. Le fait de savoir que notre cerveau se fait abuser par un simple robot ne nous aide en rien à mieux lui résister. C’est peut-être là le véritable danger de ces machines. Trop occupés à spéculer sur les turpitudes d’ordinateurs malveillants, nous n’avons pas pressenti le problème nettement plus préoccupant soulevé aujourd’hui par les chercheurs en robotique : il se pourrait que les humains s’attachent trop facilement aux robots. A l’instar des relations hu­maines, ces liens peuvent cacher des difficultés insoupçonnées : comment mamie réagira-t-elle quand son robot de compagnie reviendra de sa mise à jour avec une mémoire totalement effacée ?
Le robot de Karel Capek : R.U.R.




Lorsqu’une machine peut induire nos émotions avec une telle facilité et balayer nos réserves les plus profondément ancrées d’un battement de cils artificiels parfaitement calculé, il n’est peut-être pas si stupide de s’inquiéter. Peut-être nous sommes-nous seulement trompés de raison d’avoir peur ? Les robots ont commencé à nous faire peur avant même d’exister. C’est en 1921 que la pièce du Tchèque Karel Capek R.U.R. (pour Rossum’s Universal Robots), invente simultanément le terme “robot” et la crainte d’une apocalypse cybernétique. Le filmTerminator, sorti en 1984, est le symbole moderne d’une de nos craintes : la peur de voir une intelligence artificielle devenir trop intelligente et obsédée par sa propre survie.Terminator a largement imprégné notre vision des robots et même de l’industrie – en plein essor – de l’armement robotisé. Le Bureau américain de la recherche navale a examiné la nécessité d’établir des règles éthiques pour l’utilisation des robots de combat, et un rapport préliminaire de 2008 a même étudié la possibilité d’un scénario catastrophe à la Terminator, dans lequel les machines se révolteraient contre les humains. 

Pourtant, le véritable danger ne vient peut-être pas de là car, comparés aux forces armées rebelles même les plus stupides, les robots ne sont toujours guère plus intelligents que des boîtes de conserve. Prenez Nexi, par exemple. Considéré comme l’un des robots sociaux les plus perfectionnés au monde, Nexi ne comprend pourtant qu’une poignée d’instructions basiques. Les robots sont des créatures instinctives et non introspectives. Leur logiciel de détection leur permet de repérer l’humain qui est en train de parler, un mot-clé déclenche une réaction programmée et, lorsque vous quittez la pièce, le robot ne se demandera pas une seconde où vous êtes parti, si cette conversation vous a aidé ou au contraire blessé, ni comment défier votre autorité. Naturellement, certains chercheurs s’attendent à un développement rapide des neurosciences computationnelles [approches mathématiques, physiques et informatiques appliquées à la compréhension du système nerveux] et annoncent l’apparition de “puissantes intelligences artificielles” comme le projet Blue Brain d’IBM, qui vise à créer un cerveau virtuel, peut-être dès 2019. Reste qu’en l’absence d’une représentation neurologique de notre propre sens de la moralité, les robots machiavéliques ou mégalomanes ne sont pas pour demain. Si les auteurs de science-fiction s’intéressent depuis près d’un demi-siècle aux effets à long terme d’une coexistence humains-robots, les scientifiques commencent à peine à étudier la question. Il existe un exemple célèbre illustrant les mystérieuses réactions du cerveau humain face à un robot : la théorie de l’“uncanny valley” ou “vallée de l’inquiétante étrangeté”, terme poétique pour dire que les robots nous donnent parfois la chair de poule. 

La théorie de l’uncanny valley de l'ingénieur Masahiro Mori



Défini dans un article de l’ingénieur Masahiro Mori en 1970, ce concept de vallée de l’étrange peut se résumer à l’aide d’un graphique montrant que les humains sont plus à l’aise avec des machines humanoïdes… jusqu’à un certain point. Lorsque le robot ressemble trop à un être humain [mais pas complètement], ses imperfections déclenchent en nous les mêmes signaux d’alerte psychologiques que la vue d’un cadavre ou d’un humain en mauvaise santé. La courbe de sympathie chute alors brutalement, avant de remonter quand le robot ressemble parfaitement à un être humain. Qu’il s’agisse d’une distorsion de nos instincts ou d’un phénomène plus complexe, les termes choisis par Masahiro Mori sont lourds de sens : uncanny n’est pas synonyme de “peur” mais d’un mélange de crainte et de familiarité, d’attraction et de répulsion. C’est un phénomène de dissonance cognitive que le cerveau ne parvient pas à surmonter. C’est ce que l’on peut ressentir face à un sapin de Noël parlant ou à un cadavre riant. 


The Illusion of Life: Disney Animation, Commandez cet ouvrage

D’un point de vue académique, étudier ce qui semble être un phénomène répandu est particulièrement excitant. Toutefois, de même que les scénarios à la Terminator ne résistent pas à un examen un peu attentif, la théorie de la vallée de l’étrange est loin d’être aussi simple qu’elle en a l’air. Après avoir vu la prestation de Nexi sur YouTube, j’avais des frissons dans le dos à l’idée de rencontrer cette créature. Au lieu de cela, je vois mon visage afficher un grand sourire sur les écrans d’ordinateur du Media Lab. Apparemment, le secret de Nexi se trouve à portée de main de celui-ci : il s’agit d’une vieille édition de The Illusion of Life: Disney Animation [éd. Hyperion, inédit en français, ouvrage de référence expliquant de nombreuses techniques d’animation utilisées par le studio Disney], dont la lecture est obligatoire pour tous les membres du Personal Robots Group. “Nous faisons un film d’animation en temps réel”, explique Berlin, un chercheur du Media Lab. Comme ceux de bon nombre de personnages animés, les mouvements et expressions de Nexi sont des représentations exagérées de comportements humains. Lorsque le robot cherche à saisir quelque chose, son bras ne se dirige pas avec une précision implacable vers l’objet convoité. Au contraire, le robot s’agite en vain, tournant les yeux, puis la tête et tout son corps vers l’objet avant de lancer laborieusement un bras en direction de sa cible. En résumé, Nexi est physiquement inefficace mais socialement performant. 

A quel point ? Présenté à des centaines d’êtres humains, notamment les résidents de trois centres pour personnes âgées de la région de Boston, Nexi n’a suscité aucune crainte chez les sujets. C’était même plutôt l’inverse : bon nombre de seniors ont essayé de lui serrer la main ou de lui donner l’accolade et au moins une personne l’a même embrassé. “Les gens le traitent de manière personnelle, comme une créature sociale et non comme une machine”, explique Cynthia Breazeal, directrice du Personal Robots Group. “Les études menées avec Nexi montrent que, lorsqu’il exécute des mouvements et des comportements connus pour susciter la confiance et la sympathie, les gens réagissent comme avec un être humain.” 

Le succès de Nexi et d’autres robots sociaux soulève tout de même une nouvelle question encore plus profonde : pourquoi aimons-nous tant les robots ? “Il se trouve que les êtres humains sont particulièrement enclins à s’attacher aux objets. Nous sommes de véritables cœurs d’artichaut”,explique Sherry Turkle, directrice de l’Initiative on Technology and Self au MIT [centre de recherche qui s’intéresse aux dimensions sociales et psychologiques liées à la technologie]. Selon les chercheurs, l’arrivée massive des robots sociaux est aussi dangereuse qu’inévitable. La demande devrait être considérable, et certains analystes estiment que le volume du marché des robots personnels devrait atteindre les 15 milliards de dollars [12 milliards d’euros] en 2015. Ce que Sherry Turkle redoute en réalité, c’est que les interactions humaines se reportent sur des machines. 

Plus inquiétant encore, ce sont les publics à qui pourraient être destinés ces robots de compagnie : des enfants dans les classes surchargées ou des personnes âgées atteintes de la maladie d’Alzheimer. Il pourrait en effet être tentant de remplacer du personnel coûteux par une armée de robots chargés de surveiller nos enfants et nos aînés. Mais comment les enfants qui feront partie de la première génération à grandir avec des amis et des figures d’autorité robotisés réagiront-ils face à des comportements humains imprévisibles ? 

Les sombres augures de Turkle rappellent étrangement les peurs irrationnelles qu’ont toujours suscitées les robots. Pourtant, la quasi-totalité des chercheurs que j’ai rencontrés sont d’accord sur ce point : il est nécessaire de définir des règles éthiques pour les robots, et tout de suite. Non pas que les robots aient besoin d’une boussole morale, mais plutôt parce que les hommes qui les créent et les commandent agissent actuellement dans le plus grand vide juridique. 

Dans ce débat, plus riche en spéculations qu’en données empiriques, la définition de quelques règles éthiques pourrait servir de garde-fou. “Ce n’est pas une éventuelle défaillance du côté des robots qui m’inquiète”, confie Chris Elliott, ingénieur et avocat, qui a récemment contribué au rapport de la Royal Academy sur les systèmes autonomes. “C’est plutôt que surgissent des problèmes du côté des humains.” Il craint qu’un simple incident suffise à nous ramener des années en arrière. Imaginez le cirque médiatique qui se déclencherait autour du premier patient tué par un robot chirurgien, le tapage que susciterait la mort d’écoliers écrasés par une voiture automatique ou l’impact qu’auraient des images montrant un robot maîtrisant un patient atteint de démence. “Le droit est très en retard. Nous pourrions bientôt arriver au moment où nous aurons peur d’utiliser de nouveaux robots à cause des incertitudes juridiques”, explique-t-il. On ignore encore quelle serait la teneur exacte de telles règles éthiques. Une solution consisterait à limiter l’usage d’un type de robots à un public ou à une mission spécifiques. Les robots infirmiers ne seraient utilisés que pour les patients d’un certain âge ; certains modèles pourraient se limiter à aider les personnes âgées dans leurs déplacements sans pouvoir leur parler ou les réconforter. Philosophes, spécialistes de l’éthique, juristes et ingénieurs en robotique commencent tout juste à étayer le premier code éthique d’Asimov (voir encadré “Les lois de la robotique”). En attendant, c’est peut-être grâce à des robots comme Nexi que l’humanité parviendra à se défaire de ses vieilles peurs irrationnelles. 

Pendant que je contemple les engrenages et les servomoteurs dans le dos de Nexi, un groupe de visiteurs se présente à l’improviste. Des enfants d’une dizaine d’années s’approchent du robot. Nexi est en train de les dévisager, lorsqu’un garçon s’approche d’un peu trop près. Immédiatement, le robot fronce les sourcils, plisse les paupières et baisse la tête, les petits moteurs de ses doigts resserrés en poings bourdonnant comme des boîtiers électriques. — Wouah ! s’écrie le garçon, tandis que tout le groupe fait un pas en arrière. — Il est fâché ?” demande une fillette aux scientifiques. Le visage de Nexi se radoucit, et tous se mettent à rire. 

Je me souviens alors des paroles de Breazeal : les enfants ayant grandi aux côtés de robots pourraient ne pas connaître les affres de la vallée de l’étrange, et Terminator ne serait rien d’autre pour eux qu’une vieille histoire. Vulnérables ou pas, les enfants interagissent différemment avec ces machines. Pour comprendre les limites et l’incroyable potentiel de la robotique, il suffit peut-être de laisser ces robots côtoyer leurs modèles humains. Peut-être Nexi pourrait-il agir comme un vaccin, une exposition nécessaire pour étouffer les peurs irrationnelles et les perceptions distordues avec lesquelles nous avons grandi. Les enfants s’amusent de nouveau à provoquer Nexi, riant de plus belle. Lorsque les sourcils du robot se relèvent, un garçon lance à son camarade, montrant du doigt le visage impassible du robot : “Regarde ! Il te sourit !”


Aucun commentaire:

Enregistrer un commentaire