Pourquoi prenons-nous parfois les robots pour des humains ?

Les robots « Spot » de Boston Dynamics et « Nao » de SoftBank Robotics sont très différents: l'un humanoïde, l'autre non. <a href="https://commons.wikimedia.org/wiki/File:Innorobo_2015_-_NAO_%28cropped%29.JPG" rel="nofollow noopener" target="_blank" data-ylk="slk:JJxFile et Xavier Caré, Wikimedia Commons" class="link ">JJxFile et Xavier Caré, Wikimedia Commons</a>, <a href="http://creativecommons.org/licenses/by-sa/4.0/" rel="nofollow noopener" target="_blank" data-ylk="slk:CC BY-SA" class="link ">CC BY-SA</a>
Les robots « Spot » de Boston Dynamics et « Nao » de SoftBank Robotics sont très différents: l'un humanoïde, l'autre non. JJxFile et Xavier Caré, Wikimedia Commons, CC BY-SA

Regardez ces deux images. Quel est le robot qui vous paraît le plus intelligent ? Le plus sociable ? Le plus chaleureux ? Le plus conscient de son environnement ?

Dans la majorité des cas, les gens choisissent le second robot. Pourtant, dans les deux cas, nous évaluons un ensemble de composants électroniques et mécaniques. Alors, pourquoi distinguons-nous ces deux robots ?

Parce que, dans certaines conditions, nous avons tendance à attribuer des caractéristiques humaines à des non-humains, comme la sociabilité ou l’intelligence. C’est l’anthropomorphisme.

Anthropomorphiser des robots peut produire des comportements surprenants. Par exemple, lors d’un essai d’un robot militaire américain conçu pour marcher sur des mines terrestres, le colonel en charge de l’exercice rapporta un certain malaise en observant le robot se traîner sur le champ de mines après une détonation, et qualifia l’exercice d’« inhumain ». Il n’est pas forcément nécessaire que le robot soit doté d’un « corps » physique pour que nous le considérions comme conscient. Ainsi, l’algorithme de chatbot de Google, LaMDA (reposant sur des modèles très développés), a montré que par le « seul » langage, un agent artificiel pouvait être considéré comme « sentient » par un employé.

L’anthropomorphisme nous est bien connu et est présent à travers le monde. Il nous pousse à nous attacher ou avoir envie d’interagir, avec les animaux par exemple – ce qui peut produire des effets structurants pour notre société puisque des chercheurs ont montré, par exemple, que nous étions beaucoup plus enclins à protéger des espèces animales qu’il nous est facile d’anthropomorphiser, comme les mammifères par exemple.

Dans le cadre des interactions humains-robots, l’anthropomorphisme permet aux humains d’amorcer des comportements sociaux envers leurs acolytes robots, de développer des sentiments pour eux ou de l’inquiétude quant à leur sort, ou de considérer leur présence comme similaire à celle d’un humain. Cependant, la raison de cet anthropomorphisme s’explique de manière très différente d’une culture à l’autre.

D’où vient l’anthropomorphisme ?

L’anthropomorphisme peut être catalysé par la présence de caractéristiques physiques humaines, comme la présence d’un visage sur un robot. Mais il peut également apparaître dans notre tendance, à percevoir des capacités cognitives ou émotionnelles à des non-humains (tendance différente pour chaque individu). Plusieurs variables contextuelles peuvent faciliter ou inhiber ce processus, mais, de manière générale, quand un humain doit expliquer le comportement d’un non-humain, il utilise des connaissances qu’il possède pour expliquer le comportement qu’il observe – surtout si ce comportement est inattendu. Pour cela il va se baser sur la base d’interprétation qu’il connait le mieux : le comportement humain.

[Plus de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Dans le contexte des interactions humain-robot, l’essor des recherches sur l’anthropomorphisme est lié au développement de la robotique sociale, et de ses questionnements : « comment percevons-nous et considérons-nous les robots avec lesquels nous interagissons ? » Cette question, bien plus profonde qu’il n’y paraît, interroge notre rapport à ce que nous considérons comme vivant ou « sentient », c’est-à-dire capable d’expérimenter subjectivement le monde et de le ressentir.

À lire aussi : Sentience, es-tu là ? IA fais-moi peur

De nombreuses études, modèles et outils de mesure allant du questionnaire à la mesure de l’activité cérébrale ont été proposés pour qualifier et quantifier l’anthropomorphisme envers les « robots sociaux » – ceux conçus pour interagir avec nous en reproduisant nos comportements d’interactions sociales. Et même si l’anthropomorphisme semble commun à l’ensemble des humains, nos études (source) montrent que, si une Française et une Japonaise peuvent être d’accord sur le caractère plus « humain » – chaleureux, social, intelligent par exemple – qu’un autre, cette appréciation relève de processus très différents dans les deux cultures.

L’anthropomorphisme est-il culturel ?

Un stéréotype culturel occidental est de considérer le Japon comme un pays de robots, un pays où ces agents artificiels sont intégrés, appréciés et considérés d’une manière qui laisse songeur l’occident. Il a été défendu que la relation entre le Japon et les robots serait une conséquence de la philosophie shinto qui imprègne la culture japonaise, où tout objet physique serait imprégné d’une essence spirituelle. On dit qu’il partage une « quiddité ». Cela signifie que vous, moi ou l’écran sur lequel vous lisez ce texte sont imprégnés de cette essence.

À l’inverse, en occident, il existe une distinction philosophique très largement partagée entre l’Humain et le reste du monde, même si elle est discutée. Dés lors, un robot, même s’il peut être anthropomorphisé partout dans le monde, le serait culturellement moins en occident qu’au Japon.

Une récente étude nous avons montré que cette explication simplifie à outrance un procédé ancré dans le champ de la psychologie interculturelle sociale et cognitive. En effet, des participants coréens/japonais et allemands/états-uniens attribuaient le même niveau de capacités cognitives, émotionnelles et intentionnelles à un robot, mais au travers de processus sociocognitifs sensiblement différents.

Pour les participants coréens et japonais, l’important est de constater le partage d’une caractéristique commune avec le robot à juger. La logique est la suivante : puisque nous partageons une essence, une « quiddité », alors nous partageons peut-être des capacités cognitives, émotionnelles ou intentionnelles. Le résultat est un anthropomorphisme du robot basé sur la constatation de ressemblances.

Les participants occidentaux se comparent en fait avec le robot. Plus le robot est considéré comme éloigné de l’observateur, moins il est considéré comme possédant des capacités cognitives, émotionnelles ou intentionnelles. Ici, on serait plus proche d’un « égomorphisme » basé sur la recherche de différences, c’est-à-dire l’attribution au robot des caractéristiques du prototype de ce qui définit un humain… ce prototype étant l’observateur lui-même.

Le prisme occidental, un trompe-l’œil dans nos interactions avec les technologies

Cette différence illustre en fait une problématique plus générale : aujourd’hui, les études de nos interactions avec les robots, et plus généralement les études en sciences cognitives et sociales, procèdent d’études scientifiques majoritairement produites en occident. Un prisme est posé par la science pour universaliser une représentation spécifique du monde, mais cette universalisation oublie l’importance de la culture sur la formation de nos processus sociocognitifs.

Ce que nous savons de la perception des robots et d’autres processus sociocognitifs est souvent présenté comme généralisable, alors que ces connaissances sont issues d’échantillons de participants extrêmement homogènes. Par exemple, en psychologie sociale et cognitive, mon domaine de recherche, la très grande majorité des études découlent d’observations d’une population blanche occidentale étudiante, dans une tranche d’âge réduite et partageant un corpus culturel extrêmement homogène. De ce simple fait, il apparaît évident que la généralisation se limite à une faible fraction de la population mondiale partageant ces caractéristiques.

Ce que nous apprend l’anthropomorphisme culturel, c’est que notre façon de percevoir l’autre, qu’il soit humain ou non, n’est pas nécessairement celle de notre voisin et que cela implique de considérer ces visions alternatives au même titre que les nôtres. Il est bon de garder à l’esprit que notre rapport au monde est par définition subjectif, partial et partiel. En sous-évaluant ces différences, nous ne faisons rien d’autre qu’oublier une partie de l’humanité.

La version originale de cet article a &#233;t&#233; publi&#233;e sur La Conversation, un site d&#39;actualit&#233;s &#224; but non lucratif d&#233;di&#233; au partage d&#39;id&#233;es entre experts universitaires et grand public.

Lire la suite:

  • Les robots féminins sont les plus humains. Pourquoi ?

  • Les robots vont-ils devenir nos nouveaux doudous ?