Pr. Valentina Pitardi: « Les gens sont plus enclins à obéir à un panneau qu’à un robot »

Pr. Valentina Pitardi: « Les gens sont plus enclins à obéir à un panneau qu’à un robot »
Image generated by Midjourney

La « justice interactionnelle ». C’est ce qui fait que vous ne répondrez pas nécessairement aux ordres d’un robot. Le professeur Valentina Pitardi, maître de conférences en Marketing à la Surrey Business School, a présenté ses recherches sur ce sujet lors de la série de séminaires du SKEMA Centre for Artificial Intelligence (SCAI). Elle nous explique les raisons de cette résistance.

Vous avez constaté que les individus sont moins enclins à suivre les instructions données par un robot que par un humain. Pourquoi ?

De manière générale, les individus ont tendance à moins suivre les directives provenant d’un robot (voir Figure 1). Cela s’explique en grande partie par ce que nous appelons la « perception de la justice ». Autrement dit, lorsque nous recevons des instructions d’un robot, nous avons le sentiment d’être traités de manière moins équitable par rapport aux mêmes directives provenant d’un humain.

Ce phénomène s’explique par l’une des dimensions de la justice, connue sous le nom de « justice interactionnelle », qui repose sur le sentiment de respect ressenti lors d’une interaction.   Nos études ont révélé que les individus ressentent un faible niveau de justice interactionnelle avec les robots : ils ont le sentiment de ne pas être traités avec le respect et la dignité qu’ils attendent d’un humain.

Figure 1

Avez-vous constaté des différences culturelles ou générationnelles ?

Du point de vue générationnel, nous avons inclus l’âge comme variable de contrôle (avec des participants âgés de 18 à 75 ans). Mais nous n’avons pas relevé de différences significatives. Cela dit, cette tendance pourrait évoluer à l’avenir. Les individus seront sans doute plus habitués aux robots d’ici 10 ou 20 ans ; et notamment les jeunes, qui semblent déjà faire moins de distinction entre le virtuel et le réel.

Du point de vue culturel, nous nous sommes surtout penchés sur les pays occidentaux. Nos expériences ont été menées au Royaume-Uni auprès de citoyens britanniques, et nos échantillons en ligne proviennent des États-Unis, du Canada et du Royaume-Uni. Les résultats se sont révélés cohérents d’un pays à l’autre. Toutefois, il serait intéressant d’analyser cette question dans d’autres régions, où les normes culturelles en matière d’autorité et de suivi des consignes pourraient différer.

Le type et les caractéristiques du robot (comme sa ressemblance avec un humain) influencent-ils l’adhésion à ses instructions ?

Pas vraiment. Nous avons par exemple vérifié si son genre avait un impact. Notre hypothèse était que les robots « féminins » pourraient être perçus comme plus chaleureux et empathiques, ce qui réduirait le sentiment d’injustice et favoriserait l’adhésion. Mais nos résultats n’ont montré aucun effet en ce sens. Nous avons également étudié le degré de ressemblance humaine du robot ainsi que son niveau d’intelligence perçue, mais cela n’a aucun impact.

Jusqu’à présent, aucune des variables testées sur les robots n’a réellement eu d’effet sur les résultats. Apparemment, les individus estiment que les robots ne sont pas en mesure de les traiter de manière respectueuse et équitable, ce qui influence leur niveau d’adhésion aux instructions.

Fait intéressant, nous avons observé que les participants avaient davantage tendance à suivre des consignes signalétiques plutôt que celles données par un robot (voir Figure 2). Cela suggère que le problème ne vient pas de l’absence d’humain, mais bien du niveau de justice perçue.

Quid de la voix du robot ? Une certaine « étrangeté » pourrait-elle être mise en cause ?

Les robots que nous avons utilisés ont la voix de Pepper. Malgré sa tonalité humaine, son caractère artificiel reste évident. Bien que nous n’ayons pas manipulé la voix pour tester son impact, il est possible que cela contribue à renforcer la perception de distance et de différence entre humains et robots. Mais en leur donnant une voix humaine, nous aurions en quelque sorte renforcé l’idée qu’une présence humaine est indispensable.

Il est vrai que nous ne sommes pas habitués à recevoir des instructions de la part de robots, et que nos habitudes jouent un rôle dans l’adhésion aux directives. Depuis l’enfance, nous apprenons à obéir aux consignes données par des humains ou sous forme de signaux. Nous avons testé cette hypothèse en mesurant la perception de nouveauté ressentie par les participants. Mais même après avoir pris en compte le degré de familiarité qu’ils avaient avec le robot, cet effet persistait.

Cette résistance est-elle liée à la perception de l’autorité ? Est-ce que les humains sont les seuls à avoir de l’autorité sur d’autres humains ?

Les individus admettent que les humains détiennent davantage d’autorité que les robots. Mais dans le cadre de nos recherches, l’autorité n’a pas été un facteur déterminant pour l’adhésion aux instructions. Nous avons également vérifié si les conséquences sociales pouvaient avoir un impact sur le suivi des consignes. Bien que cet aspect ait joué un rôle, il ne s’agissait pas du facteur principal. Dans les deux cas, c’est avant tout le rôle central de la justice interactionnelle qui ressort.

Lorsque nous respectons une règle pour le bien collectif, comme le fait de rester silencieux en classe afin que tout le monde puisse entendre l’enseignant, notre adhésion repose souvent sur une compréhension commune de la raison d’être de cette règle. Il s’agit d’un petit sacrifice personnel, qui semble justifié lorsqu’il est demandé par un autre humain.

En revanche, lorsqu’un robot donne la même instruction, les individus opposent davantage de résistance : ils estiment qu’il est incapable de comprendre la portée de sa demande. Il ne peut pas éprouver d’empathie ni comprendre réellement ce qu’implique un sacrifice pour autrui. L’interaction semble donc impersonnelle et injuste.

Cet effet pourrait toutefois être moins prononcé dans des contextes où l’autorité et les conséquences sont plus importantes, comme dans le système judiciaire. Dans un tel cadre, l’adhésion aux règles est souvent motivée par la crainte d’une amende ou d’une peine de prison. L’autorité pourrait alors jouer un rôle plus déterminant.

Avez-vous identifié des situations où les robots se révèlent plus efficaces que les humains ?

Oui, nous avons constaté que lorsqu’un humain donne l’impression de traiter certaines personnes de manière injuste, par exemple en favorisant certains groupes de façon perçue comme discriminatoire, les robots peuvent en réalité être plus efficaces.

Prenons un exemple : lorsque les familles ou les personnes âgées sont traitées en priorité, certains individus peuvent avoir le sentiment d’être floués. Mais lorsqu’un robot donne ces mêmes instructions, ils perçoivent cette situation comme étant impartiale, car gérée par un programme sans conscience ni intention. Dans ce cas précis, les individus obéissent moins aux humains et davantage à la machine.

Cependant, cela ne constitue pas une piste exploitable pour les entreprises. Nous ne souhaitons certainement pas légitimer les traitements injustes afin de rendre les robots plus performants.

Valentina Pitardi lors du séminaire organisé par le SKEMA Centre for Artificial Intelligence (SCAI).

Quels conseils donneriez-vous aux acteurs économiques souhaitant exploiter des robots dans des rôles impliquant l’adhésion aux instructions ?

Les entreprises doivent prendre garde à l’impact des robots dans des contextes où les individus sont susceptibles de se sentir lésés ou frustrés. Je leur conseillerais avant tout d’associer les robots aux humains plutôt que de les laisser fonctionner en autonomie. La supervision humaine permet de rééquilibrer l’interaction et d’atténuer le sentiment d’injustice.

Cela dit, nous déconseillons généralement d’utiliser des robots dans des contextes où l’adhésion aux règles est essentielle, mais facilement contournable, à l’image des déclarations fiscales ou du traitement des remboursements. Cela pourrait entraîner une hausse des tentatives de fraude et accroître les coûts.

Quel impact sociétal vos recherches ont-elles mis en lumière ?

Ce qui distingue cette recherche des autres études sur l’IA, c’est qu’elle s’intéresse spécifiquement à la manière dont les individus réagissent aux instructions. Nous avons développé l’habitude de suivre les directives de manière quasi automatique (à quelques exceptions près) : nos sociétés fonctionnent ainsi.


A lire aussi : Pr. Christopher Tucci : « La plupart des entreprises sont trop lentes à adopter l’IA ».

Margherita PaganiDirectrice du SKEMA Centre for Artificial Intelligence

Tous ses articles

Fermer le menu