Même les IA sont victimes des premières impressions
Publié le 28/04/2026
À quoi une intelligence artificielle doit-elle ressembler pour être acceptée en tant que membre d’une équipe ? Une étude impliquant Agata Mirowska, chercheuse à NEOMA, montre que la première impression joue un rôle déterminant dans la confiance accordée à ces nouveaux partenaires au travail. Car l’intelligence artificielle n’est pas seulement un outil technique, mais aussi un objet social.
Travailler avec une intelligence artificielle pourrait bientôt devenir aussi banal que collaborer avec un collègue. Dans les entreprises, les chercheurs parlent déjà « d’équipes hybrides », où humains et agents artificiels travaillent ensemble. Mais une question demeure : ces nouveaux partenaires sont-ils vraiment acceptés ?
Il s’avère que, comme pour tout nouveau collègue, une IA n’a pas de seconde chance pour faire une bonne première impression. À quoi doit donc ressembler une intelligence artificielle pour être acceptée d’office au sein d’une équipe ? Cette question est au cœur d’une étude menée par deux chercheuses, dont Agata Mirowska de NEOMA. L’étude montre qu’à mesure que ces systèmes deviennent plus autonomes, leur intégration ne relève plus seulement de défis techniques. Elle devient aussi une question sociale.
Une IA comme acteur social
Dans cette étude, il n’est pas tant question d’algorithmes invisibles ou d’outils impalpables qui tourneraient en arrière-plan. Elle s’intéresse, au contraire, à des agents dotés d’une apparence et de traits de personnalité. Imaginez des avatars plus ou moins réalistes qui s’afficheraient sur votre écran d’ordinateur et échangeraient avec vous pour compléter votre travail.
Cet associé 2.0 doit avant tout s’intégrer dans une équipe humaine et interagir avec elle comme avec n’importe quel collègue. L’idée est qu’au-delà de son intégration à des fins de performance, l’IA devient aussi un acteur social à part entière.
Dès lors, son acceptation initiale dépend de la manière dont elle s’insère dans un milieu professionnel. En bref, avant même d’évaluer ce qu’elle sait faire, les humains jugent si elle « a sa place » dans l’équipe.
À l’épreuve de la première impression
Pour comprendre comment se forme ce jugement initial, les chercheuses ont mené une série d’expériences. Des participants devaient évaluer des agents d’intelligence artificielle présentés comme de futurs membres d’une équipe de travail.
Les IA différaient par leur apparence plus ou moins humaine, par leur genre et par leur tempérament plutôt chaleureux ou plutôt axé sur la performance. En gros, les volontaires étaient confrontés à une sorte de carte d’identité avec une photo et une brève description du tempérament de l’IA.
Les participants devaient ensuite dire s’ils trouvaient ces agents étranges, s’ils leur faisaient confiance et s’ils accepteraient de travailler avec eux. Objectif ? Comprendre ce qui se joue dans les premières secondes d’une rencontre avec un « collègue » artificiel.
Une question de crédibilité
Premier constat : l’apparence compte. Et même beaucoup. Plus la représentation visuelle de l’agent est réaliste, moins il suscite de sentiment d’étrangeté. Les participants se disent alors prêts à travailler avec lui. À l’inverse, un agent au style proche du cartoon est plus souvent perçu comme peu crédible dans un cadre professionnel.
Mais l’apparence ne fait pas tout. L’attitude et le contexte pèsent aussi dans la balance. Les chercheuses montrent en effet qu’une même IA, à apparence et personnalité identiques, peut être bien accueillie dans un environnement et susciter davantage de réticences dans un autre. Par exemple, un agent masculin décrit comme chaleureux est moins bien accepté dans un contexte logistique, alors qu’il est au contraire le profil le mieux perçu dans un environnement de travail à dominante sociale.
En fait, ce qui compte, c’est la cohérence. Cohérence entre le comportement de l’agent, son genre apparent et le milieu professionnel dans lequel il intervient. Si l’un de ces aspects ne correspond pas aux stéréotypes associés à ce rôle, l’IA est plus facilement rejetée.
Avant même d’être mis en fonction, un agent artificiel est donc évalué en tant que membre potentiel du groupe, comme on le ferait avec tout nouvel arrivant. Répond-il aux critères attendus ? Aux stéréotypes du métier ? Peu importe dans un premier temps ce qu’il sait faire : la question est d’abord de savoir s’il a l’attitude et l’image qui « colle » au métier.
Concevoir des IA acceptables
Ces résultats insistent sur des freins souvent invisibles, mais bien réels, à l’introduction d’agents d’intelligence artificielle dans les équipes humaines. Ils rappellent que leur intégration ne dépend pas seulement de prouesses techniques, mais aussi de facteurs humains et organisationnels encore largement sous-estimés dans leur conception.
Les chercheuses soulignent toutefois une limite importante : les participants n’ont pas réellement interagi avec ces agents. Leurs réactions ne portent donc pas sur une expérience de travail réelle. Des études plus immersives aideraient à mieux comprendre comment ces premières perceptions évoluent dans la durée.
Une chose est sûre : à mesure que les intelligences artificielles s’invitent dans les équipes, le défi ne sera pas seulement de les rendre performantes, mais de faire en sorte qu’on ait envie de travailler avec elles.
En savoir plus
Mirowska, A., & Arsenyan, J. (2025). The a(I) team : Effects of human‐likeness and conformity to gender stereotypes on initial trust and willingness to work with an ai teammate. Journal of Organizational Behavior, job.70009. https://doi.org/10.1002/job.70009
Articles associés
Professeur

MIROWSKA Agata
Dr. Agata Mirowska est Professeur Assistant en Management de Ressources Humaines et Comportement Organisationnel. Ses recherches portent sur le rôle de la technologie sur le lieu de travail, et en particulier sur les réactions des individus face à l’intelligence artificielle qui prend en charge