top of page

La réticence envers les algorithmes revisitée : le rôle de la culture en IA et des attitudes envers l’IA dans la formation des perceptions des textes générés par l’IA

Dernière mise à jour : 17 mars

Cette étude examine si les individus ont tendance à rejeter les textes pédagogiques générés par l'IA, même lorsque leur qualité est comparable à celle de l'écriture humaine. Dans le cadre d'une expérience en ligne menée auprès de 222 participants, les chercheurs ont utilisé ChatGPT pour produire de courts textes informatifs similaires aux résultats de recherche courants. Les participants ont ensuite été induits en erreur quant à l'origine de chaque texte : certains ont été écrits par des humains, d'autres par une IA, et d'autres encore grâce à une collaboration humain-IA. Ils ont ensuite évalué la crédibilité, l'utilité et la qualité de la formulation. Une légère mais constante préférence pour les textes supposément écrits par des humains est apparue, mais les évaluations sont restées positives dans tous les cas, avec des moyennes comprises entre 4,3 et 4,6 sur une échelle de six points. Le niveau de connaissances en IA a eu peu d'influence, tandis que les attitudes générales envers l'IA expliquent en grande partie les différences de confiance et d'utilité perçue. Ces résultats suggèrent que la manière dont les ressources sont présentées et la façon dont les apprenants perçoivent l'utilisation de l'IA peuvent influencer davantage l'acceptation que la seule qualité technique.




Depuis le début des années 2000, un phénomène appelé aversion algorithmique a été documenté. Il décrit la tendance humaine à accorder moins de crédit aux prédictions générées par des algorithmes informatiques qu'à nos propres prédictions, indépendamment de leur qualité réelle. Avec l'introduction de grands modèles de langage comme ChatGPT, cette tendance a également pris de l'importance dans le secteur de l'éducation. Si l'aversion algorithmique se traduit par un biais anti-IA, où le contenu pédagogique généré par l'IA est perçu comme moins fiable et utile, cela aurait un impact direct sur l'utilisation de ce contenu dans un contexte éducatif. Les conséquences sont difficiles à prévoir, mais incluraient très probablement une moindre acceptation des ressources pédagogiques générées par l'IA, ce qui limiterait la portée des projets pilotes de ce type.


Dans une étude récemment publiée, nous avons examiné cet effet lors d'une expérience en ligne. À l'aide de ChatGPT, nous avons généré de courts textes informatifs répondant à des requêtes de recherche typiques. Les participants ont ensuite été invités à évaluer ces textes selon leur crédibilité, leur utilité et la qualité de leur rédaction. Cependant, ils ont été informés (à tort) qu'un tiers des textes avaient été créés par un humain, un tiers par une IA et le dernier tiers par une collaboration hybride entre un humain et une IA. Outre ces évaluations, les participants ont évalué leurs compétences de base en IA, désignées sous le terme de culture IA, ainsi que leurs attitudes envers l'IA.


Nous avons observé un léger effet d'aversion algorithmique, le contenu présenté comme généré par des humains ayant été évalué de manière significativement plus favorable. Toutefois, cette différence devrait avoir un impact relativement mineur dans la pratique pédagogique, car nous avons constaté que le contenu présenté comme généré par des humains et celui généré par l'IA ont tous deux reçu des évaluations très positives. Sur une échelle de 1 à 6, les notes moyennes, toutes conditions confondues, se situaient entre 4,32 et 4,60. Cette faible variance pourrait s'expliquer par le fait que nous avons permis une comparaison directe, laissant aux participants la possibilité de constater par eux-mêmes la qualité comparable des informations.


Bien que le niveau de connaissances en IA des participants n'ait eu qu'une influence mineure sur leur aversion pour les algorithmes, leurs attitudes envers l'IA peuvent être considérées comme un médiateur important. Cela paraît logique, car les individus ayant une attitude généralement négative envers l'IA ont tendance à moins faire confiance aux contenus éducatifs générés par l'IA et à les percevoir comme moins utiles.


Plusieurs implications importantes pour les politiques éducatives et les décisions pédagogiques concernant l'utilisation de l'IA dans l'éducation peuvent être tirées de ces résultats. Premièrement, cette étude, ainsi que de nombreuses autres, démontrent clairement que les apprenants évaluent généralement les contenus éducatifs générés par l'IA de manière très positive. Même si les étudiants manifestent une légère préférence pour les contenus créés par des humains, cette préférence n'est pas suffisamment marquée pour justifier de décourager l'utilisation de l'IA générative dans l'éducation. Comme indiqué précédemment, notre étude a comparé directement des contenus prétendument générés par l'IA et des contenus créés par des humains. Dans les études utilisant des groupes expérimentaux distincts, où un groupe reçoit des contenus prétendument générés par l'IA et l'autre des contenus créés par des humains, l'aversion pour les algorithmes tend à être plus prononcée. Pour l'utilisation de l'IA dans les écoles et les universités, cela pourrait signifier que les apprenants devraient idéalement recevoir des ressources pédagogiques créées par les enseignants, complétées par des ressources générées par l'IA. Cette approche permet aux apprenants de constater directement que la qualité des ressources générées par l'IA est tout aussi élevée.


Le dernier point essentiel concerne les attitudes et les compétences individuelles des apprenants face à l'IA. Les étudiants devraient avoir l'occasion d'explorer activement les avantages et les inconvénients de l'utilisation de l'IA. Idéalement, cette exploration se déroule dans un esprit de réflexion en classe. Ainsi, il est possible d'éviter de promouvoir une confiance aveugle ou un rejet catégorique de l'IA, par exemple sous l'influence des réseaux sociaux.


En résumé, le succès ou l'échec de l'utilisation de l'IA dans le contexte éducatif dépend non seulement des limitations techniques, mais aussi de la manière dont les ressources pédagogiques sont présentées et de l'attitude des apprenants. Si la présentation peut être influencée directement, les établissements d'enseignement peuvent, au moins indirectement, favoriser une acceptation critique et réflexive des contenus pédagogiques générés par l'IA grâce à des actions ciblées de développement des compétences.




Commentaires


Les commentaires sur ce post ne sont plus acceptés. Contactez le propriétaire pour plus d'informations.
bottom of page