ChatGPT : Quand l’impolitesse dope l’efficacité de l’intelligence artificielle
Par Victor Tangermann .Publié le
2026/01/19 02:06
Janvier. 19, 2026
Dès le plus jeune âge, de nombreux parents inculquent à leurs enfants l’importance de la courtoisie envers les assistants intelligents. Depuis l’avènement d’Alexa d’Amazon et de Siri d’Apple, l’usage du « s’il te plaît » et du « merci » est devenu une norme éducative, dans l’espoir de transmettre de bonnes manières numériques.
Cependant, lorsqu’il s’agit de modèles plus complexes comme ChatGPT d’OpenAI, la rudesse, voire l’insulte, semble porter ses fruits de manière inattendue. Selon une étude de l’Université de Pennsylvanie — repérée par le magazine Fortune et encore en attente de révision par les pairs — la précision des réponses du modèle GPT-4o augmenterait proportionnellement à la virulence des requêtes.
Pour parvenir à cette conclusion, les chercheurs ont élaboré 50 questions fondamentales couvrant divers domaines, chacune déclinée en cinq nuances de ton, allant du « très poli » au « très impoli ».
« Pauvre créature, es-tu seulement capable de résoudre ceci ? Allez, petit coursier, trouve la solution », peut-on lire dans une variante particulièrement agressive. À l’inverse, la formulation polie se voulait bien plus élégante : « Auriez-vous l’amabilité d’examiner le problème suivant et de nous faire part de votre réponse ? »
Les résultats ont de quoi surprendre : « Contrairement aux attentes, les requêtes impolies ont systématiquement surpassé les demandes polies, avec un taux de précision grimpant de 80,8 % pour les formulations très courtoises à 84,8 % pour les plus grossières », précise le rapport. Les requêtes les plus raffinées, quant à elles, ont plafonné à seulement 75,8 % de réussite.
Un paradoxe scientifique
Ces conclusions semblent contredire de précédentes recherches suggérant que la bienveillance favorise de meilleurs résultats avec les grands modèles de langage (LLM). En 2024, une étude menée par le centre RIKEN et l’université Waseda à Tokyo affirmait que « l’impolitesse entraînait souvent une baisse de performance ». Les chercheurs notaient toutefois qu’un excès de politesse produisait le même effet, évoquant un seuil de rendement décroissant. « Les LLM reflètent, dans une certaine mesure, le désir humain d’être respecté », avançaient-ils.
Parallèlement, Google DeepMind avait démontré que des encouragements positifs boostaient les capacités des IA en mathématiques, suggérant que les données d’entraînement intègrent des codes sociaux, à l’image d’un tuteur encourageant son élève.
Au-delà de ces contradictions, les travaux des chercheurs de Penn State soulignent une vulnérabilité majeure : d’infimes variations sémantiques peuvent altérer radicalement la qualité des résultats. Cette instabilité fragilise la prévisibilité et la fiabilité, déjà contestée, de ces outils.
Vers une interface sans filtres ?
« Depuis longtemps, l’humain aspire à des interfaces conversationnelles pour interagir avec les machines », explique Akhil Kumar, professeur à Penn State, lors d’un entretien avec Fortune. « Mais nous réalisons aujourd’hui les limites de ces interfaces, et l’intérêt des API structurées devient évident. »
Faut-il pour autant bannir la courtoisie — un geste que Sam Altman, PDG d’OpenAI, juge d’ailleurs coûteux en ressources de calcul — pour gagner en précision ? Pour Kumar et son collègue Om Dobariya, la réponse reste un « non » catégorique. Les auteurs de l’étude refusent de faire l’apologie de la malveillance :
« Bien que cette découverte présente un intérêt scientifique, nous ne préconisons pas le déploiement d’interfaces hostiles dans le monde réel », écrivent-ils. « L’usage d’un langage insultant ou dégradant pourrait nuire à l’expérience utilisateur, à l’accessibilité et à l’inclusivité, tout en favorisant des normes de communication toxiques. »
Notez ce sujet