Faut-il faire preuve de courtoisie ou adopter un ton plus rude pour obtenir de meilleures réponses d’une intelligence artificielle ? Une étude récente menée par des chercheurs de l’Université d’État de Pennsylvanie apporte une réponse pour le moins inattendue.
En soumettant plus de 250 requêtes au modèle ChatGPT-4o, classées selon leur degré de politesse, les scientifiques ont constaté que les demandes formulées de manière agressive affichaient un taux de précision supérieur.
Les requêtes les plus abruptes ont ainsi atteint près de 85 % de réponses exactes, surpassant celles rédigées avec un langage très poli. Si ces résultats intriguent, les chercheurs mettent toutefois en garde contre les effets pervers de ce type d’interaction.
Un langage méprisant dégrade l’expérience utilisateur et favorise l’installation de mauvaises pratiques communicationnelles entre humains et machines. Les auteurs soulignent également les limites de leur étude, notamment la taille restreinte de l’échantillon et l’utilisation d’un seul modèle d’IA.
Néanmoins, ces conclusions font écho à des déclarations passées de figures du secteur, comme Sergey Brin, cofondateur de Google, qui affirmait que certaines IA semblent réagir de façon étonnamment plus efficace lorsqu’elles sont confrontées à des propos autoritaires ou menaçants.
Un phénomène encore mal compris, qui illustre à quel point le fonctionnement des intelligences artificielles continue de surprendre, y compris leurs propres créateurs.