• Lundi 15 Septembre 2025 - 11:01 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Dose mortelle : Mettre fin aux hallucinations pourrait détruire ChatGPT


Par Futurism .Publié le 2025/09/15 21:26
Dose mortelle : Mettre fin aux hallucinations pourrait détruire ChatGPT
Septembre. 15, 2025
  1. 0
  2. 1

Dans un article publié au début du mois, les chercheurs d'OpenAI ont révélé avoir identifié la raison pour laquelle même les modèles d'IA les plus sophistiqués sont sujets à des "hallucinations" généralisées, où des produits comme ChatGPT affirment des choses avec assurance alors qu'elles sont factuellement fausses.

Ils ont découvert que la manière dont nous évaluons la production des grands modèles de langage, comme ceux qui animent ChatGPT, fait qu'ils sont "optimisés pour réussir les tests" et que "deviner en cas d'incertitude améliore la performance". En d'autres termes, les créateurs de ces IA les incitent à deviner plutôt que d'admettre qu'ils ne connaissent pas la réponse. Bien que cette stratégie puisse être efficace lors d'un examen, elle est tout simplement dangereuse lorsqu'il s'agit de fournir des conseils cruciaux dans des domaines comme la médecine ou le droit.

Le dilemme économique et la réalité du marché

Bien qu'OpenAI ait affirmé dans un billet de blog que "la solution est simple" – en ajustant les évaluations pour "pénaliser davantage les erreurs formulées avec assurance que l'incertitude, et accorder un crédit partiel pour les expressions d'incertitude appropriées" – un expert avertit que cette stratégie pourrait avoir des conséquences dévastatrices sur le plan commercial.

Dans un essai pour "The Conversation", Wei Xing, maître de conférences à l'université de Sheffield et expert en optimisation de l'IA, a soutenu que l'industrie de l'IA n'aurait pas d'incitation économique à opérer ces changements, car cela pourrait augmenter considérablement les coûts.

Un risque pour l'expérience utilisateur

Pire encore, si une IA devait admettre à plusieurs reprises qu'elle ne peut pas répondre à une question avec un degré de certitude suffisant, cela pourrait dissuader les utilisateurs, qui apprécient une réponse formulée avec confiance, même si elle est finalement incorrecte.

Selon Xing, même si ChatGPT admettait son ignorance dans seulement 30% des cas, les utilisateurs pourraient rapidement se sentir frustrés et se tourner vers d'autres systèmes. Le chercheur a écrit que "les utilisateurs habitués à recevoir des réponses sûres à quasiment toutes leurs questions abandonneraient probablement ces systèmes très rapidement".

Des coûts d'exploitation exponentiels

Bien qu'il existe des "méthodes établies pour quantifier l'incertitude", les modèles d'IA pourraient exiger "beaucoup plus de calculs que l'approche actuelle", a-t-il affirmé, "car ils devraient évaluer plusieurs réponses possibles et estimer les niveaux de confiance".

"Pour un système traitant des millions de requêtes par jour, cela se traduirait par des coûts d'exploitation considérablement plus élevés", a écrit Xing.

Accumuler les dépenses à ce stade pourrait s'avérer désastreux. Les entreprises d'IA ont misé gros sur l'échelle, en redoublant d'efforts pour étendre les infrastructures afin de faire fonctionner des modèles de plus en plus gourmands en énergie. Cependant, malgré tous leurs efforts, le retour sur investissement semble encore à des années, voire des décennies, d'être une réalité. Jusqu'à présent, des dizaines de milliards de dollars de dépenses en capital ont éclipsé des revenus relativement modestes.

En d'autres termes, augmenter des coûts d'exploitation déjà astronomiques – tout en aliénant les utilisateurs – pourrait devenir un nouvel obstacle majeur pour des entreprises comme OpenAI, qui s'empressent de rassurer leurs investisseurs sur la viabilité de leur modèle commercial à long terme.

L'incompatibilité fondamentale

Xing a fait valoir que les solutions proposées par l'entreprise pour les hallucinations pourraient fonctionner pour "les systèmes d'IA gérant des opérations commerciales critiques ou des infrastructures économiques", car "le coût des hallucinations dépasse de loin la dépense nécessaire pour que les modèles décident s'ils sont trop incertains".

"Cependant, les applications grand public dominent toujours les priorités de développement de l'IA", a-t-il ajouté. "Les utilisateurs veulent des systèmes qui fournissent des réponses fiables à n'importe quelle question".

Arriver plus rapidement à une réponse plus incertaine est intrinsèquement moins cher pour les entreprises, ce qui pourrait décourager une approche plus prudente et fiable impliquant moins d'hallucinations.

L'évolution de la situation à long terme est une pure conjecture, surtout que les forces du marché continuent de changer et que les entreprises trouvent des moyens plus efficaces de faire fonctionner leurs modèles d'IA.

Mais une chose est peu susceptible de changer : deviner restera toujours une option bien plus économique et abordable.

"En bref, l'article d'OpenAI met en évidence, de manière involontaire, une vérité dérangeante", a conclu Xing. "Les incitations commerciales qui animent le développement de l'IA grand public restent fondamentalement en désaccord avec la réduction des hallucinations". "Tant que ces incitations ne changeront pas, les hallucinations persisteront", a-t-il ajouté.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS