C’est dans la nuit du mardi 20 au mercredi 21 février que les utilisateurs de ChatGPT ont été frappés par l’incohérence de la nouvelle technologie… Habituellement fiable et compréhensible, l’agent conversationnel d’OpenAI a semblé « perdre les pédales », comme s’il était possédé. Mais que s’est-il réellement passé ?
Un bug qui vire à l’incohérence
Quelle ne fut pas la surprise des utilisateurs de ChatGPT lorsqu’ils se sont aperçus du charabia délivré par celui-ci ! Il peut effectivement y avoir une difficulté. Mais lorsque celle-ci récidive, nous sommes amenés à nous poser des questions. Répétition d’un même mot-clé plus de 10 fois d’affilée, utilisation de mots qui proviennent de langues différentes dans la même phrase, utilisation d’autres qui n’existent pas… Et la liste est longue ! Quand on sait que l’intelligence artificielle a été prise de cette folie en pleine nuit, ça fait froid dans le dos. Pour avoir la preuve de ce qu’ils avancent, les utilisateurs n’ont pas hésité à faire des captures d’écran des réponses de ChatGPT… et à les poster sur les réseaux sociaux ! Et il faut bien admettre que les résultats sont étranges.
Mais que s’est-il réellement passé pour en arriver là ? OpenAI répond aux interrogations de ses utilisateurs. L’entreprise précise qu’une optimisation de l’expérience utilisateur était en cours dans la nuit du 20 au 21 février. D’où le bug introduit dans le traitement de langage de l’agent conversationnel. Depuis lors, le problème en question semble avoir été réglé. Et les internautes peuvent continuer à profiter des services de ChatGPT sans se poser de questions.
Les capacités de ChatGPT remises en cause ?
Le bug dans le traitement de ChatGPT nous amène à nous poser des questions. Notamment quant à la fiabilité de l’intelligence artificielle, en général. Ici, l’incohérence est flagrante. Les réponses de l’agent conversationnel sont inintelligibles. Mais qu’en est-il si le bug est beaucoup plus subtil ? Et que le sens des mots et des phrases est compréhensible mais que les informations délivrées sont falsifiées (indépendamment d’une quelconque action humaine) ? Cette situation nous incite à revoir la confiance que nous pouvons accorder à l’intelligence artificielle. Et ainsi bien vérifier nos sources avant de nous servir de ce qu’elle nous propose.