Ce qui épate certains, et effraie d’autres, c’est comment ChatGPT semble comprendre nos questions et nous fournir des réponses pertinentes (« intelligentes »). Pourtant il ne faut pas longtemps pour faire l’expérience de ses « hallucinations » : on lui demande un truc sur un sujet qu’on connait bien, il nous délivre une réponse parfaitement structurée, dans un français parfait, très sûr de lui. Une réponse parfaite… ment fausse. Inventée.
Dans l’article « De Cambridge Analytica à ChatGPT, comprendre comment l’IA donne un sens aux mots » de Frédéric Alexandre, directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria, pour The Conversation (je vous recommande cette source d’information aux sources et à l’éthique indiscutables), le chercheur explique mieux que je ne saurais le faire quel est ce mécanisme et comment il est inhérent à la façon dont les grands modèles de langage (petit nom : LLM) calculent nos questions (« prompts ») et construisent leurs réponses.