X

ChatGPT : ENTRE MYTHE, REALITE ET VERITABLE FONCTIONNEMENT

« ChatGPT est conscient. »
« ChatGPT répète des âneries. »

Ces phrases reviennent sans cesse. Pourtant, la réalité est bien plus nuancée. Avant de juger, explorons en profondeur les coulisses de cette intelligence artificielle qui fascine autant qu’elle intrigue, entre fantasmes technologiques et vérités concrètes.

GPT vs ChatGPT : comprendre la différence

GPT (Generative Pre-trained Transformer) est un modèle de prédiction. Son unique mission : deviner le mot suivant dans une phrase. Il ne pense pas, ne comprend pas, ne raisonne pas. C’est un compléteur statistique.

Tapez par exemple : « La souris est mangée par le… », il vous répondra « chat ». Logique. Fréquent. Probable.

ChatGPT, c’est GPT, enrichi pour l’interaction. On y ajoute une couche de politesse, de dialogue et de structure conversationnelle.

Mais non, cette version « grand public » ne lui a pas transmis une quelconque conscience.

Comment ça apprend, un modèle comme ChatGPT ?

ChatGPT apprend en prédisant. Littéralement. Il passe son temps à compléter des phrases en piochant dans des milliards de textes. Pas pour comprendre, mais pour être plausible.

Il n’a pas de notion de vrai ou de faux. Il reconnaît des patrons.

Si 100 000 textes disent « Paris est la capitale de la France », il répondra « France » à la question qui demande « Quelle est la capitale de la France? ».

Pas parce qu’il sait. Parce que c’est ce qui revient le plus souvent.

Pour aller plus loin : C’est quoi un LLM ?

Une mémoire ? Oui, mais temporaire

GPT-4 peut gérer 128 000 tokens, soit environ 100 000 mots. Cela lui permet de garder en tête un long échange. Mais dès que la session s’arrête, il oublie tout.

À moins qu’une mémoire longue durée soit activée (ce qui est encore très partiel et limité), ChatGPT est amnésique. Il vit dans l’instant.

Sauf si on lui ajoute un petit plus :

Pourquoi ChatGPT hallucine ?

Parce qu’il ne sait pas qu’il hallucine. Il cherche simplement à produire un texte fluide, qui colle au contexte.

Si des mots semblent logiques ensemble, il les enchaîne. Même si le résultat est faux, même si ce qu’il avance n’a jamais existé.

Il ne fait pas la différence entre un fait avéré, une rumeur ou une invention littéraire.

Il ne ment pas. Il prédit. Il sélectionne les mots les plus probables, en fonction de ce qu’il a vu ailleurs.

Ça ressemble à une vérité parce que la forme est convaincante, bien structurée, conforme à nos attentes.

Mais ce n’est parfois qu’une belle fiction, polie, fluide, rassurante — et pourtant totalement erronée. C’est un roman statistique.

Et c’est précisément cela qui le rend dangereux dans certains contextes : parce qu’il ne doute pas, parce qu’il affirme avec aplomb, parce que ses formulations imitent le ton de l’expertise.

À nous, utilisateurs, de toujours garder un pas de recul.

Et surtout ne pas se prendre les pieds dans le tapis comme l’avocat Steven Schwartz dont on raconte l’histoire ici :

Pourquoi paraît-il intelligent alors ?

Parce que tout est fait pour qu’il en donne l’illusion. Trois piliers l’expliquent :

  • Il a lu (presque) tout Internet.
  • Il a été réglé par des humains via du fine-tuning et du RLHF.
  • Il sait simuler des rôles (ex. : « Tu es un prof de physique »).

Mais même s’il joue très bien, ce n’est qu’un jeu de rôle. Sans conscience de ce qu’il raconte.

Fine-tuning et RLHF : les vrais chefs d’orchestre

Le fine-tuning consiste à réentraîner GPT avec des données ciblées. Le RLHF, lui, c’est quand des humains notent ses réponses pour l’aider à mieux répondre ensuite.

C’est ce mix qui rend ChatGPT plus pertinent. Mais ne lui donnez pas trop de crédit : c’est grâce aux humains que l’outil est aussi cohérent.

Les limites de ChatGPT sont réelles

Malgré son aisance à l’écrit, ChatGPT reste fragile, et il est crucial de garder à l’esprit ses zones d’ombre pour éviter les mauvaises surprises :

  • Il invente des sources : citations fictives, auteurs imaginaires, études jamais publiées. Un vrai piège pour ceux qui cherchent des informations vérifiables.
  • Il se trompe en calcul : même des opérations simples peuvent donner lieu à des erreurs absurdes, car il ne calcule pas, il prédit des résultats.
  • Il ignore les actus récentes si non connecté au Web : pas de données fraîches sur les événements du jour ou les mises à jour logicielles récentes, à moins d’y intégrer une fonction de recherche en ligne.

Ces défauts peuvent sembler anecdotiques dans un cadre créatif, mais deviennent critiques dès qu’il s’agit de fiabilité, de rigueur ou de recherche académique.

En revanche, il brille pour :

  • Résumés et reformulations : c’est un champion de la synthèse et de la paraphrase. Parfait pour réexpliquer, clarifier, alléger.
  • Création d’idées et de contenus : il débloque l’inspiration, génère des angles originaux, propose des structures.
  • Aide à la structuration : il hiérarchise l’information, suggère des plans, balise vos projets rédactionnels avec efficacité.

Autrement dit, ChatGPT est un allié puissant pour produire et organiser, mais un piètre référent pour valider ou vérifier.

À vous de choisir comment l’utiliser et de faire vos tests.

ChaGPT est-il conscient ? Non. Non. Et encore non.

ChatGPT n’a pas de pensée. Il mime. Il reproduit. Il simule.

Mais notre cerveau, prompt à l’anthropomorphisme, adore imaginer le contraire. Surtout quand les réponses sont fluides, bien structurées et « humaines ».

Ce n’est pas de l’intelligence. C’est une très bonne imitation.

Ce qu’il transforme vraiment ? Notre rapport à l’information

ChatGPT ne change pas le monde. Il change la façon dont on interagit avec l’information.

Il nous force à structurer nos questions. Il nous pousse à clarifier nos besoins. Il nous habitue à formuler plus précisément nos problèmes.

Il peut être un coach. Un brainstormer. Un assistant docile. Mais pas un être pensant.

Vers des versions plus puissantes… mais toujours aussi inconscientes

Les versions futures de ChatGPT pourront :

  • Se connecter à des bases de données fiables : cela permettra de minimiser les erreurs factuelles, en accédant à des sources validées et constamment mises à jour.
  • Garder une mémoire persistante : une conversation ne se limitera plus à une session. L’IA pourra se souvenir d’informations données auparavant, personnaliser ses réponses et créer un vrai fil conducteur dans les échanges.
  • Vérifier ses infos avant de répondre : des mécanismes de fact-checking en temps réel sont en développement, visant à croiser ses prédictions avec des données externes fiables.

Mais à la base, cela restera un système probabiliste. Il n’y aura toujours pas d’intention, pas de raisonnement autonome, pas de conscience du monde réel.

Même s’il devient plus cohérent, plus personnalisé, plus utile, son cœur restera une mécanique statistique.

Un modèle qui anticipe les mots, mais pas les conséquences. Un système qui perfectionne l’illusion sans jamais franchir la frontière de la compréhension.

À vous de garder les yeux ouverts

ChatGPT n’est pas un oracle. Ce n’est pas une conscience. C’est un miroir textuel, calibré pour nous éblouir par sa fluidité.

Il ne pense pas. Il simule. Et cette simulation suffit parfois à nous inspirer, à nous aider, à nous guider.

Mais n’oubliez jamais : l’illusion est grande. Et c’est à vous de garder le cap

Articles similaires