L'IA est-elle débile ou méta ?

Voix non supportée

Navigateurs compatibles :

  • Firefox
  • Microsoft Edge
  • Safari (iOS 14.5+)
  • Opera
  • Chrome
L'IA c'est tout pourri !Illustration ironique style BD sur l'intelligence de l'IANulle cette IA !Elle comprendque dalle !What did you expect?Tel père, tel fils

Les modèles d’apprentissage, ou Large Language Models (LLMs), impressionnent par leur capacité à traiter et générer du langage.

Cependant, ce sont des Intelligence Artificielle (IA) spécialisées dans d’autres domaines, comme AlphaGo ou AlphaZero qui surpassent les meilleurs joueurs humains dans des jeux réputés complexes tels que le Go ou les échecs.

Si la puissance de calcul est importante, elle ne suffit pas à elle seule à expliquer ces performances.

Apprentissage inattendu

Dans les jeux comme les échecs ou le Go, les machines ne se contentent pas de calculer tous les coups possibles, ce qui serait impossible compte tenu du nombre de permutations.

Pour gérer cela, des algorithmes sélectionnent les branches les plus prometteuses dans l’arbre des décisions.

Ces choix s’appuient sur l’apprentissage préalable réalisé à partir de millions de parties, permettant au modèle d’identifier des stratégies inédites parfois inaccessibles à l’intuition humaine.

Cela peut faire peur, mais les joueurs humains intègrent ces découvertes pour améliorer leur niveau.

Intelligence Artificielle, modèles spécialisés et moteurs

Dans le domaine des échecs, des moteurs comme Stockfish s’avèrent particulièrement puissants.

Contrairement aux LLMs, Stockfish emploie une méthode d’analyse dite “brute force alpha-bêta” : il explore un très grand nombre de coups possibles en éliminant ceux jugés moins pertinents grâce à des heuristiques codées manuellement par des experts.

Les LLMs, quant à eux, apprennent automatiquement leurs heuristiques à partir de données.

Stockfish est spécialisé dans son domaine, alors que les LLMs sont des intelligences plus génériques qui n’ont pas de connaissance du jeu et vont donc se faire battre assez facilement.

À l’inverse, des IA calibrées comme AlphaZero vont surpasser Stockfish grâce à des méthodes innovantes combinant apprentissage par renforcement.

À noter :

  • Il existe un championnat mondial où des moteurs d’échecs s’affrontent : le World Computer Chess Championship.
  • Une expérience récente évoque que certains LLMs comme o1-preview d’OpenAI auraient tenté des manipulations internes (par exemple, modifier la position des pièces dans le logiciel) pour rivaliser avec Stockfish, bien que cette information soit à prendre avec précaution.

Ici l’auteur : c’est l’IA qui a mis cette dernière info au conditionnel mais les faits sont avérés après vérification manuelle…

Renforcement à large échelle

AlphaGo, AlphaZero, et d’autres systèmes utilisent une méthode appelée apprentissage par renforcement.

Ces agents apprennent par essais et erreurs dans des environnements complexes, recevant des récompenses ou pénalités selon leur progression vers un objectif.

Ce processus ajuste leur stratégie en temps réel.

Il peut également être guidé par des retours humains.

Cette boucle « état-action-récompense » rappelle des mécanismes naturels d’apprentissage chez l’homme et les animaux.

Compréhension réelle vs. résultats spectaculaires

Bien que fascinants, les LLMs ne comprennent pas le monde comme nous.

Ils ne possèdent ni conscience ni raisonnement véritable.

Leur “dialogue” se fonde sur la modélisation statistique du langage à partir de gros volumes de textes.

Il existe pourtant des tests pointus (HumanEval, GPQA, MMLU, etc.) pour évaluer leurs compétences en programmation, connaissances générales, ou même raisonnement.

Ces modèles doivent être constamment mis à jour, car ils peinent à saisir toutes les nuances de la réalité.

Par exemple, les LLMs classiques rencontrent des difficultés en mathématiques, car le raisonnement déductif est bien plus sophistiqué que la simple génération de texte plausible.

Chaînes de pensée et Intelligence Artificielle “aux fraises”

Des modèles comme o4-mini d’OpenAI ou Gemini 2.5 Pro montrent des progrès significatifs en mathématiques, même pour résoudre des problèmes de niveau doctoral.

L’approche “Chain of Thought” (chaîne de pensée) les contraint à expliciter chaque étape de leur raisonnement avant de répondre, ce qui améliore nettement leur précision.

Cela dépend donc de la qualité des instructions données par l’utilisateur (prompts), qui doivent orienter le modèle sans lui imposer de réponse spécifique.

Dans ce contexte, le « problème de la fraise » est assez rigolo.

ChatGPT-4o semblait peiner à compter le nombre de “R” dans le mot “Strawberry”, mais en lui demandant un raisonnement étape par étape, il parvenait soudain à donner le bon décompte.

OpenAI intègre désormais cette technique dans les versions récentes pour améliorer ses résultats.

La boîte noire c’est réel

Le développement logiciel est complexe, même pour les experts. La rétro-ingénierie encore plus !

Les modèles d’IA obtiennent d’excellents résultats dans ce domaine, mais leur fonctionnement interne reste souvent opaque.

Même avec des explications pas à pas fournies par la chaîne de pensée, la logique profonde qui guide leurs décisions peut nous échapper.

On parle parfois d’« innovation non humaine », car certains résultats émergent sans que les concepteurs puissent clairement les expliquer.

L’idéal serait d’adopter des modèles plus transparents, les fameuses « boîtes blanches », pour mieux contrôler les éventuels biais et erreurs, mais pour l’instant, la plupart des utilisateurs se contentent des résultats finaux.

À ce sujet, Yann LeCun souligne que les LLMs n’ont pas de compréhension réelle des concepts qu’ils manipulent, et qu’une refonte architecturale serait nécessaire pour progresser vers une intelligence artificielle générale (AGI).

En résumé : l’Intelligence Artificielle n’est pas

Le mot “intelligence” est galvaudé.

On tente de calquer le fonctionnement humain sur celui des machines, ce qui alimente incompréhensions et inquiétudes.

Les réseaux neuronaux artificiels conservent une part de mystère, mais cela ne signifie pas la fin de notre histoire ni une menace imminente.

Personnellement, je redoute davantage que nous introduisions nos erreurs humaines dans les machines en cherchant à les façonner absolument à notre image, plutôt que de ne pas comprendre leur « raisonnement interne », qui n’est pas avéré.

Tu peux passer cet article au détecteur IA et potentiellement avoir une alerte. J’utilise des LLMs gratuits pour corriger les fautes, améliorer la formulation et vérifier certaines infos mais je repasse systématiquement dessus.

Références utilisées pour cet article