La dette cognitive dans la tech

Illustration artistique d’un profil humain représentant les différentes facettes de l’esprit
© Wiki Sinaloa sur Unsplash

Voix non supportée

Navigateurs compatibles :

  • Firefox
  • Microsoft Edge
  • Safari (iOS 14.5+)
  • Opera
  • Chrome

Les Large Language Models (LLMs) et les plateformes qui les exploitent sont-ils devenus indispensables ?

L’Intelligence Artificielle (IA) ne laisse personne indifférent. Certains s’enthousiasment, d’autres s’insurgent, d’autres prennent peur, d’autres encore nient toute forme d’intérêt.

On s’interroge beaucoup sur l’aspect technologique et c’est bien normal, mais on parle peu de notre capacité à bien intégrer tous ces outils.

“Démence” et lock-in

Le terme de “démence” peut paraître extrême et pourtant certains ingénieurs l’emploient.

Comme si tout le savoir élaboré à l’aide de ces agents (en lien avec les LLMs) devait disparaître à la minute où on résilie son abonnement au service.

Un effet dit “lock-in” où il faut payer pour améliorer un système propriétaire, avec notre propre consentement :

Knowledge Locked Behind Paywalls

My role risks shifting from creator and problem-solver to prompt engineer and output validator [Sebastian Schürmann]

Ici l’auteur : dans le paragraphe suivant, j’essaie de résumer la pensée de l’ingénieur cité. Suivez le lien donné dans la section “références” en bas de l’article pour lire la source directement.

On serait donc dans une nouvelle ère où les dévs passeraient plus leur temps à peaufiner des prompts et à valider des résultats qu’à véritablement réfléchir par eux-mêmes aux problèmes.

Open AI a publié un paquet de ressources pour les ingénieurs en la matière.

Une chose est sûre, il serait très compliqué de se passer totalement de ces outils étant donné les bonds de productivité, quoi qu’en disent les sceptiques.

Cependant, on devrait pouvoir discuter un peu plus des termes du contrat.

Un monde d’agents locaux semi-autonomes

Les ingénieurs logiciels (et pas qu’eux) peuvent recourir à des agents pour exécuter des tâches plus ou moins complexes.

On peut citer Devstral, l’agent de codage signé Mistral AI et All Hands AI, mais il y en a plein d’autres.

Le fonctionnement est similaire aux LLMs génériques mais avec la possibilité de le connecter à tous les outils du projet et même de le faire participer aux revues de code.

D’une part, ces agents sont ultra-calibrés pour accomplir leurs tâches. D’autre part, ils peuvent articuler les concepts liés au problème pour proposer des solutions complètes et non juste des fragments de code.

L’autre promesse concerne les problématiques de vie privée et de données sensibles manipulées par les entreprises et qu’un agent local (~ cloisonné) pourra traiter avec moins de risques que dans le Cloud.

Autonomie et orchestration

Le nerf de la guerre c’est l’autonomie.

Dans l’idéal, on voudrait que les agents apprennent tout seul, remplissent des objectifs et se mettent à faire du reporting.

Autrement dit, le dév assisté c’était hier, demain ce sera l’AI Driven Development (ADD), où l’IA ne sera plus le passager mais bien le pilote.

Dans cette perspective, les possibilités sont exponentielles. Pourquoi pas des équipes entières d’agents pilotées par d’autres agents, plus globaux, sur des projets à grande échelle.

D’ailleurs, le terme souvent associé à l’autonomie c’est l’orchestration, ou comment coordonner toutes ces ressources pour produire mieux.

Le déclin redouté des dévs

Je parlais de démence en début d’article. Certains craignent qu’un recours massif à l’IA puisse entraîner une baisse générale de la capacité à raisonner et à prendre des décisions.

Dans cette dystopie, plus de place pour l’esprit critique ou l’autonomie.

Autrement dit, plus les agents gagnent en autonomie et plus c’est la nôtre qui déclinerait.

Dans le développement logiciel, cela peut se traduire par ce genre d’inquiétudes :

  • Que se passera-t-il le jour où l’agent est hors-service ? Est-ce qu’on pourra toujours prendre le relai ?
  • On programme de moins en moins donc est-ce qu’on va perdre cette capacité à termes ?
  • Les dévs vont-ils devenir obsolètes ?

Les métiers de la tech mobilisent le cortex, littéralement.

Pour le dire vite, moins tu le sollicites et plus tu accumules de la dette cognitive.

Un enjeu qui dépasse la tech

Tous humains, tous sujets aux mêmes mécanismes.

Il n’y a pas que les métiers du numérique qui sont concernés par le problème.

Cependant, ne nous laissons pas tétaniser par ce qui nous dépasse et restons actifs.

L’outil prendra la place qu’on voudra bien lui donner.

À l’heure où j’écris cet article, l’IA peut orchestrer des flux complexes mais quand les modèles (pas les LLMs mais les schémas ou patterns en anglais) sont cadrés et bien documentés.

Elle est en revanche assez peu fiable pour faire face à l’inconnu.

Comprenez-moi. Elle peut trouver des angles insoupçonnés et même nous ouvrir à d’autres approches mais pour des problèmes connus encore une fois, ce qui dans le développement logiciel est souvent le cas.

S’il est important de rester affuté, perdre son énergie sur des problèmes connus sans apporter un regard nouveau ou des gains notables ne fait qu’alimenter la frustration.

Pour autant, déléguer toute réflexion à l’IA en partant du principe qu’elle sera meilleure quoiqu’il arrive est une erreur.

Les références de l’article