Les limites actuelles de l'IA : pourquoi les modèles de langage ne tiennent pas (encore) leurs promesses

Les limites actuelles de l'IA : pourquoi les modèles de langage ne tiennent pas (encore) leurs promesses

En tant que développeur travaillant quotidiennement avec des technologies émergentes, je suis particulièrement attentif aux débats concernant l'intelligence artificielle et ses capacités réelles. Les récentes critiques formulées par Gary Marcus, psychologue cognitiviste et entrepreneur dans le domaine de l'IA, m'ont interpellé car elles mettent en lumière un décalage important entre les promesses et la réalité des grands modèles de langage (LLM) et de raisonnement (LRM).

Ces modèles, qui alimentent des outils comme ChatGPT ou Claude que j'utilise régulièrement dans mon workflow de développement, présentent des limitations fondamentales qui méritent notre attention.

Des modèles qui "pensent trop" ou "pas assez"

L'exemple des tours de Hanoï cité par Marcus est particulièrement révélateur. Ce problème algorithmique classique, que j'enseigne souvent aux débutants en programmation pour illustrer la récursivité, met en difficulté les chatbots les plus sophistiqués dès qu'on dépasse 7 ou 8 disques.

Ce qui est fascinant, c'est d'observer comment ces modèles oscillent entre deux extrêmes problématiques : ils "réfléchissent trop" sur des problèmes simples, testant des solutions incorrectes même après avoir trouvé la bonne, puis abandonnent prématurément face à des problèmes plus complexes. Cette incohérence dans l'approche de résolution de problèmes est exactement l'inverse de ce que nous enseignons aux développeurs juniors !

Dans mes projets de développement web ou mobile, j'ai constaté ce même phénomène lorsque j'utilise l'IA pour générer du code. Elle peut produire des solutions inutilement complexes pour des problèmes triviaux, tout en échouant à structurer correctement une architecture plus sophistiquée.

La boîte noire : un obstacle à la confiance

Le fonctionnement en "boîte noire" des LLM et LRM constitue un autre problème majeur. Comment faire confiance à un outil dont nous ne comprenons pas réellement le fonctionnement interne ? Dans le développement logiciel, la transparence est cruciale, surtout lorsqu'on travaille sur des projets critiques comme j'ai pu le faire chez Capgemini ou pour des institutions financières.

Plus troublant encore, la révélation que certains modèles comme Claude d'Anthropic peuvent "mentir" sur leur propre processus de réflexion soulève d'importantes questions éthiques. Comment intégrer sereinement ces technologies dans nos workflows professionnels si nous ne pouvons pas nous fier à leur explication de résultats ?

L'IAG : un horizon qui s'éloigne ?

La controverse entre Gary Marcus et Sam Altman d'OpenAI sur la possibilité d'atteindre une véritable Intelligence Artificielle Générale (IAG) avec les technologies actuelles me rappelle les débats similaires dans l'écosystème du développement logiciel.

Après avoir travaillé sur différentes plateformes no-code/low-code comme Webflow, Bubble ou FlutterFlow, j'ai observé que chaque nouvelle technologie arrive avec son lot de promesses révolutionnaires, avant que nous ne découvrions ses limitations inhérentes. L'IA semble suivre ce même cycle.

Si Marcus a raison et que les LLM et LRM actuels se heurtent effectivement à un "mur" en termes de performances et de fiabilité, cela signifie que nous devons repenser fondamentalement notre approche de l'IA, plutôt que d'espérer des améliorations incrémentales.

Vers de nouvelles approches

En tant que développeur, cette situation me rappelle l'importance de la diversité des approches. Dans mes projets, je combine souvent différentes technologies et méthodologies pour obtenir le meilleur résultat. L'avenir de l'IA pourrait suivre un chemin similaire.

Peut-être que la prochaine génération de systèmes intelligents viendra non pas d'une évolution des modèles actuels, mais d'une révolution conceptuelle intégrant des approches hybrides : des systèmes symboliques combinés à l'apprentissage profond, des architectures modulaires, ou des paradigmes entièrement nouveaux.

Conclusion

Les critiques de Gary Marcus nous rappellent l'importance de garder un regard critique sur les technologies émergentes. En tant que professionnels du numérique, nous devons éviter à la fois le scepticisme excessif et l'enthousiasme aveugle face à l'IA.

Pour l'instant, j'utilise les LLM comme des assistants imparfaits plutôt que comme des oracles infaillibles dans mes projets de développement. Cette approche pragmatique me permet de bénéficier de leur puissance tout en compensant leurs limitations par mon expertise humaine.

Et vous, comment intégrez-vous l'IA dans votre travail quotidien ? Avez-vous également observé ces limitations ? Je serais curieux de connaître vos expériences et vos réflexions sur ce sujet fascinant.