TL;DR
- ChatGPT (nov. 2022) a tout déclenché, mais ce n'était que le début
- 2023 : la course aux LLM explose, les devs commencent a builder dessus (RAG, LangChain, vector databases)
- 2024 : fenêtres de contexte massives, reasoning models, et MCP -- l'IA devient un outil sérieux
- 2025 : les agents arrivent, l'IA passe de "répondre" à "faire le travail"
- 2026 : le fossé entre devs qui utilisent l'IA et les autres est devenu un canyon
Le réveil brutal
Novembre 2022. ChatGPT sort. Je suis dev Java/React depuis des années. Je teste, je trouve ça impressionnant, je montre à deux-trois collègues, et puis... je passe à autre chose. J'ai du code à livrer, un sprint à finir, un backlog qui déborde.
Erreur.
En trois ans, le monde a changé sous mes pieds. Pendant que je faisais mes tickets Jira, l'IA est passée d'un gadget rigolo à un outil qui écrit du code, raisonne sur des architectures, et pilote des workflows entiers. Et moi, je me suis réveillé début 2026 en réalisant que j'avais raté le train.
Cet article, c'est la frise chronologique que j'aurais aimé avoir quand j'ai décidé de rattraper mon retard. Pas un cours magistral. Juste un dev qui a reconstitué le puzzle, morceau par morceau.
2022 -- Le Big Bang
Deux événements ont tout changé cette année-là.
Août 2022 : Stable Diffusion. Un modèle open source de génération d'images qui tourne sur un GPU grand public. Du jour au lendemain, n'importe qui peut générer des images à partir de texte. Les artistes paniquent. Les devs trouvent ça fun. Mais ça reste de l'image, pas notre territoire.
Novembre 2022 : ChatGPT. OpenAI lâche GPT-3.5 avec une interface de chat. La différence avec tout ce qui existait avant ? RLHF (Reinforcement Learning from Human Feedback). Le modèle ne se contente pas de prédire le prochain mot -- il a été entraîné pour répondre de manière utile. C'est ça qui a tout changé. Pas la taille du modèle, pas la puissance de calcul. Le fait qu'il soit enfin utilisable par des humains normaux.
100 millions d'utilisateurs en deux mois. Aucun produit dans l'histoire n'avait atteint ce chiffre aussi vite.
Le moment clé : ChatGPT n'était pas le meilleur modèle de langage. C'était le premier modèle de langage que ta mère pouvait utiliser.
2023 -- La course aux armements
2023, c'est l'année où tout le monde s'est réveillé en même temps.
Mars : GPT-4 débarque. Multimodal (il comprend les images), nettement plus intelligent que GPT-3.5, et surtout : il peut passer des examens de droit et de médecine. On n'est plus dans le gadget. Les entreprises commencent à prendre ça au sérieux.
Mars aussi : Claude entre dans la course. Anthropic, fondée par des ex-OpenAI, lance son propre LLM. La concurrence s'installe. C'est bon pour tout le monde.
Juillet : Llama 2. Meta open source un modèle de 70 milliards de paramètres. C'est un tremblement de terre. Avant ça, les LLM performants étaient derrière des API payantes. Maintenant, n'importe qui peut faire tourner un modèle sur ses propres serveurs. Le mouvement open source en IA est lancé pour de bon.
Côté dev, c'est l'explosion. LangChain débarque et permet de chaîner des appels LLM avec des sources de données. Le concept de RAG (Retrieval-Augmented Generation) se répand : au lieu de tout mettre dans le prompt, on va chercher l'info dans une base de données vectorielle (Pinecone, Weaviate, Chroma) et on l'injecte au moment de la requête. Les embeddings deviennent un mot qu'on entend dans toutes les réunions tech.
C'est l'année où les devs sont passés de "j'utilise ChatGPT pour écrire des emails" à "je construis des applications par-dessus des LLM". Le shift est énorme.
2024 -- L'année de la maturité
Si 2023 était la course, 2024 c'est l'année où les choses ont commencé à devenir sérieuses.
Février : Gemini 1.5 de Google. Fenêtre de contexte de 1 million de tokens. Pour donner une idée, c'est l'équivalent d'un livre entier qu'on peut passer au modèle en une seule requête. Ça change fondamentalement ce qu'on peut faire : analyser un codebase complet, résumer un rapport de 500 pages, comparer des documents légaux. La contrainte du "context window trop petit" commence à disparaître.
Mars : Claude 3. Anthropic lance trois modèles (Haiku, Sonnet, Opus) avec des niveaux de prix et de performance différents. L'idée de choisir le bon modèle pour le bon use case se généralise. On ne prend plus le "meilleur modèle" par défaut -- on prend celui qui a le bon ratio coût/performance.
Mai : GPT-4o. Le "o" pour "omni". Texte, audio, image, vidéo -- tout dans un seul modèle. La démo où GPT-4o réagit en temps réel à une conversation vocale marque les esprits. L'IA devient multimodale pour de vrai, pas juste sur le papier.
Juin : Apple Intelligence. Apple intègre l'IA dans iOS, macOS et Siri. Quand Apple bouge, ça veut dire que la tech est mainstream. C'est terminé, l'IA n'est plus un truc de niche.
Juillet : Llama 3.1 405B. Meta lâche un modèle de 405 milliards de paramètres en open source. Les performances rivalisent avec les modèles propriétaires. L'open source est devenu un vrai concurrent.
Septembre : OpenAI o1. C'est le tournant que beaucoup n'ont pas vu venir. o1 introduit le chain-of-thought reasoning : le modèle "réfléchit" avant de répondre. Il décompose les problèmes complexes en étapes. Sur les benchmarks de maths et de code, il pulvérise tout ce qui existait. C'est le début des reasoning models.
Novembre : MCP (Model Context Protocol). Anthropic publie un protocole ouvert pour connecter les LLM à des outils externes. Pensez-y comme l'USB de l'IA : un standard pour brancher n'importe quel outil (base de données, API, système de fichiers) à n'importe quel modèle. Ça n'a pas fait les gros titres, mais c'est un des développements les plus importants de l'année.
Le signal fort de 2024 : ce n'était plus une question de "est-ce que l'IA va changer le dev ?". C'était "à quelle vitesse ça va changer".
2025 -- L'ère des agents
2025 est l'année où l'IA a arrêté de répondre à des questions pour commencer à faire le travail.
Janvier : DeepSeek R1. Un modèle de reasoning open source sorti de Chine qui rivalise avec o1 d'OpenAI. Le monde découvre que la course à l'IA n'est pas un monopole américain. DeepSeek prouve aussi qu'on peut entraîner des modèles performants avec des budgets plus raisonnables.
Premier semestre : les coding agents explosent. Claude Code, Cursor, GitHub Copilot Workspace, Windsurf... On passe d'une IA qui suggère des lignes de code à une IA qui peut :
- Naviguer dans un codebase
- Comprendre le contexte d'un projet
- Faire des modifications sur plusieurs fichiers
- Lancer des tests et corriger les erreurs
En tant que dev Java/React, c'est là que j'ai vraiment compris que le métier allait changer. Pas disparaître. Changer.
MCP se généralise. Le protocole d'Anthropic commence à être adopté massivement. Des centaines de serveurs MCP apparaissent. Les LLM peuvent maintenant interagir avec Git, les bases de données, les navigateurs, les systèmes de fichiers, les API... Le modèle n'est plus isolé dans sa bulle.
Deuxième semestre : les agents en production. Les entreprises commencent à déployer des agents IA qui gèrent des workflows complets : support client, analyse de données, CI/CD, documentation. Ce n'est plus du prototypage. C'est de la production.
Décembre : le point d'inflexion. Opus 4.5 d'Anthropic, Gemini 3 de Google, GPT-5.2 d'OpenAI -- trois modèles majeurs sortent en quelques semaines. Les capacités de reasoning, de code, et d'utilisation d'outils font un bond en avant. Les small models (Haiku, Gemini Flash) deviennent suffisamment bons pour des tâches quotidiennes à un coût dérisoire.
2026 -- Où on en est
On est en mars 2026. Voilà ce que je vois.
Les agents IA ne sont plus une curiosité. Ils sont en production, dans des vraies équipes, sur des vrais projets. MCP est devenu un standard de facto. Les modèles sont plus rapides, moins chers, et plus fiables. Le fine-tuning est accessible. Les small models tournent en local sur des laptops.
Le fossé entre un dev qui utilise l'IA et un dev qui ne l'utilise pas est devenu un canyon. Ce n'est pas une question de talent ou d'intelligence. C'est une question d'outillage. Un dev avec un agent bien configuré fait en une heure ce qui prenait une journée. Review de code, refactoring, écriture de tests, documentation, debugging -- tout est accéléré.
Et on n'est qu'au début. Les agents multi-étapes, l'orchestration de workflows complexes, l'IA qui comprend le contexte métier d'un projet... tout ça arrive. Vite.
Ce qu'il faut retenir
Si tu es dev et que tu te sens largué, c'est normal. En trois ans, on est passé d'un chatbot qui fait des blagues à des agents qui pilotent des pipelines CI/CD. Personne ne pouvait absorber tout ça en temps réel.
La bonne nouvelle : tout ce qui s'est passé suit une logique. Les LLM sont devenus plus gros, puis plus intelligents (reasoning), puis connectés au monde réel (MCP, tools), puis autonomes (agents). Chaque étape a construit sur la précédente.
Et cette logique, on va la décortiquer dans les prochains articles de cette série.
Ressources
- Attention Is All You Need — le paper fondateur des Transformers (2017)
- State of AI Report — rapport annuel sur l'état de l'IA
- AI Timeline - Dentro de AI — frise interactive des événements IA
- WTF Happened in 2025 — rétrospective de l'année charnière
Cet article est le premier d'une série "Comprendre l'IA en 2026". L'objectif : donner à des développeurs expérimentés les bases pour comprendre, utiliser et construire avec l'IA. Sans bullshit, sans marketing, juste ce qu'il faut savoir.
Pour aller plus loin : si tu veux comprendre ce qui se passe sous le capot des LLM, j'ai écrit un article dédié sur l'architecture Transformer.
Prochain article : RAG, MCP, function calling — le kit du dev en 2026 -- les patterns concrets pour intégrer les LLM dans ton code.