
82 % des responsables IT jugent le prompt engineering insuffisant. Voici comment le context engineering transforme des pipelines entiers en un seul skill réutilisable.
Karpathy, Lutke, Ng et le virage context engineering de 2025-2026
En juin 2025, Tobi Lutke (CEO de Shopify) publie un post sur X qui nomme pour la première fois ce que les praticiens faisaient déjà sans le formaliser : le context engineering. Andrej Karpathy amplifie une semaine plus tard avec une définition qui circule largement :
« Context engineering is the delicate art and science of filling the context window with just the right information for the next step. »
Andrew Ng complète le tableau en 2026 : les utilisateurs avancés donnent à l'IA des documents, du contexte métier, de la mémoire, et lui demandent de réfléchir plus longtemps sur les décisions importantes. La formulation parfaite du prompt a cédé la place à l'architecture du système autour du modèle.
Le prompt engineering traitait l'IA comme un moteur de recherche amélioré. Une bonne question, une bonne réponse. Le context engineering traite l'IA comme un collaborateur qui reçoit le bon rôle, les bonnes données, la bonne mémoire et les bons outils avant de commencer à travailler.
82 % des responsables IT jugent le prompt engineering insuffisant à grande échelle
Selon le rapport State of Context Management de DataHub (2026), 82 % des responsables IT considèrent que le prompt engineering seul ne suffit plus à grande échelle. 89 % des équipes interrogées prévoient d'investir dans une infrastructure de gestion de contexte.
Ce chiffre confirme ce qu'on observe sur le terrain : les entreprises qui tirent de la valeur de l'IA ne tapent plus des prompts dans une boîte de dialogue. Elles construisent des systèmes de contexte complets, avec mémoire, outils connectés et instructions structurées.
Comment un system prompt de 500 lignes remplace des dizaines de prompts manuels
Dns le cas de HaitiBrand, le context engineering structure l'ensemble du travail depuis fin 2024. La première couche est le system prompt structuré.
Chaque tâche commence avec un fichier de configuration qui définit les rôles, les contraintes, les données et les formats de sortie. Le nôtre fait plus de 500 lignes. Il contient les règles de ton, les gates de qualité, les contacts, les protocoles d'envoi et les comportements interdits.
Le modèle reçoit un environnement complet avant de produire quoi que ce soit. Qui est le destinataire, quel registre linguistique utiliser, quelles erreurs ont été commises dans le passé sur ce type de tâche, quels outils appeler. Cette couche élimine la répétition : on ne réexplique plus le contexte à chaque session.
Un pipeline de reporting client construit sans outil tiers payant
Voici un cas concret. On avait besoin de générer des rapports de performance sur les réseaux sociaux pour nos clients. Le marché propose des dizaines d'outils de reporting : Sprout Social, Agorapulse, des extracteurs de données payants. Chacun avec son abonnement mensuel et ses limites d'export.
On a pris un autre chemin. On a construit une Meta App en interne (gratuite, accès direct à l'API officielle d'Instagram) et on a écrit un skill qui orchestre tout le pipeline :
L'Instagram Graph API extrait les données de performance directement depuis le compte : impressions, portée, engagement, commentaires
Les données passent dans un template JSON structuré qui formate le rapport automatiquement
Le système génère un PDF prêt à envoyer
Un email avec le rapport en pièce jointe part au destinataire depuis le bon expéditeur, avec la bonne signature
Un skill, quatre étapes. Un rapport qui prenait deux à trois heures de travail manuel (collecte dans les dashboards, mise en forme, envoi par email) se déclenche maintenant avec un mot-clé.
On fait ça en interne, et on le fait pour des clients. Le même pipeline, configuré une fois, réutilisé à chaque cycle de reporting. C'est ça, le context engineering appliqué : on n'a pas demandé à l'IA « fais-moi un rapport ». On a construit le système qui sait comment produire le rapport, avec quelles données, dans quel format, pour quel destinataire.
Comment l'intégration Metricool automatise la publication sur cinq plateformes
Deuxième cas. On gère la publication sur les réseaux sociaux pour HaitiBrand et pour des clients. Programmer un post sur cinq plateformes différentes, c'est une opération qui demande de connaître les horaires optimaux par réseau, les formats qui performent, les contraintes de chaque algorithme.
On a connecté Metricool directement au système via un serveur MCP dédié. Le résultat : le système connaît les créneaux optimaux pour chaque plateforme parce qu'on les a encodés dans un skill, basés sur les données de performance réelles. Quand l'équipe créative termine un visuel, la programmation se fait en une commande. Le bon format, le bon horaire, les bonnes plateformes, le bon texte adapté à chaque réseau.
Ce qui rend ce cas intéressant pour le context engineering, c'est la couche de mémoire persistante. 153 fichiers stockent les leçons apprises, les préférences par plateforme, les corrections accumulées au fil des mois et les patterns de performance par type de contenu. Quand on publie sur LinkedIn au créneau qui génère le plus d'engagement pour notre audience, ce n'est pas une intuition. C'est une donnée encodée dans la mémoire du système, mise à jour à chaque cycle d'analyse.
Le meta-prompting entre en jeu ici. Certains skills sont conçus pour améliorer d'autres skills. Le système analyse ses propres résultats et ajuste ses instructions. Un post qui sous-performe déclenche une correction qui persiste dans la mémoire. La prochaine exécution du même skill intègre cette correction automatiquement.
C'est la différence entre un outil qu'on utilise et un système qui apprend.
Ce que les praticiens du context engineering appliquent dès maintenant
Le prompt engineering demande de bien formuler sa question. Le context engineering demande de construire le système qui rend la question presque inutile, parce que le contexte est déjà là.
Pour les professionnels qui veulent faire la transition, quatre changements concrets :
Passer de la question unique au contexte structuré : donner à l'IA le rôle, les données et les contraintes avant de poser la question
Transformer les prompts récurrents en fichiers réutilisables, un skill qu'on déclenche au lieu de réécrire
Encoder les corrections pour qu'elles persistent d'une session à l'autre ; la mémoire remplace la répétition
Connecter les outils métier directement au système IA (CRM, email, facturation, gestion de contenu) pour que le contexte circule sans copier-coller
Les entreprises qui font ce virage maintenant construisent un avantage cumulatif. Chaque skill créé, chaque erreur encodée, chaque outil connecté, chaque cycle d'analyse complété rend le système plus performant. Ce capital s'accumule, et il ne se copie pas facilement.
Sources :
Andrej Karpathy sur X, 25 juin 2025
Tobi Lutke sur X, 18 juin 2025
Andrew Ng sur LinkedIn, « How we prompt AI is very different in 2026 »
DataHub, State of Context Management Report, 2026
LangChain, « Context Engineering for Agents »
Trending Post
Share and educate your network
Stay up-to-date













