L’histoire des technologies n’est pas uniquement une histoire d’innovation. C’est aussi une histoire de standards.

Le marché n’a jamais systématiquement consacré la technologie “la plus avancée”. Il consacre généralement celle qui parvient à fédérer un écosystème, à créer une interopérabilité suffisamment large et à devenir une norme de fait.

Les exemples historiques sont nombreux et mémorables pour ceux qui ont pu les vivre :
PAL contre SECAM ou encore NTSC (acronyme ironiquement détourné en “Never Twice the Same Color” pour illustrer son niveau de qualité 😄), mais aussi VHS contre Betamax, Blu-ray contre HD-DVD ou encore les protocoles réseau qui ont conduit à la domination mondiale de TCP/IP.

L’exemple du Minitel reste d’ailleurs particulièrement intéressant dans ce contexte.

J’ai eu la chance de vivre l’arrivée du Minitel et l’impact qu’il a eu dans les foyers français (souvenirs mémorables 😊). Déployé notamment à Vélizy dans ses premières phases d’expérimentation, il représentait à l’époque une véritable révolution technologique. Pour la première fois, un terminal connecté entrait massivement dans les usages domestiques : consultation d’annuaires, messagerie, services à distance, accès à l’information.

La France possédait alors une avance technologique réelle. Pourtant, cette avance ne s’est jamais transformée en standard mondial. La vision “officielle” est souvent résumée un peu rapidement par  le fait que TCP/IP n’est évidemment pas issu du Minitel. C’est …presque vrai.

Les protocoles TCP/IP émergent dès 1973 dans le cadre des travaux DARPA et ARPANET aux États-Unis, tandis que le Minitel ne sera déployé qu’à partir de 1981. Donc chronologiquement il n’y a pas de débat …sauf que cette lecture mérite tout de même d’être nuancée lorsqu’on sait que les travaux du Français Louis Pouzin autour du projet CYCLADES dès le début des années 1970 a introduit le concept de “datagramme”, principe clé des architectures réseau modernes. Vinton Cerf lui-même, considéré comme l’un des pères du TCP/IP, a d’ailleurs régulièrement reconnu l’influence directe des travaux de Pouzin sur l’émergence des protocoles Internet lors de son passage à la DARPA. Coïncidence ? Je ne crois pas 😄

Le but ici n’est évidemment pas de rouvrir des débats technologiques sans intérêt mais plutôt de rappeler un phénomène récurrent : tout comme dans l’histoire humaine, le temps a tendance à gommer la mémoire collective et à faire oublier certaines erreurs ou certaines contributions majeures, l’histoire du développement technologique subit exactement les mêmes effets.

Si la France a probablement contribué à certaines des briques conceptuelles majeures d’Internet sans jamais réellement transformer cette avance en domination des standards mondiaux et en gain économique tangibles, serait-t-il possible que certaines des réflexions et initiatives mises en place aujourd’hui sur le vieux continent à l’ère de l’IA ne nous profitent pas économiquement autant qu’elles le pourraient ?

Peut-être qu’un excès de vision trop techno-philosophico centrée dilué dans des débats et pas suffisamment d’actions nous nuisent ? Peut-être aussi qu’il existe un manque de recul historique et de parallèles à faire avec des événements passés ?

C’est précisément là que le parallèle avec les protocoles agentiques actuels devient particulièrement intéressant car l’histoire montre finalement que la domination technologique provient rarement uniquement de l’innovation elle-même, mais bien davantage de la capacité à imposer des standards ouverts capables de fédérer durablement un écosystème mondial.

De la guerre des modèles à la guerre des protocoles

Depuis plusieurs années, l’attention du marché se concentre principalement sur les modèles eux-mêmes (GPT, Claude, Gemini, Llama, Mistral ou DeepSeek) mais progressivement, le centre de gravité technologique se déplace.

Le sujet n’est plus uniquement la performance brute du modèle. Il devient la capacité des agents IA à communiquer entre eux, à découvrir dynamiquement des capacités, à collaborer, à orchestrer des traitements distribués et à interagir avec leur environnement de manière standardisée.

Autrement dit, une nouvelle couche d’infrastructure est probablement en train d’émerger.

Les agents existent déjà. Les outils également. APIs, workflows, moteurs RAG, mémoires vectorielles, orchestrateurs ou services spécialisés sont désormais largement disponibles. Mais les échanges restent encore fragmentés, fortement dépendants des plateformes et souvent propriétaires.

Nous sommes probablement dans une phase historique comparable aux débuts des réseaux informatiques avant la standardisation massive autour de TCP/IP.  Je vois dans beaucoup d’articles le rapprochement entre TCP/IP et ces nouveaux protocoles d’agents. C’est vrai même si cela reste simpliste quand on sait que TCP/IP n’a pas suffi à lui seul à construire le Web moderne. DNS, HTTP, SMTP ou encore TLS entre autres ont progressivement constitué un ensemble cohérent de couches spécialisées. Les systèmes agentiques suivront nécessairement une trajectoire similaire.

C’est précisément dans ce contexte qu’apparaissent les premiers protocoles d’intercommunication agentique.

MCP : standardiser l’accès aux capacités

Le MCP, ou Model Context Protocol, porté principalement par Anthropic, est aujourd’hui le protocole le plus médiatisé. Son objectif est relativement clair : standardiser la manière dont un agent découvre des outils, récupère du contexte ou interagit avec des systèmes externes. MCP agit finalement comme une couche commune d’exposition de capacités. Le parallèle avec les architectures réseau est immédiat. Une API devient une capacité exposée et un outil devient un service agentique. Et MCP agit ainsi comme une interface commune permettant aux agents de dialoguer avec leur environnement de manière standardisée.

La force du MCP réside principalement dans sa simplicité d’intégration et dans sa dynamique d’adoption rapide. Il répond surtout à un problème immédiat et très concret : connecter rapidement des modèles comme Claude ou d’autres agents à des systèmes existants (GitHub, Google Drive, Slack, bases documentaires ou APIs internes,…) sans devoir réécrire une couche d’intégration spécifique à chaque fois. C’est probablement l’une des raisons majeures expliquant sa vitesse d’adoption actuelle.

En revanche, son périmètre reste aujourd’hui essentiellement centré sur la relation entre un agent et des outils externes. Le protocole traite encore relativement peu les problématiques plus complexes de coordination autonome entre agents multiples.

A2A : lorsque les agents commencent à collaborer

C’est sur ce terrain que Google pousse désormais une autre approche avec A2A, pour Agent-to-Agent. Ici, le sujet n’est plus uniquement l’accès aux outils mais la communication directe entre agents autonomes.

Les agents deviennent capables de se découvrir, de déléguer des tâches, de collaborer et donc de coordonner des traitements distribués.  Le parallèle avec les architectures modernes de microservices est frappant. Nous retrouvons progressivement des problématiques proches du service discovery, du service mesh, de l’orchestration distribuée ou encore des systèmes autonomes collaboratifs.

Conceptuellement, A2A est probablement plus ambitieux que MCP. Mais cette ambition apporte aussi une complexité nettement supérieure. Dès lors que des agents commencent à dialoguer et à coopérer entre eux, apparaissent immédiatement des problématiques de sécurité, d’identité, de confiance, de gouvernance ou de contrôle des comportements émergents.

ACP : la gouvernance et la formalisation des échanges

ACP, ou Agent Communication Protocol, adopte une approche encore différente. Porté notamment par IBM et inspiré historiquement des anciens travaux académiques sur les systèmes multi-agents, ACP s’inscrit davantage dans une logique de formalisation des échanges.

On y retrouve des concepts hérités des architectures historiques des années 1990-2000 (intentions, négociation, contrats, coordination…) L’approche donc est plus structurée, plus rigoureuse conceptuellement et souvent plus orientée pour répondre aux besoins des entreprise, de conformité, d’auditabilité et de gouvernance.

Ces protocoles ne doivent pas être vus comme des concurrents frontaux car MCP et A2A pourraient parfaitement devenir complémentaires. MCP pourrait demain servir de couche standardisée d’accès aux capacités et aux outils, tandis qu’A2A définirait les mécanismes de collaboration entre agents autonomes. En d’autres termes, nous ne sommes peut-être pas face à un unique futur standard dominant, mais plutôt face à la construction progressive d’une véritable pile protocolaire agentique. Peut-on même se risque à faire le parallèle avec le modèle OSI des couche protocoles réseau : Exactement comme les réseaux informatiques ont progressivement structuré leurs mécanismes d’interopérabilité au travers de couches protocolaires normalisées, les systèmes agentiques pourraient demain suivre une trajectoire similaire.

Une guerre des standards déjà engagée

Ce qui se joue actuellement dépasse largement le simple cadre technique. Celui qui imposera demain ses protocoles, ses conventions d’interopérabilité, ses mécanismes d’orchestration et ses modèles de collaboration entre agents pourrait structurer une partie significative de l’écosystème agentique mondial.

C’est comme cela que TCP/IP a structuré Internet, qu’AWS a structuré le cloud moderne ou que les standards du Web ont structuré l’économie numérique.

C’est probablement ici que l’Europe apparaît aujourd’hui particulièrement en retrait, même si ce constat mérite évidemment d’être nuancé. L’Europe est effectivement arrivée tardivement sur plusieurs couches stratégiques du numérique, avec parfois des conséquences importantes en matière de souveraineté technologique et économique. Les exemples sont nombreux.

Le cloud en est probablement l’exemple le plus visible. Cette dépendance s’est progressivement traduite par une perte de maîtrise de certaines infrastructures critiques et par de longs débats autour du Data Act, de l’extraterritorialité des données ou encore de la dépendance aux hyperscalers américains.

Le sujet des infrastructures GPU illustre également certaines occasions manquées. Lorsque l’on regarde rétrospectivement l’histoire industrielle européenne, on peut difficilement ne pas penser à STMicroelectronics. Le groupe possédait de solides compétences sur certaines architectures embarquées et processeurs graphiques, notamment au travers de ses activités historiques autour des Set Top Box (décodeurs vidéo) avant leur abandon vers 2014. Avec le recul, on peut légitimement se demander si une partie de ces compétences n’aurait pas pu être davantage capitalisée pour adresser des marchés devenus aujourd’hui stratégiques comme l’IA embarquée, le calcul parallèle ou encore la voiture autonome.

Sur l’intelligence artificielle elle-même, l’Europe a également laissé passer une partie de la vague des grands modèles. Il faut toutefois fortement nuancer ce constat avec l’émergence de Mistral AI, qui constitue probablement aujourd’hui l’initiative européenne la plus crédible sur les modèles génératifs et qui démontre que le continent conserve encore une capacité réelle d’innovation technologique de haut niveau.

Mais la prochaine bataille semble progressivement se déplacer vers une autre couche : celle des protocoles, des standards d’intercommunication et des mécanismes d’orchestration des agents.

Et sur ce terrain, les initiatives structurantes restent aujourd’hui principalement américaines. Anthropic pousse MCP. Google pousse A2A. IBM pousse ACP. La Linux Foundation commence déjà à structurer la gouvernance de ces futurs standards au travers de fondations dédiées aux systèmes agentiques.

Le contexte est différent de celui des années 1990. Les standards émergents sont largement open source et leur adoption dépend beaucoup plus des communautés de développeurs et des écosystèmes que de décisions étatiques centralisées. Le véritable enjeu n’est peut-être pas de créer un hypothétique “MCP européen”, mais de s’assurer que les protocoles dominants restent ouverts, neutres et interopérables.

L’Europe tente également d’imposer une autre forme de standardisation : celle de la gouvernance et de la confiance. Là où les États-Unis dominent principalement les couches techniques, l’Europe cherche à structurer les usages via la régulation, notamment au travers de l’AI Act.

Cette approche est souvent critiquée comme un frein à l’innovation. Mais elle pourrait aussi devenir, à terme, un levier stratégique si les problématiques de sécurité, d’auditabilité et de gouvernance deviennent centrales dans les futurs systèmes multi-agents.

Conclusion

La focalisation actuelle du marché sur la puissance brute des modèles masque probablement une évolution beaucoup plus profonde de l’écosystème IA.

La guerre des “grands modèles universels” n’est déjà plus réellement le seul sujet stratégique.

Les coûts d’entraînement, d’inférence et les montants colossaux investis par les grands acteurs montrent progressivement les limites économiques du modèle et d’une approche reposant uniquement sur toujours plus de taille et de puissance centralisée.

Les discussions autour des levées de fonds massives d’OpenAI, évoquant désormais des besoins financiers dépassant des investissements raisonnablement supportables, même à l’échelle d’un pays, illustrent justement cette tension structurelle du modèle économique actuel.

Le marché semble progressivement comprendre que la valeur ne résidera peut-être plus uniquement dans le modèle lui-même mais pourrait se déplacer vers l’orchestration, l’interopérabilité, les protocoles et la capacité des systèmes à collaborer intelligemment.

Cette évolution rejoint d’ailleurs certaines visions portées par les grands acteurs eux-mêmes.

Meta, via Zuckerberg, pousse fortement l’open source avec Llama afin de commoditiser progressivement les modèles et déplacer la valeur vers les plateformes, les usages et les écosystèmes.

Elon Musk critique régulièrement les risques de concentration autour des grands modèles fermés et souligne les limites économiques et sociétales d’une course exclusivement centrée sur l’AGI centralisée.

Même Google commence progressivement à déplacer le débat vers les contraintes d’infrastructure, d’énergie et d’orchestration plutôt que vers la seule course aux benchmarks.

L’avenir paraît alors davantage s’orienter vers des architectures composées d’agents spécialisés plus petits, distribués et orchestrés dynamiquement. Ces agents seront capables de collaborer au travers de couches de protocoles standardisées. Le parallèle avec les architectures réseau est évident : Aujourd’hui, un système informatique peut remplacer dynamiquement un serveur, un routeur, un service, un équipement réseau qui sont devenus des commodités ! Tout cela est possible sans remettre en cause l’ensemble de l’infrastructure, précisément parce que des couches de protocoles standardisées assurent l’interopérabilité globale des systèmes. Les systèmes agentiques semblent progressivement suivre une trajectoire similaire. Demain, une architecture IA pourrait remplacer dynamiquement un agent de classification, un moteur RAG, un modèle d’extraction documentaire, un agent de raisonnement spécialisé par un autre plus performant, moins coûteux ou plus adapté à un usage donné, sans devoir reconstruire l’ensemble du système.

C’est cette approche architecturale que je pousse d’ailleurs au travers de Lursia avec une approche hybride entre des composants faisant usage d’algorithmie classique et d’autres utilisant la puissance agentique.

Et c’est probablement ici que les protocoles deviennent plus importants encore que les agents eux-mêmes. Car historiquement, les standards ont souvent davantage structuré les marchés que les technologies isolées : TCP/IP a davantage façonné Internet que les machines elles-mêmes, HTTP a davantage structuré le Web que les navigateurs,et les standards cloud ont profondément conditionné l’économie numérique moderne.

Personnellement, je pense que nous sommes probablement à un moment charnière de l’histoire de l’IA.

Pendant plusieurs années, le débat s’est concentré presque exclusivement sur : la taille des modèles, la puissance de calcul, la course aux benchmarks, la course aux nombres de paramètres d’un LLM tout comme on assistait à la course des tailles mémoire et des fréquences CPU à une époque. Mais l’évolution actuelle des architectures agentiques montre progressivement que la véritable valeur pourrait demain se déplacer vers l’orchestration, l’interopérabilité et la capacité des systèmes à collaborer intelligemment au travers de standards ouverts.

Pour aller plus loin sur cette réflexion, une analyse particulièrement intéressante compare justement les différents protocoles émergents d’interopérabilité agentique : A Survey of Agent Interoperability Protocols

Il est certain que nous assistions non pas simplement à l’émergence de nouveaux outils IA, mais à la naissance progressive d’une véritable infrastructure cognitive distribuée mondiale.