Model Context Protocol : un guide complet sur son fonctionnement et comment OpenAPI l'utilise pour des API encore plus accessibles.
Le Model Context Protocol (MCP) est la nouvelle tendance dans le monde de la tech — et pas seulement. Tout le monde en parle : il apparaît dans les dépôts GitHub, les vidéos YouTube et devient un sujet central lors de nombreux événements. Mais qu’est-ce que le MCP exactement, et pourquoi pourrait-il vraiment révolutionner le secteur de l’intelligence artificielle ?
Le Model Context Protocol est un protocole open-source et open standard lancé par Anthropic en novembre 2024, une entreprise de référence dans le domaine de l’IA et concurrente directe d’OpenAI, connue pour ses modèles LLM appelés Claude.
Le sujet MCP a toutefois explosé seulement quelques mois plus tard, début 2025, avec l’attention croissante portée aux agents IA et les déclarations de dirigeants tech de renom comme Sam Altman ou Sundar Pichai sur leur utilisation du protocole.
MCP est né pour résoudre un problème très concret : améliorer la qualité et la pertinence des réponses générées par les grands modèles de langage (LLM), souvent victimes d’un manque de contexte et sujettes à des erreurs ou incohérences (appelées hallucinations).
Le protocole MCP définit une norme universelle permettant aux applications de fournir du contexte aux LLM, facilitant la communication entre les modèles, les applications basées sur l’IA, les écosystèmes de données, les outils métiers et les environnements de développement. Pour cette raison, MCP est souvent comparé à l’USB-C de l’IA.
Comme mentionné, MCP est une norme qui permet aux développeurs de créer des connexions entre sources de données et outils IA. Ces outils peuvent exposer leurs données via des serveurs MCP ou créer des applications IA (clients MCP) capables de se connecter à ces serveurs.
MCP repose sur une architecture client-serveur simple et modulaire :
Le serveur MCP peut accéder en toute sécurité à des fichiers, bases de données ou services en ligne (comme GitHub ou des API externes), et transmettre ces informations dans un format standardisé au client MCP, qui les envoie au LLM pour enrichir le contexte et améliorer la réponse.
Avant le MCP, chaque application ou modèle IA devait intégrer chaque source de données ou outil séparément, ce qui représentait un vrai défi d’intégration de type “M×N” (M étant les applications, N les sources). Le MCP simplifie radicalement ce modèle en le transformant en “M+N”, rendant le développement bien plus efficace.
Les développeurs n’auront plus besoin de créer des interfaces spécifiques pour chaque modèle ou source : ils pourront développer des agents et des workflows à un niveau supérieur. Changer de modèle IA ou d’outil deviendra beaucoup plus simple, sans réécriture de code ni dépendance à un fournisseur spécifique.
MCP et les API REST peuvent sembler similaires, car tous deux permettent d’interroger des services externes. Mais ils fonctionnent de manière très différente.
Une des grandes différences concerne la façon dont les requêtes sont effectuées et les réponses traitées. Une API REST fonctionne avec des endpoints, des paramètres précis et une réponse structurée, sans possibilité d’interprétation par l’IA.
Le MCP, lui, permet des requêtes via des prompts en langage naturel, tout en fournissant un contexte supplémentaire aux LLM, leur permettant de déterminer quand et pourquoi utiliser un outil, dans une logique orientée objectifs.
Autre différence fondamentale : le MCP est orienté session, ce qui permet aux agents IA de maintenir des dialogues continus et riches en contexte avec les services de backend.
Contrairement aux API REST stateless, MCP gère :
Cependant, comme mentionné, les API peuvent être une composante des outils accessibles via un serveur MCP. Par exemple, lorsqu’un LLM choisit un outil, cela peut impliquer une requête API et la transmission de la réponse à l’IA.
L’adoption du MCP ouvre des opportunités immenses, même en dehors des domaines strictement techniques.
Les développeurs peuvent, par exemple, utiliser des agents IA pour relire ou écrire du code, accéder à des plateformes comme GitHub, détecter des erreurs, déboguer ou automatiser des tâches répétitives.
Mais le potentiel du MCP va bien plus loin : il pourra aussi être utilisé pour la rédaction de contenus techniques, la gestion du support client, ou encore l’accès à des bases documentaires.
Ces dernières semaines, plusieurs entreprises ont annoncé l’intégration du MCP :
Nous sommes heureux d’annoncer une évolution importante chez Openapi : notre équipe technique travaille actuellement à la création d’un serveur Openapi basé sur le Model Context Protocol (MCP), l’une des technologies les plus innovantes dans le domaine de l’IA appliquée aux API.
Grâce à cette nouvelle infrastructure, les applications IA pourront interagir en temps réel avec notre bibliothèque d’API, en effectuant des requêtes complexes de manière naturelle, contextuelle et automatisée. Cela signifie qu’il sera possible de :
Le serveur MCP d’Openapi ouvrira la voie à de nouveaux scénarios d’utilisation de nos API, simplifiant leur intégration dans des systèmes IA et accélérant les processus de développement, de test et d’automatisation.
Nous partagerons bientôt plus de détails sur la date de lancement, la documentation technique et les premières intégrations disponibles.