Intelligence artificielle

MCP (Model Context Protocol) : connecter l'IA à vos outils

Connexions réseau symbolisant le Model Context Protocol

Le Model Context Protocol — MCP pour les intimes — est probablement l'innovation la plus sous-estimée de l'écosystème IA en 2025-2026. Pendant que tout le monde débat sur le prochain modèle qui battra GPT-4 sur tel benchmark, Anthropic a discrètement posé les fondations d'un standard ouvert qui résout un problème bien plus concret : comment permettre à un LLM d'utiliser vos outils, vos données et vos systèmes de manière standardisée ?

Le problème que MCP résout

Imaginez que vous voulez connecter Claude à votre base de données, votre CRM, votre outil de gestion de projet et votre messagerie. Avant MCP, chaque intégration nécessitait un développement spécifique. Vous écriviez du code pour transformer les données de votre CRM en un format compréhensible par le LLM, un autre bout de code pour permettre au LLM d'exécuter des actions dans votre outil de projet, etc. Multipliez par le nombre d'outils et le nombre de modèles, et vous obtenez un plat de spaghetti ingérable.

C'est exactement le problème qu'avait le monde des périphériques informatiques avant l'USB. Chaque imprimante avait son propre connecteur, chaque souris son propre port. L'USB a standardisé tout ça. MCP fait la même chose pour l'IA : un protocole unique pour connecter n'importe quel LLM à n'importe quel outil.

Architecture MCP : client, serveur, protocole

Le MCP repose sur une architecture client-serveur assez classique, mais appliquée au contexte de l'IA.

Le MCP Host (l'application)

C'est l'application dans laquelle tourne le LLM : Claude Desktop, un IDE comme Cursor, ou votre application personnalisée. Le Host héberge un ou plusieurs MCP Clients.

Le MCP Client

Le Client maintient une connexion 1:1 avec un MCP Server. Il traduit les requêtes du LLM en appels de protocole et renvoie les résultats au modèle. Concrètement, quand Claude dit "je vais chercher les fichiers sur le serveur FTP", c'est le MCP Client qui transforme cette intention en appel technique.

Le MCP Server

Le Server expose des capabilities — des outils que le LLM peut utiliser. Un MCP Server pour Google Drive expose des outils comme "list_files", "read_file", "create_file". Un MCP Server pour Slack expose "send_message", "list_channels", "search_messages". Le Server peut tourner en local (process séparé sur votre machine) ou en remote (serveur cloud accessible via HTTP).

Les trois types de capabilities

MCP définit trois types de choses qu'un serveur peut exposer :

Tools (outils) : des fonctions que le LLM peut appeler. Exemples : envoyer un email, créer un fichier, requêter une API. Le LLM décide quand et comment les utiliser.

Resources (ressources) : des données que le LLM peut lire. Exemples : le contenu d'un document, les résultats d'une requête SQL, un flux de données en temps réel. Les resources sont plus passives que les tools — elles fournissent du contexte.

Prompts (modèles de prompts) : des templates réutilisables que le serveur propose pour interagir efficacement avec ses capabilities. C'est comme fournir un mode d'emploi avec l'outil.

MCP en pratique : un exemple concret

Prenons un cas réel. Vous êtes développeur, et vous voulez que Claude puisse interagir avec votre base de données PostgreSQL. Voici ce qui se passe avec MCP :

Étape 1 : Vous installez (ou codez) un MCP Server PostgreSQL. Ce serveur expose des tools comme "run_query", "list_tables", "describe_table", et des resources comme le schéma de la base.

Étape 2 : Vous configurez votre MCP Client (dans Claude Desktop ou votre app) pour se connecter à ce serveur. Un fichier JSON de config suffit — pas de code à écrire côté client.

Étape 3 : Quand vous demandez à Claude "montre-moi les 10 derniers clients inscrits", Claude voit qu'il a accès aux tools PostgreSQL, utilise "list_tables" pour comprendre le schéma, puis "run_query" pour exécuter un SELECT. Tout est transparent.

L'élégance du système, c'est que le même MCP Server PostgreSQL fonctionne avec Claude, GPT-4, Mistral ou n'importe quel autre modèle compatible MCP. Écrire une fois, utiliser partout.

L'écosystème MCP en 2026

Depuis le lancement du protocole par Anthropic fin 2024, l'écosystème a explosé. On recense en avril 2026 plus de 500 MCP Servers disponibles, couvrant pratiquement tous les outils populaires.

CatégorieMCP Servers disponiblesExemples
Bases de données30+PostgreSQL, MySQL, MongoDB, Supabase, Redis
Fichiers et stockage20+Google Drive, Dropbox, S3, FTP, système local
Communication25+Slack, Gmail, Outlook, Discord, SMTP
Dev tools40+GitHub, GitLab, Jira, Linear, Sentry
Analytics15+Google Analytics, Search Console, Mixpanel
CRM et business20+HubSpot, Salesforce, Stripe, Notion
Web15+Puppeteer, Firecrawl, Brave Search

La communauté open source est très active. La plupart des servers sont sur GitHub, et la qualité s'est considérablement améliorée depuis les premiers mois. Des registres comme mcp.so et Smithery facilitent la découverte et l'installation.

MCP vs function calling : quelle différence ?

Si vous avez déjà utilisé le function calling d'OpenAI ou d'Anthropic, vous vous demandez peut-être ce que MCP apporte de plus. C'est une question légitime.

Le function calling est intégré dans l'API du modèle. Vous définissez des fonctions dans votre code, le modèle décide quand les appeler, et vous exécutez l'appel dans votre application. C'est efficace, mais ça crée un couplage fort entre votre code et le modèle.

MCP découple l'outil du modèle. Le MCP Server est un processus indépendant qui expose ses capabilities via un protocole standardisé. Vous pouvez changer de modèle sans réécrire vos intégrations. Vous pouvez partager vos MCP Servers avec la communauté. Et surtout, vous pouvez composer : connecter 10 serveurs MCP à un même client et laisser le LLM orchestrer le tout.

En résumé : function calling c'est bien pour du sur-mesure, MCP c'est le standard industriel pour des intégrations réutilisables et composables.

Construire son propre MCP Server

Si vos outils internes n'ont pas encore de MCP Server, en créer un est étonnamment simple. Le SDK officiel est disponible en Python et TypeScript.

Un MCP Server minimaliste en Python, c'est une cinquantaine de lignes de code :

Le SDK gère le protocole de communication, la sérialisation des messages, et la négociation des capabilities. Vous vous concentrez sur la logique métier. Pour les développeurs qui hésitent entre les langages, notre comparatif Python vs JavaScript peut aider à trancher.

Les enjeux de sécurité

Donner à un LLM la capacité d'agir sur vos systèmes, ça pose évidemment des questions de sécurité. L'équipe derrière MCP a intégré plusieurs mécanismes :

Consentement utilisateur : Le LLM ne peut pas utiliser un tool sans que l'utilisateur l'ait approuvé (au moins la première fois). C'est le principe du "human in the loop".

Scoping : Les MCP Servers peuvent limiter les permissions — lecture seule, accès à certains dossiers uniquement, requêtes SELECT mais pas INSERT/DELETE.

Transport sécurisé : Les connexions remote utilisent OAuth 2.0 et HTTPS. Les connexions locales passent par stdio (pas de réseau).

Malgré ces garde-fous, la prudence s'impose. Un MCP Server mal configuré qui expose un accès root à votre base de données, c'est une catastrophe en puissance. Les bonnes pratiques de sécurisation des systèmes d'information s'appliquent aussi — et peut-être surtout — quand l'utilisateur est une IA.

L'avenir de MCP : vers un standard universel ?

Le pari d'Anthropic avec MCP est ambitieux : devenir le standard universel de connexion entre l'IA et les outils. Début 2026, le protocole a franchi un cap symbolique quand OpenAI a annoncé le support de MCP dans ses propres produits. Google suit la même direction. Quand vos deux principaux concurrents adoptent votre standard, c'est que vous avez touché juste.

Les prochaines évolutions du protocole devraient inclure :

Ce qui est certain, c'est que l'ère des intégrations IA artisanales touche à sa fin. MCP pose les rails d'un écosystème structuré, interopérable et sécurisé. Et quand un standard facilite la vie de tout le monde — développeurs, entreprises et utilisateurs — il finit par s'imposer. C'est exactement ce qui est en train de se passer.