Serveur MCP LitServe – Connectez vos modèles IA à Claude Desktop

Pourquoi utiliser le protocole MCP pour vos modèles IA ?

Le serveur MCP LitServe permet de connecter facilement vos modèles d’IA à Claude Desktop grâce à une intégration rapide et standardisée. En déployant un serveur MCP avec LitServe, vous bénéficiez d’une solution fiable, adaptée aux besoins des développeurs qui veulent accélérer la mise en place de leurs applications d’intelligence artificielle.

Connecter des modèles d’IA à des applications nécessite souvent un codage personnalisé :

  • Chaque intégration (Slack, dashboard, bot, IDE) demande un code différent.
  • Les workflows deviennent fragmentés avec des API REST spécifiques ou des wrappers maison.

👉 Le protocole MCP (Model Context Protocol) standardise tout cela et simplifie l’intégration.

LitServe et MCP : simplifier l’intégration des modèles d’IA

LitServe est un moteur open source basé sur FastAPI.

Il propose désormais un point de terminaison /mcp/ permettant de rendre n’importe quel modèle IA compatible MCP.

  • Aucun changement dans la logique du modèle.
  • Compatible avec Claude Desktop, Cursor IDE, ou tout client MCP.
  • Supporte Hugging Face, RAG, agents IA et plus encore.

Exemple complet : serveur MCP avec Hugging Face et LitServe

Voici un exemple de serveur MCP d’analyse de sentiments avec LitServe :

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
from pydantic import BaseModel
import litserve as ls
from litserve.mcp import MCP
from transformers import pipeline

class InputRequest(BaseModel):
    input: str

class TextClassificationAPI(ls.LitAPI):
    _label_map = {
        "1 star": "très négatif",
        "2 stars": "négatif",
        "3 stars": "mitigé",
        "4 stars": "positif",
        "5 stars": "très positif"
    }

    def setup(self, device):
        self._model = pipeline(
            task="sentiment-analysis",
            model="cmarkea/distilcamembert-base-sentiment",
            tokenizer="cmarkea/distilcamembert-base-sentiment",
            device=device,
        )

    def decode_request(self, request: InputRequest, **kwargs):
        return request.input

    def predict(self, x, **kwargs):
        return self._model(x)

    def encode_response(self, output, **kwargs):
        return {
            "sentiment": self._label_map.get(output[0]['label'], output[0]['label']),
            "score": output[0]['score']
        }

if __name__ == "__main__":
    mcp = MCP(
        name="sentiment_classifier",
        description="Analyse de sentiment en français avec score et label.",
    )
    api = TextClassificationAPI(mcp=mcp)
    server = ls.LitServer(api)
    server.run(host="0.0.0.0", port=8000)

👉 Une fois lancé (python server.py), votre modèle est accessible :

  • en REST API classique
  • via MCP : http://localhost:8000/mcp

Comment connecter LitServe MCP à Claude Desktop ?

Étape 1 : Installer mcp-remote (si nécessaire)

npm install -g mcp-remote

Étape 2 : Lancer le serveur MCP

python server.py

Étape 3 : Modifier la configuration MCP de Claude Desktop

  • macOS : ~/Library/Application Support/Claude/claude_desktop_config.json
  • Linux : ~/.config/claude/claude_desktop_config.json
  • Windows : %APPDATA%\Claude\claude_desktop_config.json

Ajoutez :

{
  "mcpServers": {
    "litserve": {
      "command": "npx",
      "args": [
        "mcp-remote",
        "http://localhost:8000/mcp/",
        "--allow-http"
      ]
    }
  }
}

Étape 4 : Redémarrer Claude Desktop

Une icône d’outil (🛠️ ou un curseur) devrait maintenant apparaître à côté du champ de saisie.

Nous pouvons voir Litserve dans le menu après une connexion réussie

👉 l’outil d’analyse de sentiment est à présent disponible dans Claude Desktop.

Lorsque MCP est activé :

  • LitServe enregistre un outil à l’aide du schéma d’outil MCP.
  • L’outil est monté sur /mcp/ à l’aide d’un gestionnaire HTTP streamable.
  • Les clients (par exemple, un LLM ou un environnement de développement) peuvent utiliser
    •  tools/list : Pour découvrir la liste des outils disponibles qu’un serveur MCP expose.
    • tools/call : Une fois qu’un client (ou un LLM) a identifié un outil pertinent via tools/list et a décidé de l’utiliser, il invoque cet outil en envoyant une requête structurée à cette URL.
Utilisation de l'outil MCP 'Sentiment classifier' dans Claude Desktop.

Les avantages d’un serveur MCP pour vos intégrations IA

  • Standardisation : plus besoin d’API multiples.
  • Compatibilité : fonctionne avec Claude Desktop, Cursor, etc.
  • Simplicité : aucune modification du code modèle.
  • Scalabilité : supporte agents, RAG, modèles Hugging Face.

Nous apprécions LitServe pour les raisons suivantes :

  • Il est plus rapide que FastAPI.
  • Possibilité
    • de servir n’importe quel modèle d’IA (LLM, vision, audio, multimodal).
    • de composer des agents, des RAG et des pipelines dans un seul fichier.
    • d’ajouter une logique personnalisée et avoir un contrôle total sur l’inférence.

Conclusion : vers une standardisation des intégrations IA

Grâce à la nouvelle intégration du protocole MCP de LitServe, nous pouvons connecter des APIs directement aux outils d’IA et aux IDE de bureau les plus répandus, sans aucun code de liaison. Ainsi, l’intégration des modèles IA devient fluide, rapide et standardisée.

Cela ouvre la voie à de nouveaux modes d’interaction riches : classification, chat, résumé, etc. Cette approche permettant d’accélérer le déploiement et d’unifier les workflows IA.

👉 Créez votre serveur MCP et laissez vos modèles rejoindre l’écosystème de l’IA !

Laisser un commentaire