Vos agents IAparlent enfinle même langage.
Relai est la couche d'interopérabilité ACP qui connecte vos LLMs entre eux — OpenAI, Anthropic, Mistral, Llama — sans glue code, sans friction, sans limites.
L'infrastructure que vos
agents méritent.
Simplicité radicale
Une API unifiée. Connectez n'importe quel LLM en 3 lignes de code. Fini les adaptateurs maison et le glue code fragile.
Sécurité by design
Chiffrement TLS 1.3 de bout en bout. Authentification par token signés. Audit log de chaque échange. Zero trust, always.
Scalabilité native
De 1 à 10 000 agents simultanés sans reconfiguration. Auto-scaling, load balancing, et retry logic intégrés.
Trois étapes.
Zéro friction.
Connectez vos agents
Installez le SDK Relai et déclarez vos agents avec leur modèle et leurs capacités. Un fichier de config YAML suffit.
relai init --agent my-bot # → agent.yaml créé
Définissez les routes
Configurez qui parle à qui via le protocole ACP. Relai s'occupe de la traduction, du routage et de la sécurité.
route: gpt-4 → claude-3 protocol: acp/1.0
Déployez & observez
Pushez en production. Suivez chaque échange en temps réel depuis le dashboard avec latences, erreurs et tokens.
relai deploy --env prod # → ✓ 3 agents actifs
Soyez parmi les premiers
à relayer.
Relai est en accès anticipé. Rejoignez la liste d'attente et nous vous contacterons en priorité lors de l'ouverture.