PAL MCP

MCP

Multi-Modell-Orchestrierung aus Claude Code heraus — Gemini, GPT-5, Grok, Kimi, Ollama & Co. parallel konsultieren. Nice-to-have, sobald du Accounts bei weiteren Providern hast.

Dein CLI + mehrere Modelle = dein AI-Dev-Team. PAL (Provider Abstraction Layer, ehemals Zen MCP) ist ein MCP-Server, der Claude Code, Codex CLI, Gemini CLI und IDE-Clients wie Cursor mit Drittmodellen verbindet. Default-Tools: `chat`, `consensus`, `codereview`, `precommit`, `debug`, `thinkdeep`, `planner`, `apilookup`, `challenge`. Der neue `clink`-Modus startet isolierte CLI-Subagents (z. B. Codex-Reviewer aus Claude Code heraus) und schont damit das Hauptkontext-Fenster. Kein Pflichtwerkzeug — aber extrem praktisch, wenn mehrere Provider-Accounts (OpenAI, Google, xAI, Moonshot, OpenRouter, Azure, DIAL, Ollama) vorhanden sind.

Kompatibel mit

Läuft mit diesen Hosts

PAL MCP ist mit 5 Apps und 2 IDEs kompatibel — dort erscheint es automatisch auf jeder Constellation, die diesen Host als Komponente führt.

Apps · 5

  • Claude Code

    Primärer Host. Tools via `mcp__pal__*` (chat, consensus, clink, codereview, debug, thinkdeep, planner, precommit, challenge, apilookup).

  • Claude Desktop

    Manuelle MCP-Registrierung in der Desktop-Config.

  • Codex CLI

    Läuft als MCP-Server; kann via `clink` wiederum Claude/Gemini-Subagents starten.

  • Gemini CLI

    Offiziell unterstützter Client.

  • OpenCode

    Als generischer MCP-Client anbindbar.

IDEs · 2

  • Cursor

    MCP-Integration laut PAL-Getting-Started.

  • Visual Studio Code

    Über die Claude-Dev-Extension als MCP-Client.

Im Einsatz

Diese Constellations nutzen PAL MCP

Automatisch aus der Host-Kompatibilität abgeleitet — überall dort, wo einer der kompatiblen Hosts als Komponente geführt wird, erscheint PAL MCP auch.