Down-to-Zero (DTZ) hat schon immer bedeutet, mehr mit weniger Watt und weniger Bytes zu erreichen. Von Scale-to-Zero-Container-Scheduling bis hin zu solarbetriebenen Build-Runnern wird jeder Service, den wir ausliefern, an einer kompromisslosen Messlatte geprüft: Könnte das problemlos auf einer lüfterlosen Notebook-CPU in der Sonne laufen?
Heute freuen wir uns, den nächsten Schritt auf diesem Weg anzukündigen – Remote Model Context Protocol (MCP) Server, die Sie als leichtgewichtige Docker-Container in jedem DTZ-Kontext starten können.
MCP ist ein offener Standard, der es Sprachmodell-Hosts ermöglicht, sich über einen einfachen, authentifizierten JSON-Stream an aufgaben-spezifische „Server“ für Daten, Tools oder Aktionen zu wenden. Stellen Sie sich das als USB-C-Anschluss für KI-Agenten vor: Ein Anschluss, viele Peripheriegeräte. Indem Sie einen MCP-Server direkt neben Ihren Daten betreiben, vermeiden Sie es, komplette Datensätze über einen LLM API-Aufruf hin- und herzuschicken. Das passt perfekt zu unserem Mantra „Berechnung an den Rand verlagern, nicht in den Kern.“
Bisher unterstützte DTZs Multi-Tenant Load Balancer nur HTTP/1 und HTTP/2. MCP beruht jedoch auf Server-Sent Events (SSE) für seinen langlebigen, einseitigen Ereignisstrom. SSE funktioniert hervorragend über HTTP/2, jedoch begrenzen Browser bei Fallback auf HTTP/1 strikt die Anzahl gleichzeitiger SSE-Verbindungen — in der Regel sechs pro Origin.
Wir haben deshalb den Balancer um native SSE-Unterstützung erweitert:
Diese Verbesserung ermöglicht remote-first MCP Server: Sie können die Server-Komponente jetzt als Container-Image bereitstellen und jedem LLM-Client den sicheren Rückkanal über SSE ohne zusätzliche Proxy-Lösungen eröffnen.
Bauen (oder laden) Sie ein MCP Server-Image herunter.
Pushen Sie es in Ihr privates DTZ-Registry:
docker push {context-id}.cr.dtz.dev/my-mcp-server:latest
Erstellen Sie in Ihrem Kontext einen neuen Service und verweisen Sie auf das Image. Unser Scheduler zieht Images nur bei Bedarf und skaliert auf null, wenn kein Host verbunden ist.
Weil der Registry-Endpunkt im gleichen energieeffizienten Mesh lebt, erfolgen Image-Pulls über das lokale Backbone. Das hält den Ausgehend-Traffic nahe null und beschleunigt Cold Starts.
Remote MCP Server benötigen typischerweise eine einzelne Rust- oder Go-basierte Binärdatei plus eine winzige Alpine Basis-Schicht. In unseren eigenen Tests verbraucht ein voll ausgestatteter GitHub-Integrationsserver 15 MiB RAM beim Start und liegt im Leerlauf unter 2 W auf unseren DTZ Worker Nodes. Damit bleibt viel Spielraum für Dutzende Server pro Node, bevor die Solarpanels überhaupt einen Unterschied merken.
Für Workloads mit Spitzen erlaubt DTZs cgroup-Isolierung dem Kernel, den Speicher direkt nach Abschluss der Aufgabe zurückzufordern. In Kombination mit der SSE-Hibernation des Balancers kehrt Ihr Kontext nur wenige Sekunden nach dem letzten Token-Stream zum Nullzustand zurück.
Wir integrieren derzeit aktiv den DTZ Identity Server via OAuth 2.1 ins MCP-Ökosystem, um sicherzustellen, dass jeder Stream nur an authentifizierte Clients ausgeliefert wird und Ihre Remote-Server minimal und sicher bleiben.
Weniger Energie, weniger Aufwand – einfach Kontext, wo Sie ihn brauchen.