Down-to-Zero (DTZ) è sempre stato incentrato sul fare di più con meno watt e meno byte. Dalla schedulazione dei container scale-to-zero ai build runner alimentati a energia solare, ogni servizio che distribuiamo è misurato rispetto a una linea di base inflessibile: potrebbe questo funzionare serenamente su una CPU di un notebook senza ventole al sole?
Oggi siamo entusiasti di annunciare il prossimo passo in questo percorso - server remoti Model Context Protocol (MCP) che puoi avviare come container Docker leggeri in qualsiasi contesto DTZ.
MCP è uno standard aperto che permette agli host di modelli linguistici di rivolgersi a “server” specifici per attività, per dati, strumenti o azioni, utilizzando un semplice stream JSON autenticato. Pensalo come una porta USB-C per agenti AI: una presa, molte periferiche. Eseguendo un server MCP vicino ai tuoi dati, eviti di trasportare interi set di dati attraverso una chiamata API LLM. Questo si adatta perfettamente al nostro mantra “spostare il calcolo al margine, non al nucleo”.
Fino ad ora il load balancer multi-tenant di DTZ terminava solo HTTP/1 e HTTP/2. MCP, tuttavia, si basa su Server-Sent Events (SSE) per il suo stream di eventi unidirezionale a lunga durata. SSE funziona benissimo su HTTP/2, ma i browser limitano severamente le connessioni SSE concorrenti quando ricadono su HTTP/1 — solitamente sei per origine.
Abbiamo quindi esteso il bilanciatore con supporto SSE nativo:
Questo miglioramento sblocca i server MCP remote-first: ora puoi distribuire il componente server come immagine container e permettere a qualsiasi client LLM di connettersi indietro tramite SSE sicuro senza proxy aggiuntivi.
Costruisci (o scarica) un’immagine del server MCP.
Caricala nel tuo registro privato DTZ:
docker push {context-id}.cr.dtz.dev/my-mcp-server:latest
Crea un nuovo servizio nel tuo contesto e punta all’immagine. Il nostro scheduler scarica solo su richiesta e scala a zero quando nessun host è connesso.
Poiché l’endpoint del registro risiede nella stessa mesh a basso consumo energetico, i pull delle immagini avvengono sulla backbone locale, mantenendo l’egress vicino allo zero e velocizzando i cold start.
I server MCP remoti tipicamente richiedono un singolo binario Rust o Go più uno strato base Alpine molto piccolo. Nei nostri test un server di integrazione GitHub completo consuma 15 MiB di RAM all’avvio e rimane sotto i 2 W sui nostri nodi worker DTZ. Ciò lascia ampio margine per decine di server per nodo prima che i pannelli solari ne risentano minimamente.
Per i carichi di lavoro che scoppiano, l’isolamento cgroup di DTZ permette al kernel di recuperare memoria non appena il lavoro è finito. Combinato con l’ibernazione SSE del bilanciatore, il tuo contesto torna a zero pochi secondi dopo che l’ultimo token è stato trasmesso al modello.
Stiamo integrando attivamente il DTZ Identity Server via OAuth 2.1 nell’ecosistema MCP, garantendo che ogni stream venga servito solo a client autenticati e che i tuoi server remoti rimangano sia minimali che sicuri.
Meno energia, meno problemi - solo contesto dove ti serve.