LangChain startet LangSmith Sandboxes für sichere AI Agent Code-Ausführung
Darius Baruo 17.03.2026 16:28
LangChain stellt LangSmith Sandboxes in Private Preview vor und bietet microVM-isolierte Umgebungen für AI Agents zur sicheren Ausführung von nicht vertrauenswürdigem Code.
LangChain hat LangSmith Sandboxes in Private Preview veröffentlicht und bietet Entwicklern isolierte Umgebungen, in denen AI Agents Code ausführen können, ohne die Host-Infrastruktur zu gefährden. Die Funktion umfasst microVM-Isolation, persistente Zustandsverwaltung und Integration mit dem bestehenden LangSmith SDK.
Der Zeitpunkt adressiert einen wachsenden Schwachpunkt. Coding-Agenten von Cursor bis Claude Code haben demonstriert, was möglich ist, wenn KI ihren eigenen Code schreiben und ausführen kann. Aber diese Fähigkeit birgt Risiken – eine Untersuchung von ClawSecure ergab, dass 41% der OpenClaw-Fähigkeiten Schwachstellen enthielten, die destruktive oder bösartige Aktionen in lokalen Umgebungen ausführen könnten.
Was tatsächlich ausgeliefert wird
LangSmith Sandboxes laufen auf hardwarevirtualisierten microVMs statt auf Standard-Linux-Containern. Das ist ein bedeutender Unterschied: traditionelle Container teilen sich den Host-Kernel, während microVMs Kernel-Level-Isolation zwischen jeder Sandbox-Instanz bieten.
Entwickler können Sandboxes mit einem einzigen SDK-Aufruf erstellen, ihre eigenen Docker-Images aus privaten Registries einbringen und wiederverwendbare Vorlagen für CPU- und Speicherkonfigurationen definieren. Das System unterstützt Pooling und Autoscaling – vorkonfigurierte warme Sandboxes eliminieren Kaltstartzeiten, während zusätzliche Instanzen unter Last automatisch hochgefahren werden.
Für längere Agentenaufgaben halten Sandboxes persistente WebSocket-Verbindungen mit Echtzeit-Output-Streaming aufrecht. Dateien, installierte Pakete und Umgebungszustände bleiben zwischen Durchläufen erhalten, sodass Agenten über mehrere Interaktionen hinweg keinen Kontext verlieren.
Sicherheit wird durch einen Authentication Proxy gehandhabt, der externe Service-Aufrufe weiterleitet, ohne Zugangsdaten der Sandbox-Laufzeitumgebung preiszugeben. Geheimnisse berühren niemals die Ausführungsumgebung.
Framework-Flexibilität
LangChain hat dies entwickelt, um über ihr eigenes Ökosystem hinaus zu funktionieren. Die Python- und JavaScript-SDKs integrieren sich mit LangChains Deep Agents Framework und Open SWE Projekt, aber die Sandboxes funktionieren auch mit anderen Frameworks oder ganz ohne.
Mehrere Agenten können sich Sandbox-Zugriff teilen, wodurch die Notwendigkeit entfällt, Artefakte zwischen isolierten Umgebungen zu übertragen. Tunnel machen Sandbox-Ports für lokale Maschinen zugänglich, um Agenten-Output vor der Bereitstellung in der Vorschau anzuzeigen.
Die Roadmap
LangChain hat mehrere Funktionen in aktiver Entwicklung skizziert: gemeinsame Volumes für Sandbox-übergreifende Zustandsverwaltung, binäre Autorisierung zur Einschränkung, welche Programme ausgeführt werden können, und vollständiges Execution Tracing, das jeden Prozess und Netzwerkaufruf innerhalb der VM protokolliert.
Das binäre Autorisierungselement könnte sich als besonders wertvoll erweisen. Agenten zeigen häufig unerwartetes Verhalten – installieren Pakete, exportieren Zugangsdaten, verbrauchen Rechenleistung für unbeabsichtigte Aufgaben. Die Einschränkung der Ausführung auf binärer Ebene spiegelt wider, wie Unternehmen Unternehmensgeräte absichern.
Entwickler, die an der Private Preview interessiert sind, können sich über die Website von LangChain auf die Warteliste setzen. Das Unternehmen sammelt Feedback über seine Slack-Community zur Funktionspriorisierung.
Bildquelle: Shutterstock- langchain
- AI Agents
- langsmith
- Code-Ausführung
- Entwicklertools


