본문으로 건너뛰기

© 2026 Molayo

HN요약2026. 05. 07. 23:06

Show HN: Open-source real time data framework for LLM applications

요약

Lightspeed에서 개발한 새로운 오픈 소스 실시간 데이터 프레임워크인 Tensorlake는 LLM 애플리케이션을 위한 강력하고 안전하며 상태 유지(stateful)가 가능한 샌드박스를 제공합니다. 이 프레임워크는 에이전트의 장기 실행 세션, 파일 시스템 접근, 복잡한 도구 사용 등 다양한 시나리오에서 격리된 컴퓨팅 환경을 제공하여 기존 플랫폼들이 강제로 트레이드오프를 만들었던 문제를 해결합니다. 특히, 샌드박스를 통해 에이전트 자체를 독립적인 운영체제처럼 실행하거나(Agent Harness), 위험도가 높은 도구 호출에만 임시로 사용함으로써(Isolated Tool Execution) 시스템의 무결성과 데이터 격리를 보장하며 최고의 성능을 자랑합니다.

핵심 포인트

  • **상태 유지 컴퓨팅 (Stateful Compute):** 에이전트가 중단되었다가 나중에 정확한 상태에서 재개할 수 있도록 지원하여 장기 실행 작업에 적합합니다.
  • **격리된 환경 제공:** 샌드박스를 통해 에이전트 자체, 도구 호출 등 모든 작업을 메인 애플리케이션 서버와 완전히 분리하여 시스템 무결성과 데이터 보안을 극대화합니다.
  • **최고의 성능과 속도:** Vercel이나 E2B보다 빠르며, SQLite 및 파일 I/O 벤치마크에서 최고의 성능을 입증했습니다.
  • **다양한 사용 사례 지원:** 에이전트 개발(Agent Harness), 코드 실행기(Code Interpreter), 브라우저 도우미 등 LLM 애플리케이션의 모든 복잡한 요구사항을 충족합니다.

Lightspeed AI native sandboxes.

Stateful compute for durable agentic loops + isolated tool/code execution. Pause mid-run, resume hours later in the exact state you left.

import { Sandbox } from "tensorlake";

async function main() {

const sbx = await Sandbox.create();

const result = await sbx.run("/bin/sh", { args: ["-c", "npm install && npm run build"] });

console.log(result.stdout);
}

main();

Other sandboxes force a tradeoff. We refuse to make one.

02 / 06

Sandboxes for running agent harnesses.

python · typescript

Run the agent itself inside an isolated, stateful computer.

The sandbox mode for browsing agents, research harnesses, and long-running sessions that need files, bash, packages, and working state — instead of running on the app server.

Give the agent its own filesystem, shell, packages, and processes instead of sharing the app server runtime.

Sandbox sleeps on inactivity, wakes instantly when invoked.

Near-SSD speed in a VM, 2× faster than Vercel, 5× faster than E2B.

Compile code, run databases, process 5GB files. Bring any Linux stack.

// Run Claude Code agent inside an isolated sandbox
import { Sandbox } from "tensorlake";
const sbx = await Sandbox.create();
await sbx.exec("npm i -g @anthropic-ai/claude-agent-sdk");
await sbx.exec(
"claude -p 'Refactor src/**/*.ts for stricter types'"
);

03 / 06

The fastest sandbox file system.

fio · sqlite · p50

In our published SQLite benchmark across Tensorlake, Vercel, E2B, Daytona, and Modal, Tensorlake was the fastest across default, fsync, and large-dataset runs. Benchmark setup: 2 vCPU / ~4 GB sandboxes, 3 runs.

04 / 06

Isolated execution environments for running tools.

ephemeral · per-call

Create isolated sandboxes only when a tool needs risky or heavy execution.

The pattern for code interpreters, browser helpers, and tool-calling agents that should not run untrusted code inside the harness itself. Keep the harness outside; spin up sandboxes per call.

Execute code, browsers, or system tasks in a separate sandbox so the main agent never shares its runtime.

Predictable throughput means fresh sessions spin up immediately, even when a thousand others are mid-task.

Every session gets its own sandbox so untrusted code can't touch system integrity or leak data across sessions.

Hardware virtualization boundary per call. LLMs can't escape the sandbox to touch your data.

// Claude agent with a Tensorlake sandbox as its code-exec tool
import Anthropic from "@anthropic-ai/sdk";
import { Sandbox } from "tensorlake";
const claude = new Anthropic();
const sbx = await Sandbox.create();
const msg = await claude.messages.create({
model: "claude-sonnet-4-6",
max_tokens: 1024,
tools: [{
name: "run_in_sandbox",
description: "Run code in an isolated Tensorlake sandbox.",
input_schema: { type: "object", properties: { code: { type: "string" } } }
}],
messages: [{ role: "user", content: "Plot fib(20) as a line chart." }],
});
// Dispatch Claude's tool call into the sandbox
const call = msg.content.find(b => b.type === "tool_use");
const out = await sbx.exec(`python -c ${JSON.stringify(call.input.code)}`);
console.log(out.stdout);

05 / 06

Infrastructure for RL rollouts and evals.

10k+ envs / fan-out

Prepare once, clone many

Snapshot a warmed environment — deps, weights, data — and clone it thousands of times in parallel. Pay once for setup.

Known starting state

Files, packages, processes 및 seeds 는 모든 rollout 에서 재현 가능합니다. workers 간에 불규칙한 drift(변동) 이 없습니다.

Scale rollouts & evals

10k+ 동시 환경을 fan out 합니다. 임의의 step 에서 checkpoint 를 기록하고, 임의의 step 에서 resume 합니다. object storage 에 작성합니다.

Dynamic resource alloc

각 환경별로 CPU, memory, GPU 및 image 를 선택합니다. rollouts 을 wall-clock 분 단위로 rightsize 합니다.

06 / 06

Sandbox-native orchestration for agents.

endpoints · durability

Once sandbox usage turns into a real application, Orchestrate coordinates it.

Sandbox execution 위에 application endpoints, durability, fan-out, retries, 그리고 application-level observability 를 추가하는 레이어입니다.

Raw VM APIs 를 stitch together 하는 대신 sandbox-backed workflows 를 callable applications 로 expose 합니다.

Predictable throughput 는 thousand 개의 다른 session 이 mid-task 도 되더라도 fresh session 을 즉시 spin up 합니다.

Dormant sandboxes 는 incoming traffic 에 따라 resume 됩니다. Every session 은 own sandbox 를 가지므로 run 간에 leak 이 없습니다.

Long-running agentic flows 에 대한 durable primitives. Application observability 는 bake in 됩니다.

PDF → Markdown with Claude

from tensorlake.applications import application, function

from anthropic import Anthropic

claude = Anthropic()

@application()

@function()

def to_markdown(pdf_url: str) -> str:

pdf = fetch(pdf_url)

msg = claude.messages.create(

model="claude-sonnet-4-5",

max_tokens=8192,

messages=[{"role": "user", "content": [

{"type": "document", "source": pdf},

{"type": "text", "text": "Convert to clean Markdown."},

]}],

)

return msg.content[0].text

07

Used by engineering teams shipping agents in production.

n = 14 interviews

Tensorlake 는 us 에게 day one 부터 더 빠르게 ship 하고 reliable 하게 유지할 수 있게 했습니다. Serious infra engineering 을 필요로 했던 Complex stateful AI workloads 는 이제 long-running functions 만이 됩니다. Scale 될 때, product 를 build 하고 infrastructure 를 manage 하지 않는다는 뜻입니다.

At SIXT 는 enterprise-scale data 의 complexity 를 관리하면서 millions of customers 에게 AI-powered experiences 를 build 합니다. Tensorlake 는 us 에게 필요한 foundation 을 제공합니다 — VPC 에서 secure 하게 run 하는 reliable document ingestion 이 our generative AI initiatives 를 power 합니다.

Tensorlake 는 robust, scalable OCR 및 document ingestion layer 를 제공하여 in-house OCR pipeline 을 build 하고 operate 하지 않아도 되도록 했습니다. Excellent accuracy 와 feature coverage 가 있습니다.

Tensorlake 와 함께, many other providers 가 native 로 support 하지 않는 Complex document parsing 과 data formats 을 handle 할 수 있었습니다. Throughput 는 our application 의 UX 를 significantly improve 합니다. Team 의 responsiveness 는 standout 합니다.

08

Run it in our cloud — or yours.

SOC 2 · HIPAA

Bring Tensorlake into your cloud.

Egress 가 낮고, stricter network boundaries 가 필요하거나, dedicated capacity 나 더 predictable performance 를 필요로 할 때 us 의 AWS / GCP / Azure account 안에 sandboxes 와 applications 을 run 합니다.

Network boundariesCode 와 data 를 preferred cloud boundary 안에 유지합니다. VPC peering, private endpoints, IAM-scoped 입니다.

Latency controlData 에 가까운 place 에서 compute 합니다. Latency-sensitive agent workloads 의 runtime behavior 를 tighten 합니다.

Reserved capacityUsage-based hosted infra 에서 plan, reserve, 그리고 predictably operate 할 수 있는 capacity 로 이동합니다.

Security built for agentic workflows.

LLM-generated code 는 isolated VMs 에 run 되며, shared processes 가 아닙니다. Full audit trails, per-project data boundaries, 그리고 regulated workloads 위한 compliance 가 있습니다.

Firecracker isolation각 도구 호출과 harness 는 별도의 microVM 에서 실행됩니다. 공유 커널 없음, 크로스 테넌트 상태 없음.

Tracing & observability모든 함수와 도구 호출의 전체 트래스 — 로그, 타이밍, 구조화된 실행 경로.

SOC 2 Type II · HIPAAPHI, PII 및 민감한 문서에 대해 기본값으로 보안 제공. RBAC 와 완전한 감사 기능이 있는 격리된 버킷.

AI 자동 생성 콘텐츠

본 콘텐츠는 HN Claude Code Search의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0