LLM 애플리케이션을 위한 오픈소스 관측성 플랫폼, Laminar 소개
요약
Laminar는 AI 에이전트 및 LLM 기반 애플리케이션에 특화된 통합 관측성(Observability) 플랫폼입니다. OpenTelemetry 네이티브 트레이싱 SDK를 제공하여 Vercel AI SDK, LangChain, OpenAI 등 주요 라이브러리를 단 한 줄의 코드로 자동 추적할 수 있습니다. 또한, 평가(Evals) 기능, 자연어 기반 이벤트 모니터링, 그리고 모든 데이터에 대한 SQL 접근을 지원합니다. Rust로 작성되어 고성능이며, 개발자가 LLM 앱의 성능과 로직 오류를 종합적으로 파악하는 데 최적화된 솔루션
핵심 포인트
- OpenTelemetry 기반 트레이싱 SDK를 통해 Vercel AI SDK, LangChain, OpenAI 등 주요 라이브러리를 단 1줄 코드로 자동 추적이 가능합니다.
- LLM 앱의 성능과 로직 오류를 추적하기 위해 자연어 설명을 이용한 커스텀 이벤트 모니터링 기능을 제공합니다.
- 트레이스(Traces), 메트릭(Metrics), 이벤트를 모두 SQL로 쿼리할 수 있는 통합 데이터 접근 방식을 지원하여 분석 유연성을 높였습니다.
- Rust 언어로 작성되어 높은 성능을 자랑하며, 실시간 트레이스 보기 및 초고속 전체 텍스트 검색 기능을 제공합니다.
Laminar is an open-source observability platform purpose-built for AI agents.
- Tracing. Docs
- OpenTelemetry-native powerful tracing SDK - 1 line of code to automatically trace Vercel AI SDK, Browser Use, Stagehand, LangChain, OpenAI, Anthropic, Gemini, and more.
- Evals. Docs
- Unopinionated, extensible SDK and CLI for running evals locally or in CI/CD pipeline.
- UI for visualizing evals and comparing results.
- AI monitoring. Docs
- Define events with natural language descriptions to track issues, logical errors, and custom behavior of your agent.
- SQL access to all data. Docs
- Query traces, metrics, and events with a built-in SQL editor. Bulk create datasets from queries. Available via API.
- Dashboards. Docs
- Powerful dashboard builder for traces, metrics, and events with support of custom SQL queries.
- Data annotation & Datasets. Docs
- Custom data rendering UI for fast data annotation and dataset creation for evals.
Key Features:
- Extremely high performance.
- Written in Rust 🦀
- Custom realtime engine for viewing traces as they happen.
- Ultra-fast full-text search over span data.
- gRPC exporter for tracing data.
Check out full documentation here docs.laminar.sh.
The fastest and easiest way to get started is with our managed platform -> laminar.sh
Self-Hosting Laminar
Laminar is very easy to self-host locally. For a quick start, clone the repo and start the services with docker compose:
git clone https://github.com/lmnr-ai/lmnr
dcd lmnr
docker compose up -d
This will spin up a lightweight but full-featured version of the stack. This is good for a quickstart or for lightweight usage. You can access the UI at http://localhost:5667 in your browser.
You will also need to properly configure the SDK, with baseUrl and correct ports. See guide on self-hosting.
For production environment, we recommend using our managed platform or docker compose -f docker-compose-full.yml up -d.
To enable Signals / AI monitoring in self-hosted mode, set the GOOGLE_GENERATIVE_AI_API_KEY environment variable in your .env file. This key is required by both the app-server and the frontend.
# In .env at the repo root
GOOGLE_GENERATIVE_AI_API_KEY=your_key_here
For running and building Laminar locally, or to learn more about docker compose files, follow the guide in Contributing.
SDK Integration Examples
JavaScript/TypeScript:
First, create a project and generate a project API key. Then,
npm add @lmnr-ai/lmnr
It will install Laminar TS SDK and all instrumentation packages (OpenAI, Anthropic, LangChain ...)
To start tracing LLM calls just add
import { Laminar } from '@lmnr-ai/lmnr';
Laminar.initialize({ projectApiKey: process.env.LMNR_PROJECT_API_KEY });
To trace inputs / outputs of functions use observe wrapper.
import { OpenAI } from 'openai';
import { observe } from '@lmnr-ai/lmnr';
const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });
const poemWriter = observe({name: 'poemWriter'}, async (topic) => {
const response = await client.chat.completions.create({
model:
AI 자동 생성 콘텐츠
본 콘텐츠는 HN AI Engineering의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기