본문으로 건너뛰기

© 2026 Molayo

HN중요요약2026. 04. 24. 14:19

LLM 애플리케이션을 위한 오픈소스 관측성 플랫폼, Laminar 소개

요약

Laminar는 AI 에이전트 및 LLM 기반 애플리케이션에 특화된 통합 관측성(Observability) 플랫폼입니다. OpenTelemetry 네이티브 트레이싱 SDK를 제공하여 Vercel AI SDK, LangChain, OpenAI 등 주요 라이브러리를 단 한 줄의 코드로 자동 추적할 수 있습니다. 또한, 평가(Evals) 기능, 자연어 기반 이벤트 모니터링, 그리고 모든 데이터에 대한 SQL 접근을 지원합니다. Rust로 작성되어 고성능이며, 개발자가 LLM 앱의 성능과 로직 오류를 종합적으로 파악하는 데 최적화된 솔루션

핵심 포인트

  • OpenTelemetry 기반 트레이싱 SDK를 통해 Vercel AI SDK, LangChain, OpenAI 등 주요 라이브러리를 단 1줄 코드로 자동 추적이 가능합니다.
  • LLM 앱의 성능과 로직 오류를 추적하기 위해 자연어 설명을 이용한 커스텀 이벤트 모니터링 기능을 제공합니다.
  • 트레이스(Traces), 메트릭(Metrics), 이벤트를 모두 SQL로 쿼리할 수 있는 통합 데이터 접근 방식을 지원하여 분석 유연성을 높였습니다.
  • Rust 언어로 작성되어 높은 성능을 자랑하며, 실시간 트레이스 보기 및 초고속 전체 텍스트 검색 기능을 제공합니다.

Laminar is an open-source observability platform purpose-built for AI agents.

  • Tracing. Docs
    • OpenTelemetry-native powerful tracing SDK - 1 line of code to automatically trace Vercel AI SDK, Browser Use, Stagehand, LangChain, OpenAI, Anthropic, Gemini, and more.
  • Evals. Docs
    • Unopinionated, extensible SDK and CLI for running evals locally or in CI/CD pipeline.
    • UI for visualizing evals and comparing results.
  • AI monitoring. Docs
    • Define events with natural language descriptions to track issues, logical errors, and custom behavior of your agent.
  • SQL access to all data. Docs
    • Query traces, metrics, and events with a built-in SQL editor. Bulk create datasets from queries. Available via API.
  • Dashboards. Docs
    • Powerful dashboard builder for traces, metrics, and events with support of custom SQL queries.
  • Data annotation & Datasets. Docs
    • Custom data rendering UI for fast data annotation and dataset creation for evals.

Key Features:

  • Extremely high performance.
  • Written in Rust 🦀
  • Custom realtime engine for viewing traces as they happen.
  • Ultra-fast full-text search over span data.
  • gRPC exporter for tracing data.

Check out full documentation here docs.laminar.sh.
The fastest and easiest way to get started is with our managed platform -> laminar.sh

Self-Hosting Laminar

Laminar is very easy to self-host locally. For a quick start, clone the repo and start the services with docker compose:

git clone https://github.com/lmnr-ai/lmnr
dcd lmnr
docker compose up -d

This will spin up a lightweight but full-featured version of the stack. This is good for a quickstart or for lightweight usage. You can access the UI at http://localhost:5667 in your browser.

You will also need to properly configure the SDK, with baseUrl and correct ports. See guide on self-hosting.

For production environment, we recommend using our managed platform or docker compose -f docker-compose-full.yml up -d.

To enable Signals / AI monitoring in self-hosted mode, set the GOOGLE_GENERATIVE_AI_API_KEY environment variable in your .env file. This key is required by both the app-server and the frontend.

# In .env at the repo root
GOOGLE_GENERATIVE_AI_API_KEY=your_key_here

For running and building Laminar locally, or to learn more about docker compose files, follow the guide in Contributing.

SDK Integration Examples

JavaScript/TypeScript:

First, create a project and generate a project API key. Then,
npm add @lmnr-ai/lmnr

It will install Laminar TS SDK and all instrumentation packages (OpenAI, Anthropic, LangChain ...)

To start tracing LLM calls just add

import { Laminar } from '@lmnr-ai/lmnr';
Laminar.initialize({ projectApiKey: process.env.LMNR_PROJECT_API_KEY });

To trace inputs / outputs of functions use observe wrapper.

import { OpenAI } from 'openai';
import { observe } from '@lmnr-ai/lmnr';
const client = new OpenAI({ apiKey: process.env.OPENAI_API_KEY });
const poemWriter = observe({name: 'poemWriter'}, async (topic) => {
  const response = await client.chat.completions.create({
    model: 

AI 자동 생성 콘텐츠

본 콘텐츠는 HN AI Engineering의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0