Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
QuantumNous/new-api
QuantumNous/new-api는 기업 및 조직 수준의 사용을 목적으로 설계된 차세대 LLM 게이트웨이 및 AI 자산 관리 시스템입니다. 이 플랫폼은 멀티 모델 관리, 조직 인증, 상세한 사용량 분석 및 비용 회계 기능을 제공하며, OpenAI, Azure, Claude, Google Gemini 등 다양한 주요 모델 API를 지원합니다. 특히, 지능형 라우팅(Intelligent Routing)을 통해 실패 시 자동 재시도나 사용자별 속도 제한 같은 고급 기능을 구현할 수 있으며, 여러 LLM 응답 형식을 상호 변환하는 기능도 제공하여 개발 편의성을 높입니다.
BSO: 안전 정렬은 밀도 비율 매칭 (Density Ratio Matching)이다
본 논문은 언어 모델의 안전 정렬 문제를 밀도 비율 매칭(density ratio matching) 문제로 단순화하는 Bregman Safety Optimization (BSO)을 제안합니다. BSO는 복잡한 다단계 파이프라인이나 보조 모델 없이, 단일 단계 손실 함수를 통해 최적의 안전 정책을 증명 가능하게 회복할 수 있게 합니다. 이 방법은 기존 선호 최적화(preference optimization)를 확장하면서도 범용성을 유지하며, 안전성-유용성 트레이드오프 개선에 효과적임을 입증했습니다.
Show HN: adamsreview – Claude Code를 위한 더 나은 멀티 에이전트(multi-agent) PR 리뷰
adamsreview는 Claude Code를 위한 다단계 코드 리뷰 및 자동 수정 워크플로우 플러그인입니다. 이 도구는 여러 병렬 서브 에이전트 렌즈(정확성, 보안 등)를 사용하여 PR을 심층적으로 검토하고, 발견된 버그에 대해 자동으로 수정 제안을 합니다. 특히 회귀(regressions)가 발생한 코드는 되돌리고(reverts), 통과된 코드만 커밋하는 자동 수정 루프(`:fix`) 기능을 제공하여 높은 신뢰도의 코드 품질 관리를 가능하게 합니다.
메시지 전달 (Message-Passing)에서 선형화된 그래프 시퀀스 모델 (Linearized Graph Sequence Models)으로
본 논문은 그래프 구조 데이터 학습에서 기본 중추 역할을 하는 메시지 전달(Message-passing) 기반 접근 방식을 시퀀스 모델링 관점에서 재구성한 '선형화된 그래프 시퀀스 모델(Linearized Graph Sequence Models)' 프레임워크를 제안합니다. 이 방법론은 계산 처리 깊이와 정보 전파 깊이를 체계적으로 분리하여, 핵심적인 그래프 아키텍처 결정을 시퀀스 모델링의 선택 사항으로 다룰 수 있게 합니다. 이를 통해 장거리 정보 작업에서 성능 향상을 입증하며, 현대 시퀀스 모델링의 발전을 메시지 전달 기반 그래프 학습에 통합하는 원칙적인 방법을 제시합니다.
Hugging Face 공동 창립자, Claude Code에서 비행기 모드로 실행되는 Qwen 3.6 27B가 최신 Opus에 근접하다고 언급
Hugging Face 공동 창립자가 Qwen 3.6 27B 모델이 Claude의 최신 Opus 모델에 근접한 성능을 보인다고 언급했습니다. 이 내용은 로컬 환경에서 LLM(Large Language Models)을 구동하는 경험과 관련하여 논의되었습니다.
Microsoft Agent Framework의 Magentic을 시도해 보았다 (C# ver 1.5.0 확인)
본 기사는 Microsoft Agent Framework v1.5.0에서 멀티 에이전트 오케스트레이션 패턴인 Magentic을 로컬 LLM(LM Studio)과 함께 시험적으로 사용한 경험을 다룹니다. Magentic은 전용 매니저가 공유 컨텍스트를 기반으로 다음에 움직일 에이전트를 선택하고, 필요에 따라 재계획하는 방식으로 복잡한 태스크 처리에 적합합니다. .NET 버전에서는 특정 예외(`System.InvalidOperationException`)로 인해 최종 답변 도출에는 실패했으나, Fact Sheet 생성, 역할 분담 계획 수립, Human Review 단계 등 Magentic의 핵심 작동 원리를 성공적으로 관찰할 수 있었습니다.
OpenAI 재판: Nadella, Musk가 Microsoft의 OpenAI 투자에 대해 우려를 표한 적 없다고 증언
Satya Nadella(Microsoft CEO)는 Musk 대 Altman 재판에서 증언하며, Elon Musk가 Microsoft의 OpenAI 투자와 관련하여 특별한 우려를 제기하거나 연락한 적이 없다고 진술했습니다. 그는 Microsoft와 OpenAI 간의 파트너십에 상업적 요소가 명확했으며, 초기부터 컴퓨팅 자원 할인 등 실질적인 비즈니스 이익을 얻었음을 강조했습니다. Nadella는 Altman 해임 당시 상황에 대해 '아마추어 같은' 상황이었다고 평가하며, 더 깊이 있는 정보와 설명이 부족했다고 언급했습니다.
$δ$-mem: Large Language Models를 위한 효율적인 온라인 메모리
LLM이 장기 정보 축적 및 에이전트 시스템에서 효율적으로 작동하기 위해 $δ$-mem이라는 경량 메모리 메커니즘을 제안합니다. 이 방법은 고정된 Full-attention 백본을 델타 규칙 학습으로 업데이트되는 고정 크기의 상태 행렬로 보강하여 과거 정보를 압축합니다. $δ$-mem은 생성 과정 중 어텐션 계산에 저차원 수정을 적용함으로써, 적은 메모리 상태만으로도 기존 모델 대비 높은 성능 향상을 달성하며 특히 메모리 집약적인 벤치마크에서 큰 이점을 보여줍니다.
C-3PO, 자기 관측과 학습의 고리를 닫다 ── DuckDB와 Thompson Sampling으로 v1.0을 넘어선 이야기
본 기사는 AI 에이전트 시스템 C3가 '자기 관측(Self-observation) → 학습(Learning) → 행동 변경(Behavior Change)'의 완전한 루프를 구축하는 과정을 다룹니다. 이전 단계에서 서브 에이전트에 기억 기능을 부여하고, 비밀 정보 탐지 및 코드 품질 스캔 같은 훅을 추가하여 데이터를 수집했습니다. 이후 DuckDB 하이브리드 구성을 통해 모든 관측 데이터를 단일 스토어에 집약함으로써, 학습과 행동 변경의 기반을 마련했습니다.
MetaColloc: 메타 학습된 기저 함수를 통한 최적화가 필요 없는 PDE 풀이
MetaColloc는 편미분 방정식(PDEs)을 푸는 과정에서 발생하는 느린 최적화 과정을 제거하는 혁신적인 프레임워크입니다. 이 시스템은 기저 발견 과정을 풀이 단계와 분리하고, 다양한 Gaussian Random Fields 상에서 듀얼-브랜치 신경망을 메타 학습하여 범용 사전(universal dictionary)의 신경망 기저 함수를 생성합니다. 테스트 시점에는 네트워크를 동결한 후 콜로케이션 행렬과 선형 최소제곱법을 사용하여 PDE 해를 찾으며, 이는 높은 정확도와 계산 효율성을 동시에 달성합니다.
당신의 Block Floating Point Scale을 검색하세요!
본 연구는 생성 모델 추론 가속화를 위한 표준 기술인 양자화(Quantization)의 한계를 극복하고자 합니다. 기존 BFP 스케일 선택 방식이 최적화되지 않을 수 있다는 문제점을 지적하며, 주어진 분포에서 양자화 오차를 최소화하는 새로운 전략인 ScaleSearch를 제안합니다. ScaleSearch는 미세 조정 검색을 통해 가수부 비트(mantissa bits)를 활용하여 스케일을 결정하고, 이를 기존 PTQ 및 저정밀도 어텐션 방법론에 통합함으로써 성능 향상을 입증했습니다.
Pion: 직교 동등 변환 (Orthogonal Equivalence Transformation)을 통한 스펙트럼 보존 옵티마이저
Pion은 직교 동등 변환(Orthogonal Equivalence Transformation)에 기반한 스펙트럼 보존 옵티마이저로, LLM 학습의 효율성을 높이기 위해 설계되었습니다. 기존 가산적 옵티마이저와 달리, Pion은 좌우 직교 변환을 통해 각 가중치 행렬의 특이값과 스펙트럼 노름을 유지하면서 최적화를 수행합니다. 이 메커니즘은 LLM 사전 학습 및 미세 조정 과정에서 안정적이고 경쟁력 있는 성능을 보여줍니다.
우주 속의 이야기: 개념적 신념 공간에서의 인컨텍스트 학습 (In-Context Learning) 궤적
본 연구는 대규모 언어 모델(LLMs)의 인컨텍스트 학습(in-context learning) 과정을 단순한 추론이 아닌, 저차원의 '개념적 신념 공간'을 따라 이동하는 궤적으로 해석합니다. LLMs가 문맥에 따라 자신의 지식을 업데이트하는 과정은 이 기하학적 공간에서의 신념 변화를 의미하며, 이는 베이지안 추론의 한 형태로 간주됩니다. 연구진은 행동 분석과 내부 표현 분석을 결합하여 이러한 신념 궤적을 규명하고, 이를 조작함으로써 LLMs의 작동 원리에 대한 새로운 기하학적 이해를 제시합니다.
RightNow-AI/openfang
OpenFang는 Rust로 구축된 오픈소스 Agent Operating System(에이전트 운영체제)으로, 단순한 챗봇 프레임워크나 Python wrapper를 넘어선 시스템입니다. 이 OS는 HAND.toml 매니페스트, 다단계 시스템 프롬프트, SKILL.md 전문 지식 참조, 그리고 Guardrails 같은 구조화된 요소를 통해 복잡하고 검증된 자동화 작업을 수행합니다. Clip(영상 편집/게시), Lead(잠재 고객 발굴), Collector(OSINT 모니터링), Predictor(슈퍼포캐스팅 예측), Researcher(심층 연구), Twitter(자율 계정 관리) 등 6가지의 고도로 전문화된 'Hand'를 제공하며, 이들은 모두 바이너리 형태로 컴파일되어 즉시 작동합니다. 특히 Browser Hand는 구매 전 명시적인 승인 게이트를 두어 안전성을 확보했습니다.
ToolCUA: Computer Use Agent를 위한 최적의 GUI-Tool 경로 오케스트레이션(Orchestration)을 향하여
본 논문은 Computer Use Agents (CUAs)가 직면하는 하이브리드 액션 공간(GUI 액션과 도구 호출)의 불확실성을 해결하기 위해 ToolCUA라는 엔드투엔드 에이전트를 제안합니다. ToolCUA는 인터리브드 GUI-Tool 궤적 스케일링 파이프라인을 통해 다양한 학습 데이터를 확보하고, 워밍업 SFT와 단일 턴 RL을 결합하여 중요한 전환 시점의 의사결정을 개선합니다. 최종적으로 도구 효율성 보상을 이용한 Online Agentic RL을 통해 최적화된 ToolCUA는 OSWorld-MCP에서 높은 정확도를 달성하며 효과적인 GUI-Tool 오케스트레이션을 입증했습니다.
GRPO와 On-Policy Distillation을 넘어: 언어 모델 사후 학습을 위한 경험적 Sparse-to-Dense 보상 원칙
본 기사는 언어 모델 사후 학습 시 데이터 할당의 효율성을 높이는 '보상 밀도(reward-density)' 원칙을 제시합니다. 기존 방식이 간과했던 이 원칙은 희소한 시퀀스 수준 보상은 탐색에, 조밀한 토큰 수준 교사 보상은 행동 압축에 사용해야 함을 강조합니다. 연구진은 Qwen3 및 Llama 모델을 사용하여 검증 가능한 수학 문제에서 '브릿지(Bridge)'를 통한 증류 방식이 기존의 직접적인 GRPO보다 성능이 우수하며, 특히 학생 측 희소 RL 적용 전후로 그 효과가 극대화됨을 입증했습니다.
빠르고 느린 학습: 지속적으로 적응하는 LLM을 향하여
본 글은 LLM의 적응성 문제를 다루며, 기존의 파라미터 업데이트 방식(치명적 망각 위험)과 인컨텍스트 학습(성능 한계)의 단점을 극복하는 새로운 'fast-slow 학습 프레임워크'를 제안합니다. 이 프레임워크는 모델 매개변수를 '느린 가중치'(Slow Weights, 일반 추론 담당)와 최적화된 컨텍스트로부터 학습되는 '빠른 가중치'(Fast Weights, 태스크 특화 정보 흡수 담당)로 분리하여 관리합니다. Fast-Slow Training (FST)은 높은 샘플 효율성과 성능 점근선을 유지하면서도 치명적 망각을 최소화하고 지속적인 학습 능력을 보존하는 것이 핵심입니다.
사후 분석: TanStack NPM 공급망 침해
2026년 5월 11일, 공격자가 @tanstack/* npm 패키지 42개에 걸쳐 84개의 악성 버전을 게시하는 대규모 공급망 침해 사건이 발생했습니다. 이 공격은 PR 포크 코드 실행, 기본 저장소 캐시 접근, 그리고 릴리스 워크플로우의 `id-token: write` 권한을 연결하는 세 가지 취약점을 체인으로 활용하여 성공했습니다. 탐지는 StepSecurity 소속 외부 연구원 ashishkurmi가 침해 발생 후 약 20분 만에 상세 분석 이슈를 제기하면서 이루어졌으며, 이는 공급망 보안의 중요성을 다시 한번 강조합니다.
진짜 신도구
Anthropic이 'claude-for-legal'을 오픈소스로 공개하며 법률 분야의 AI 혁신을 예고했습니다. 이 도구는 계약서 위험 추출, NDA 분류, 변경 이력 추적 등 복잡한 법무 작업을 자동화할 수 있습니다. 특히 12개 전문 분야와 80개 이상의 에이전트를 탑재하고 있으며, Slack이나 DocuSign 같은 기존 업무 도구와 직접 연동하여 활용성이 높습니다.
jcode, 14ms 만에 시작하고 임베딩 (embedding) 없이 27 MB의 RAM을 사용하는 커맨드 라인 코딩 에이전트 — 동일
jcode는 매우 가볍고 효율적인 커맨드 라인(CLI) 코딩 에이전트로, 단 14ms 만에 시작할 수 있으며 임베딩 없이도 작동합니다. 이 에이전트는 메모리 사용량이 극히 낮아 27 MB의 RAM만 사용하며, 동일 세션에서 386 MB를 사용하는 Claude Code와 비교될 만큼 효율적입니다.
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.