본문으로 건너뛰기

© 2026 Molayo

Insights

AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.

Zenn헤드라인

Microsoft Agent Framework의 Magentic을 시도해 보았다 (C# ver 1.5.0 확인)

본 기사는 Microsoft Agent Framework v1.5.0에서 멀티 에이전트 오케스트레이션 패턴인 Magentic을 로컬 LLM(LM Studio)과 함께 시험적으로 사용한 경험을 다룹니다. Magentic은 전용 매니저가 공유 컨텍스트를 기반으로 다음에 움직일 에이전트를 선택하고, 필요에 따라 재계획하는 방식으로 복잡한 태스크 처리에 적합합니다. .NET 버전에서는 특정 예외(`System.InvalidOperationException`)로 인해 최종 답변 도출에는 실패했으나, Fact Sheet 생성, 역할 분담 계획 수립, Human Review 단계 등 Magentic의 핵심 작동 원리를 성공적으로 관찰할 수 있었습니다.

multi-agentorchestrationmicrosoft-agent-framework
1일 전4
CNBC헤드라인

OpenAI 재판: Nadella, Musk가 Microsoft의 OpenAI 투자에 대해 우려를 표한 적 없다고 증언

Satya Nadella(Microsoft CEO)는 Musk 대 Altman 재판에서 증언하며, Elon Musk가 Microsoft의 OpenAI 투자와 관련하여 특별한 우려를 제기하거나 연락한 적이 없다고 진술했습니다. 그는 Microsoft와 OpenAI 간의 파트너십에 상업적 요소가 명확했으며, 초기부터 컴퓨팅 자원 할인 등 실질적인 비즈니스 이익을 얻었음을 강조했습니다. Nadella는 Altman 해임 당시 상황에 대해 '아마추어 같은' 상황이었다고 평가하며, 더 깊이 있는 정보와 설명이 부족했다고 언급했습니다.

openaimicrosoftsatya nadella
1일 전2
arXiv논문

$δ$-mem: Large Language Models를 위한 효율적인 온라인 메모리

LLM이 장기 정보 축적 및 에이전트 시스템에서 효율적으로 작동하기 위해 $δ$-mem이라는 경량 메모리 메커니즘을 제안합니다. 이 방법은 고정된 Full-attention 백본을 델타 규칙 학습으로 업데이트되는 고정 크기의 상태 행렬로 보강하여 과거 정보를 압축합니다. $δ$-mem은 생성 과정 중 어텐션 계산에 저차원 수정을 적용함으로써, 적은 메모리 상태만으로도 기존 모델 대비 높은 성능 향상을 달성하며 특히 메모리 집약적인 벤치마크에서 큰 이점을 보여줍니다.

llmmemory-mechanismassociative-memory
1일 전4
Zenn헤드라인

C-3PO, 자기 관측과 학습의 고리를 닫다 ── DuckDB와 Thompson Sampling으로 v1.0을 넘어선 이야기

본 기사는 AI 에이전트 시스템 C3가 '자기 관측(Self-observation) → 학습(Learning) → 행동 변경(Behavior Change)'의 완전한 루프를 구축하는 과정을 다룹니다. 이전 단계에서 서브 에이전트에 기억 기능을 부여하고, 비밀 정보 탐지 및 코드 품질 스캔 같은 훅을 추가하여 데이터를 수집했습니다. 이후 DuckDB 하이브리드 구성을 통해 모든 관측 데이터를 단일 스토어에 집약함으로써, 학습과 행동 변경의 기반을 마련했습니다.

ai-agentsself-observationduckdb
1일 전1
arXiv논문

MetaColloc: 메타 학습된 기저 함수를 통한 최적화가 필요 없는 PDE 풀이

MetaColloc는 편미분 방정식(PDEs)을 푸는 과정에서 발생하는 느린 최적화 과정을 제거하는 혁신적인 프레임워크입니다. 이 시스템은 기저 발견 과정을 풀이 단계와 분리하고, 다양한 Gaussian Random Fields 상에서 듀얼-브랜치 신경망을 메타 학습하여 범용 사전(universal dictionary)의 신경망 기저 함수를 생성합니다. 테스트 시점에는 네트워크를 동결한 후 콜로케이션 행렬과 선형 최소제곱법을 사용하여 PDE 해를 찾으며, 이는 높은 정확도와 계산 효율성을 동시에 달성합니다.

pdesmachine-learningmeta-learning
1일 전1
arXiv논문

당신의 Block Floating Point Scale을 검색하세요!

본 연구는 생성 모델 추론 가속화를 위한 표준 기술인 양자화(Quantization)의 한계를 극복하고자 합니다. 기존 BFP 스케일 선택 방식이 최적화되지 않을 수 있다는 문제점을 지적하며, 주어진 분포에서 양자화 오차를 최소화하는 새로운 전략인 ScaleSearch를 제안합니다. ScaleSearch는 미세 조정 검색을 통해 가수부 비트(mantissa bits)를 활용하여 스케일을 결정하고, 이를 기존 PTQ 및 저정밀도 어텐션 방법론에 통합함으로써 성능 향상을 입증했습니다.

quantizationblock-floating-pointllm-optimization
1일 전3
arXiv논문

Pion: 직교 동등 변환 (Orthogonal Equivalence Transformation)을 통한 스펙트럼 보존 옵티마이저

Pion은 직교 동등 변환(Orthogonal Equivalence Transformation)에 기반한 스펙트럼 보존 옵티마이저로, LLM 학습의 효율성을 높이기 위해 설계되었습니다. 기존 가산적 옵티마이저와 달리, Pion은 좌우 직교 변환을 통해 각 가중치 행렬의 특이값과 스펙트럼 노름을 유지하면서 최적화를 수행합니다. 이 메커니즘은 LLM 사전 학습 및 미세 조정 과정에서 안정적이고 경쟁력 있는 성능을 보여줍니다.

llmoptimizerorthogonal-transformation
1일 전2
arXiv논문

우주 속의 이야기: 개념적 신념 공간에서의 인컨텍스트 학습 (In-Context Learning) 궤적

본 연구는 대규모 언어 모델(LLMs)의 인컨텍스트 학습(in-context learning) 과정을 단순한 추론이 아닌, 저차원의 '개념적 신념 공간'을 따라 이동하는 궤적으로 해석합니다. LLMs가 문맥에 따라 자신의 지식을 업데이트하는 과정은 이 기하학적 공간에서의 신념 변화를 의미하며, 이는 베이지안 추론의 한 형태로 간주됩니다. 연구진은 행동 분석과 내부 표현 분석을 결합하여 이러한 신념 궤적을 규명하고, 이를 조작함으로써 LLMs의 작동 원리에 대한 새로운 기하학적 이해를 제시합니다.

llmsin-context-learningbayesian-inference
1일 전3
GH Trending릴리즈

RightNow-AI/openfang

OpenFang는 Rust로 구축된 오픈소스 Agent Operating System(에이전트 운영체제)으로, 단순한 챗봇 프레임워크나 Python wrapper를 넘어선 시스템입니다. 이 OS는 HAND.toml 매니페스트, 다단계 시스템 프롬프트, SKILL.md 전문 지식 참조, 그리고 Guardrails 같은 구조화된 요소를 통해 복잡하고 검증된 자동화 작업을 수행합니다. Clip(영상 편집/게시), Lead(잠재 고객 발굴), Collector(OSINT 모니터링), Predictor(슈퍼포캐스팅 예측), Researcher(심층 연구), Twitter(자율 계정 관리) 등 6가지의 고도로 전문화된 'Hand'를 제공하며, 이들은 모두 바이너리 형태로 컴파일되어 즉시 작동합니다. 특히 Browser Hand는 구매 전 명시적인 승인 게이트를 두어 안전성을 확보했습니다.

agent-osrustllm-agents
1일 전2
arXiv논문

ToolCUA: Computer Use Agent를 위한 최적의 GUI-Tool 경로 오케스트레이션(Orchestration)을 향하여

본 논문은 Computer Use Agents (CUAs)가 직면하는 하이브리드 액션 공간(GUI 액션과 도구 호출)의 불확실성을 해결하기 위해 ToolCUA라는 엔드투엔드 에이전트를 제안합니다. ToolCUA는 인터리브드 GUI-Tool 궤적 스케일링 파이프라인을 통해 다양한 학습 데이터를 확보하고, 워밍업 SFT와 단일 턴 RL을 결합하여 중요한 전환 시점의 의사결정을 개선합니다. 최종적으로 도구 효율성 보상을 이용한 Online Agentic RL을 통해 최적화된 ToolCUA는 OSWorld-MCP에서 높은 정확도를 달성하며 효과적인 GUI-Tool 오케스트레이션을 입증했습니다.

computer-use-agentsgui-tool-orchestrationagentic-rl
1일 전1
arXiv논문

GRPO와 On-Policy Distillation을 넘어: 언어 모델 사후 학습을 위한 경험적 Sparse-to-Dense 보상 원칙

본 기사는 언어 모델 사후 학습 시 데이터 할당의 효율성을 높이는 '보상 밀도(reward-density)' 원칙을 제시합니다. 기존 방식이 간과했던 이 원칙은 희소한 시퀀스 수준 보상은 탐색에, 조밀한 토큰 수준 교사 보상은 행동 압축에 사용해야 함을 강조합니다. 연구진은 Qwen3 및 Llama 모델을 사용하여 검증 가능한 수학 문제에서 '브릿지(Bridge)'를 통한 증류 방식이 기존의 직접적인 GRPO보다 성능이 우수하며, 특히 학생 측 희소 RL 적용 전후로 그 효과가 극대화됨을 입증했습니다.

rl-fine-tuningreward-densityknowledge-distillation
1일 전3
arXiv논문

빠르고 느린 학습: 지속적으로 적응하는 LLM을 향하여

본 글은 LLM의 적응성 문제를 다루며, 기존의 파라미터 업데이트 방식(치명적 망각 위험)과 인컨텍스트 학습(성능 한계)의 단점을 극복하는 새로운 'fast-slow 학습 프레임워크'를 제안합니다. 이 프레임워크는 모델 매개변수를 '느린 가중치'(Slow Weights, 일반 추론 담당)와 최적화된 컨텍스트로부터 학습되는 '빠른 가중치'(Fast Weights, 태스크 특화 정보 흡수 담당)로 분리하여 관리합니다. Fast-Slow Training (FST)은 높은 샘플 효율성과 성능 점근선을 유지하면서도 치명적 망각을 최소화하고 지속적인 학습 능력을 보존하는 것이 핵심입니다.

llmfast-slow-trainingcontinual-learning
1일 전3
HN분석

사후 분석: TanStack NPM 공급망 침해

2026년 5월 11일, 공격자가 @tanstack/* npm 패키지 42개에 걸쳐 84개의 악성 버전을 게시하는 대규모 공급망 침해 사건이 발생했습니다. 이 공격은 PR 포크 코드 실행, 기본 저장소 캐시 접근, 그리고 릴리스 워크플로우의 `id-token: write` 권한을 연결하는 세 가지 취약점을 체인으로 활용하여 성공했습니다. 탐지는 StepSecurity 소속 외부 연구원 ashishkurmi가 침해 발생 후 약 20분 만에 상세 분석 이슈를 제기하면서 이루어졌으며, 이는 공급망 보안의 중요성을 다시 한번 강조합니다.

npm-supply-chainsecurity-vulnerabilitygithub-actions
1일 전2
X요약

진짜 신도구

Anthropic이 'claude-for-legal'을 오픈소스로 공개하며 법률 분야의 AI 혁신을 예고했습니다. 이 도구는 계약서 위험 추출, NDA 분류, 변경 이력 추적 등 복잡한 법무 작업을 자동화할 수 있습니다. 특히 12개 전문 분야와 80개 이상의 에이전트를 탑재하고 있으며, Slack이나 DocuSign 같은 기존 업무 도구와 직접 연동하여 활용성이 높습니다.

anthropicclaude-for-legalai-models
1일 전3
X요약

jcode, 14ms 만에 시작하고 임베딩 (embedding) 없이 27 MB의 RAM을 사용하는 커맨드 라인 코딩 에이전트 — 동일

jcode는 매우 가볍고 효율적인 커맨드 라인(CLI) 코딩 에이전트로, 단 14ms 만에 시작할 수 있으며 임베딩 없이도 작동합니다. 이 에이전트는 메모리 사용량이 극히 낮아 27 MB의 RAM만 사용하며, 동일 세션에서 386 MB를 사용하는 Claude Code와 비교될 만큼 효율적입니다.

clicoding-agentlow-memory
1일 전2
HN분석

Show HN: Statewright – AI 에이전트를 신뢰할 수 있게 만드는 시각적 상태 머신 (Visual state machines)

Statewright는 AI 에이전트가 작업의 각 단계에서 사용할 수 있는 도구와 행동을 제어하는 시각적 상태 머신(Visual state machines) 기반의 가드레일입니다. 이 시스템은 워크플로를 정의하여 Claude Code, Codex 등 다양한 환경에 적용할 수 있으며, 모델에게 주어진 컨텍스트와 도구 공간을 제한함으로써 에이전트의 신뢰성과 안정성을 높입니다. 특히, 계획(planning), 구현(implementation), 테스트(testing) 등 단계별로 필요한 도구를 엄격하게 제한하고 전이 규칙을 강제하여, 모델이 무한 루프에 빠지거나 부적절한 작업을 수행하는 것을 방지합니다. 연구 결과에 따르면, Statewright는 로컬 모델의 성능을 크게 향상시키고 프런티어 모델에게 구조적인 이점을 제공하여 에이전트의 추론 능력을 안정화시킵니다.

ai-agentsstate-machinesguardrails
1일 전3
r/StableDiffusion분석

Scenema Audio: Zero-shot 표현력 있는 음성 복제 및 음성 생성

Scenema Audio는 감정적 연기(emotional performance)와 목소리 정체성(voice identity)을 분리하여, 사용자가 원하는 어떤 감정도 특정 목소리로 구현할 수 있는 확산 모델 기반의 음성 생성 시스템입니다. 이 모델은 텍스트-음성 변환(TTS) 파이프라인 대신 확산 모델을 사용하여 매우 자연스럽고 로봇 같지 않은 고품질의 감정 표현을 제공합니다. 또한, Scenema Audio로 생성된 오디오는 A2V(Audio-to-Video) 파이프라인에 입력되어 음성에 맞는 비디오를 만드는 '오디오 우선' 워크플로우 구축에 활용될 수 있습니다. 개발 편의성을 위해 Docker REST API 형태로 제공되며, 향후 ComfyUI 노드 지원도 계획하고 있습니다.

audio-generationdiffusion-modeltts
1일 전3
arXiv논문

생성 시점의 확률 신호(Generation-Time Probability Signals)를 사용하지 않는 LLM-as-a-Judge 난이도

본 연구는 LLM-as-a-Judge가 생성한 난이도 등급 중 인간 평가자(Human Raters)와 불일치할 가능성이 높은 항목을 사전에 예측하고 재평가를 요청하는 방법을 제안합니다. 기존 방식과 달리, 이 방법은 LLM의 생성 시점 확률 신호에 의존하지 않고, 대신 난이도가 서열 척도라는 특성과 임베딩 공간의 기하학적 일관성을 활용하여 불일치 후보를 식별합니다. GPT-OSS-120B 및 Qwen3-235B-A22B 모델을 사용한 실험 결과, 제안된 방법이 기존 확률 기반 방식보다 높은 AUC로 인간 평가자와의 불일치를 예측하는 성능을 입증했습니다.

llm-as-a-judgedifficulty-assessmentordinal-scale
1일 전3
X요약

터미널, VS Code 또는 Discord를 통해 Claude Code를 무료로 사용하는 프록시 — Anthropic의 유료 계정 없이.

이 기사는 Anthropic의 유료 계정 없이 터미널, VS Code 또는 Discord와 같은 환경에서 Claude Code를 무료로 사용할 수 있는 프록시 사용법을 소개합니다. 다만, 이 방법은 Claude의 CGU(Code Usage Guidelines) 준수 여부나 작동 보장이 되지 않는다는 경고가 명시되어 있습니다.

claudeanthropicfree-access
1일 전5
OpenAI헤드라인

재무 팀이 Codex를 사용하는 방법

Codex는 재무 팀이 월간 비즈니스 리뷰(MBR), 보고, 차이 분석 및 계획 수립을 위해 필요한 자산 구축 과정을 혁신적으로 지원합니다. 이 도구를 사용하면 기존의 결산 워크북, 대시보드, 예측 업데이트 등 다양한 컨텍스트를 코딩 없이도 검토 가능한 실질적인 자산으로 전환할 수 있습니다. 이를 통해 재무 팀은 초안 작성에 소요되는 시간을 줄이고, 비즈니스 스토리 구성, 숫자 확인, 그리고 중요한 의사결정 준비에 더 많은 역량을 집중할 수 있게 됩니다.

financembrcodex
1일 전4

이 피드 구독하기

본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.