Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
실전 Local LLM 테스트: 코드 생성, 품질 vs 속도
이 글은 Local LLM을 활용하여 자율적으로 Go 코드를 작성하는 AI 에이전트를 구축하고 평가한 경험을 공유합니다. 특히 SIEM 파이프라인용 로그 파서 생성이라는 실제 사용 사례를 바탕으로, 모델의 코드 생성 품질과 처리 속도를 객관적으로 측정할 수 있는 테스트 하네스(harness)를 개발했습니다.
ton-blockchain/acton
Acton은 Rust 기반의 올인원 TON 스마트 컨트랙트 개발 툴킷으로, 프로젝트 스캐폴딩부터 빌드, 테스트, 배포, 디버깅까지 전체 컨트랙트 생명주기를 단일 CLI에서 지원합니다. 이 툴킷은 네이티브 속도를 제공하며, Tolk 우선 워크플로우와 dApp 개발을 위한 TypeScript 래퍼를 포함하고 있습니다. Acton은 빠른 테스트 러너, 포크 모드, 커버리지 및 퍼징 테스트 기능을 갖추고 있으며, 사용자는 설치 프로그램, 수동 다운로드 또는 Docker 컨테이너 방식을 통해 접근할 수 있습니다.
커뮤니티 안전을 위한 우리의 약속
본 기사는 ChatGPT와 같은 AI 모델이 폭력 및 위해 위험으로부터 커뮤니티를 보호하기 위해 취하고 있는 광범위한 안전 조치들을 설명합니다. OpenAI는 모델 훈련 과정에서 잠재적 위해 위험을 감지하도록 학습시키고, 사용자가 폭력을 계획하거나 실행하려는 시도를 방지하는 명확한 안전 경계를 설정하고 있습니다. 또한, 단순 메시지를 넘어선 대화의 패턴과 맥락까지 분석하며, 위기 상황에서는 사용자에게 전문적인 지원 자원을 안내하여 현실 세계의 도움으로 연결시키는 것을 목표로 합니다.
Google의 새로운 노트북 플랫폼 'Googlebook' 공개 행사 전 유출 — Android와 Google Gemini를 탑재하여
Google이 차세대 노트북 플랫폼 'Googlebook'의 존재를 유출했습니다. 이 플랫폼은 Android OS를 기반으로 하며, 기존 ChromeOS와 스마트폰용 Android 간의 기능적 격차를 해소하는 것을 목표로 합니다. 주요 특징으로는 Gemini 기반의 커스텀 위젯 생성, 문맥을 이해하는 'Magic Pointer', 그리고 상단에 내장되는 LED 스트립 형태의 'Glowbar' 등이 있습니다. Google은 이 기기들을 Asus, Dell 등 외부 PC 벤더들에게 제조를 맡길 예정이며, 이는 Android와 ChromeOS 통합이라는 내부적 노력을 반영합니다.
단어 임베딩 (Word Embedding) 학습
단어 임베딩은 텍스트 단어를 계산 가능한 저차원의 밀집(dense) 수치 벡터로 변환하는 기술입니다. 이는 원-핫 인코딩의 비효율성을 극복하고, 단어 간의 유사성이나 숨겨진 의미론적 관계를 벡터 공간에 효과적으로 표현할 수 있게 합니다. 학습 방식은 전역 동시 출현 행렬을 이용하는 '카운트 기반' 접근법과, 국소 문맥에서 타겟 단어를 예측하는 '문맥 기반' 접근법(예: Skip-gram)으로 나뉩니다.
전 Tesla CFO Deepak Ahuja, EV 배터리 재활용 기업 Redwood Materials 합류
전 Tesla 임원 Deepak Ahuja가 전기차(EV) 배터리 재활용 스타트업 Redwood Materials의 CFO로 합류했습니다. Ahuja는 과거 Tesla에서 재무 책임자로 근무한 경력이 있으며, 특히 JB Straubel과의 관계가 이번 이직에 큰 영향을 미쳤다고 밝혔습니다. Redwood Materials는 폐배터리에서 핵심 광물을 추출하고 '폐쇄 루프' 방식으로 에너지 자원을 순환시키는 사업을 진행하며, 현재 60억 달러 이상의 기업 가치를 보유한 것으로 알려졌습니다.
미생물군게놈 임베딩을 활용한 미생물 군집 풍부도 예측
본 연구는 미생물 공동체의 속성을 구성원들의 원시 DNA 서열만으로 예측할 수 있는지 탐구합니다. 세트 집계 게놈 임베딩(SAGE)과 게놈 언어 모델(GLMs)의 소수 샷 학습 능력을 활용하여, 미생물 공동체 수준의 풍부도 프로파일을 예측하는 새로운 접근 방식을 제시했습니다. 이 방법은 기존 생물정보학적 방법론 대비 개선된 일반화 성능을 보였으며, 공동체 수준 잠재 표현이 성능 향상에 기여함을 입증했습니다.
SoftBank, OpenAI에 대한 대규모 투자에 힘입어 Vision Fund에서 460억 달러 이익 기록
SoftBank는 OpenAI에 대한 대규모 투자 가치 상승 덕분에 Vision Fund에서 460억 달러의 높은 연간 이익을 기록했습니다. SoftBank는 AI 분야를 핵심 성장 동력으로 삼고 있으며, 특히 Sam Altman이 이끄는 OpenAI에 막대한 투자를 지속하고 있습니다. 다만, 이러한 OpenAI 집중도는 자산 유동성 및 재무 건전성에 대한 우려를 낳았고, S&P Global Ratings로부터 신용 등급 하향 조정(stable $\rightarrow$ negative)을 받기도 했습니다.
자율화되는 Agent와 「기억」의 벽: Claude Code /goal을 통해 생각하는 Memory Layer
Claude Code의 `/goal` 커맨드는 AI Agent를 단순 응답기에서 목표 구동형 자율 실행체로 진화시키며 개발자의 인지 부하를 줄여줍니다. 하지만 자율성이 높아질수록 컨텍스트 표류와 세션 간 상태 관리 부재라는 새로운 병목 현상이 발생하며, 이를 해결하기 위해 휘발되지 않는 장기 기억 인프라인 'Memory Layer'의 필요성이 대두됩니다.
사람들은 기업의 AI 도입이 느리다고 생각합니다:
기업의 AI 도입을 늦추는 주요 원인인 별도 계약, API 키 관리, 조달 절차의 복잡성을 해결하기 위해 AWS 상의 Claude platform이 GA(General Availability) 상태가 되었습니다. 이를 통해 AWS 고객은 기존의 인증, 빌링, 약정 시스템을 그대로 활용하며 Claude의 전체 기능을 즉시 사용할 수 있습니다.
다양한 전문가가 존재하는 환경에서의 온라인 학습-위임 (Online Learning-to-Defer)
본 논문은 배치 설정에 국한되었던 기존의 학습-위임(Learning-to-Defer) 방식을 스트리밍 데이터와 변화하는 전문가 환경으로 확장한 최초의 온라인 L2D 알고리즘을 제안합니다. 밴딧 피드백과 동적인 전문가 풀을 고려한 다중 클래스 분류 모델을 통해, 전문가의 가용성과 분포가 변하는 실제 배포 환경에서도 안정적인 성능을 보장합니다.
확장 가능한 Vision Transformers를 위한 Elastic Attention Cores
Vision Transformers(ViTs)의 고해상도 처리 시 발생하는 제곱 복잡도 문제를 해결하기 위해, 소수의 학습된 코어 토큰을 통해 정보를 교환하는 VECA(Visual Elastic Core Attention) 구조를 제안합니다. VECA는 패치 간 직접적인 상호작용 대신 코어를 통신 인터페이스로 활용하여 선형 시간 복잡도 $O(N)$을 달성하며, 추론 시 계산량과 정확도 사이의 탄력적인 조절이 가능합니다.
AWS에서의 Foundation Model 학습 및 추론을 위한 빌딩 블록 (Building Blocks)
파운데이션 모델의 성능 확장이 사전 학습을 넘어 사후 학습과 테스트 시간 컴퓨팅으로 진화함에 따라, 이를 뒷받침할 통합 인프라의 중요성이 커지고 있습니다. 본 글은 AWS 인프라와 오픈 소스 소프트웨어(OSS) 스택이 결합된 계층적 아키텍처를 통해 대규모 분산 학습 및 추론을 구현하는 핵심 빌딩 블록을 분석합니다.
속보: 누군가 당신을 실제로 이해하는 AI를 만들었습니다. 그리고 그것은 100% 당신의 기기에서 실행됩니다.
OpenHuman은 사용자의 이메일, 캘린더, 저장소, 문서, 메시지 등 다양한 데이터에 연결되어 사용자의 업무 환경을 이해하는 AI입니다. 이 시스템은 기기 내에 로컬 메모리 그래프를 구축하여 방대한 컨텍스트를 로컬 환경에서 직접 처리합니다.
AI 에이전트 시대에 영지식 증명이 필요한 이유
영지식 증명(ZKP)의 개념과 원리를 설명하고, 이것이 AI 에이전트 시대에 왜 필수적인지 분석합니다. 영지식 증명은 비밀 정보를 공개하지 않고도 그 정보의 진위 여부를 증명하는 기술로, 블록체인에서는 스케일링과 프라이버시 보호를 위해 활용됩니다.
Alibaba, 이익 급감에도 불구하고 AI 투자에 대한 낙관적 태도에 주가 급등
Alibaba는 3월 분기 조정 EBITA가 전년 대비 84% 감소하는 실적 악화를 겪었음에도 불구하고, AI에 대한 강력한 투자 의지와 낙관적인 전망에 힘입어 주가가 급등했습니다. 회사는 자체 AI 모델인 Qwen과 AI 칩 개발을 통해 클라우드 부문의 성장을 가속화하고 있으며, AI 관련 매출의 지속적인 성장을 목표로 하고 있습니다.
--n-cpu-moe로 부분 오프로드된 모델의 프롬프트 처리 속도를 획기적으로 개선하기
llama.cpp를 사용하여 RTX 3090 환경에서 gpt-oss-120b 모델을 구동할 때, --n-cpu-moe 설정을 높여 MoE 레이어를 CPU로 오프로드하면 더 큰 ubatch 크기를 사용할 수 있습니다. 이를 통해 프롬프트 처리(prefill) 속도를 최대 8.7배까지 획기적으로 향상시킬 수 있으나, 토큰 생성 속도는 약간 감소하는 트레이드오프가 발생합니다.
Mind the Pause: LLM을 이용한 다국어 음성 교정을 위한 비유창성 인지 목적 함수 튜닝
본 논문은 ASR 전사 데이터에 포함된 비유창성(fillers, repetitions 등)을 효과적으로 제거하기 위해 LLM의 지시어 미세 조정과 대조 학습을 결합한 다국어 교정 파이프라인을 제안합니다. 기존의 단순 탐지 방식이 문법적 일관성을 해치는 문제를 해결하기 위해, 시퀀스 태거의 신호를 활용하여 텍스트를 유창하게 재작성하며 비유창한 토큰의 재현에 페널티를 부여합니다. 인도 3개 언어 실험을 통해 기존 베이스라인 대비 우수한 성능과 문법적/의미적 보존 능력을 입증했습니다.
KAN-CL: Kolmogorov-Arnold Networks를 이용한 지속 학습 (Continual Learning)을 위한 매듭별 중요도
KAN-CL은 Kolmogorov-Arnold Networks(KANs)의 스플라인 파라미터화 특성을 활용하여 지속 학습 시 발생하는 치명적 망각 문제를 해결하는 새로운 프레임워크입니다. 매듭(Knot) 단위의 세밀한 중요도 가중 앵커링과 백본 정규화(bbEWC)를 결합하여, 기존 방식 대비 망각을 획기적으로 감소시키고 높은 정확도를 유지합니다.
Grammi의 영문 해석이 왜 「하이브리드 방식 (Rule x AI)」인지 해설
영어 학습 서비스 Grammi는 AI 단독 방식의 불안정성과 룰 기반 방식의 의미 해석 한계를 극복하기 위해 하이브리드 엔진을 채택했습니다. spaCy를 통해 문장의 구조적 골격을 먼저 추출한 뒤, Claude와 같은 AI가 이를 검증하고 교육적인 해설을 덧붙이는 2단계 파이프라인을 구축하여 분석의 안정성과 풍부한 해설을 동시에 확보했습니다.
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.