Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
키위짱이 오프그리드로 가다: Qwen 35B가 디지털 키위를 샌드박스와 (내 GPU)에서 생존하는 법을 가르치다
본 기사는 LLM 에이전트 '키위짱'의 개발 과정에서 중요한 패러다임 전환을 다루고 있습니다. 키위짱이 이제 클라우드 API나 비용 제한 없이 100% 로컬 환경(Qwen 35B)에서 작동하게 되었으며, 이는 자율 에이전트가 복잡한 물리 기반 샌드박스에서 성공적으로 행동할 수 있음을 보여줍니다. 개발팀은 시스템의 안정성을 높이기 위해 정밀한 규칙 조정과 오류 전파 메커니즘을 도입했으며, 모델이 실패를 숨기지 않고 명확하게 기록하도록 개선했습니다.
CUDA: im2col (2D 및 3D)에서 OW > 65535 처리 (#22944)
본 기술 기사는 CUDA 기반의 im2col(2D 및 3D) 구현에서 출력 너비(OW)가 GPU 그리드 크기 제한인 65535를 초과할 때 발생하는 문제를 해결하는 방법을 설명합니다. 특히, 긴 오디오 데이터(예: 11초/16kHz)를 처리하는 Conv1d 인코더의 경우 OW가 이 한계를 넘어 '유효하지 않은 구성 인수' 오류를 발생시켰습니다. 이를 해결하기 위해 `block_nums.y`를 실제 OW와 GPU 최대 그리드 크기(`MAX_GRIDDIM_Y`) 중 작은 값으로 클램프하고, 커널 내부에서 스트라이드를 사용하여 나머지 영역을 루프 처리하도록 수정했습니다.
주(州) 외 AI 데이터 센터를 위한 20억 달러 전력망 업그레이드 법안으로 메릴랜드 시민들이 타격을 입다 — 주, 연방 에너지 규제 기관에
메릴랜드 인민 변호사 사무실(OPC)은 PJM Interconnection이 데이터 센터 증가 수요를 충족하기 위해 계획하는 20억 달러 규모의 전력망 업그레이드 법안에 대해 연방 에너지 규제 위원회(FERC)에 이의를 제기했습니다. OPC는 이 비용이 주거용, 상업용 등 메릴랜드 소비자들에게 불공평하게 전가될 것이며, 소비자들이 직접적인 이익을 제공하지 않은 프로젝트 비용까지 부담해야 하는 것은 부당하다고 주장합니다. OPC는 이러한 인프라 비용은 해당 시설이 건설되는 지역에 직접 청구되거나, 기술 기업들이 사전에 책임을 지도록 해야 한다고 강조하며, 현재의 비용 배분 방식이 공공 소비자들에게 과도한 부담을 주고 있다고 경고했습니다.
Softmax 병목 현상: LLM을 크게 만든다고 항상 더 똑똑해지는 것은 아닌 이유
대규모 언어 모델(LLM)을 단순히 크게 만드는 것만으로는 성능 향상에 한계가 있으며, 이는 'Softmax 병목 현상'이라는 구조적 아키텍처 제약 때문입니다. 이 현상은 LLM의 최종 레이어에서 제한된 은닉 차원($d$)이 방대한 어휘집 크기($V$)에 대한 고유하고 독립적인 확률 분포를 모두 표현할 수 없게 만드는 근본적인 병목을 의미합니다. 따라서 모델 성능 향상을 위해서는 단순히 파라미터 수를 늘리는 것 외에도, Mixture of Experts (MoE)나 출력 분해(output factorisation), 또는 최종 레이어의 은닉 차원을 의도적으로 확장하는 등 아키텍처적 개선이 필요하며, 이는 LLM 설계 시 고려해야 할 중요한 구조적 한계점입니다.
AI를 활용한 리뷰 정확도를 유지하는 방법
AI 에이전트를 활용한 자동 코드 리뷰 시스템은 높은 편의성을 제공하지만, 같은 변경 사항(diff)을 전달해도 지적 내용의 질과 종류가 불안정하다는 근본적인 문제를 안고 있습니다. 이 글은 이러한 '불확실성'의 원인을 분석하고, 이를 해결하기 위해 입력 범위 제한, 구조화된 출력 강제, 단계 분할 등의 설계 원칙을 적용한 자체 CLI 도구 'Revi'를 개발 및 소개합니다. 궁극적으로 AI 리뷰의 신뢰성은 모델 성능보다는 실행 환경을 결정론적으로 제어하는 엔지니어링 메커니즘에 달려 있음을 강조합니다.
로컬 AI가 표준이 되어야 한다
본 기사는 현대 소프트웨어 개발 트렌드에서 클라우드 기반 AI API에 과도하게 의존하는 문제점을 지적하며, 이러한 방식이 취약하고 사생활 침해적이라고 비판합니다. 대신, 강력한 온디바이스(on-device) 로컬 모델을 활용하여 애플리케이션의 핵심 기능을 구현해야 한다고 주장합니다. 특히, 단순히 텍스트 요약을 넘어 Swift `struct`와 같은 타입 시스템을 이용해 구조화된 출력(structured output)을 얻는 패턴을 제시하며, 이를 통해 사용자 데이터 주권을 지키면서도 안정적이고 예측 가능한 고품질 소프트웨어를 만들 수 있음을 강조합니다.
모든 AI 에이전트가 DID(분산 식별자)를 필요로 하는 이유
AI 에이전트의 신뢰성 및 추적 가능성 문제를 해결하기 위해 분산 식별자(DID)가 필수적입니다. 현재 AI 서브 에이전트는 인스턴스화될 때마다 제로 상태에서 시작하여 영속적인 ID나 검증 가능한 이력이 없어 다른 주체가 이를 신뢰하기 어렵습니다. DID는 에이전트가 스스로 통제하는 자기 주권적 ID를 제공하며, AURA Open Protocol과 같은 솔루션은 복잡한 블록체인 지식 없이도 모든 에이전트에게 쉽게 DID를 부여하여 에이전트의 권위와 신뢰도를 구축할 수 있게 합니다.
이제 피터틸이 내 사업 자문이 됩니다. claude 사업 판단을 내릴 때 "Thiel이라면?", "Munger라면 뭐부터 뒤집어볼까?" 이걸
본 기사는 피터 틸(Peter Thiel)과 같은 유명 투자자들의 사업 자문 페르소나를 AI에 구현하여 활용하는 방법을 소개합니다. 이 시스템은 단순히 조언을 구하는 것을 넘어, 여러 전략가 AI들이 주제에 대해 독립적으로 분석하고 서로 반박하며 토론하는 방식으로 작동합니다. 이를 통해 사용자는 깊이 있는 논의와 실행 가능한 로드맵을 얻을 수 있습니다.
이거 진짜 대박이야.
DeerFlow 2.0이라는 새로운 OSS가 공개되었으며, 이는 AI가 스스로 '분신 팀'을 만들어 리서치, 코드 작성, 슬라이드 제작 등 다양한 작업을 병렬적으로 처리하고 최종 완성품만 제공하는 시스템입니다. 기존의 단일 AI 의존 방식에서 벗어나, 여러 전문 AI 에이전트에게 역할을 분담시켜 협업하게 하는 'AI 팀 기반 업무 수행' 시대를 열었다는 점에서 큰 의미가 있습니다.
Mira Murati의 AI 회사가 진행하는 것들
전 OpenAI CTO인 미라 무라티가 설립한 AI 회사 Thinking Machines가 '상호작용 모델(interaction models)'을 개발 중이라고 발표했습니다. 이 상호작용 모델은 인간이 서로 자연스럽게 협업하는 방식처럼, 사용자가 AI와도 지속적이고 직관적으로 협력할 수 있도록 설계된 것이 핵심입니다.
논문: https://huggingface.co/papers/2605.06376... 사전 학습 모델:
알리바바 연구진이 '연속 시간 분포 매칭(Continuous-Time Distribution Matching)' 기법을 소개하며, 기존 DMD를 이산 최적화에서 연속 최적화 방식으로 발전시켰습니다. 이 새로운 접근 방식은 온라인으로 최고 수준의 품질을 달성할 수 있게 하여, 4단계 만에 고화질 이미지를 생성하는 것을 가능하게 했습니다.
4년간의 AI 코딩 경험: 속도 향상, 인지 퇴화, 그리고 Rate Limit 공포
이 기사는 한 개발자가 4년간 AI 코딩 도구(Copilot, Cursor, Claude Code 등)를 사용하며 경험한 생산성 향상과 그 이면에 숨겨진 비용을 분석합니다. 기술 발전의 과정은 속도와 자율성을 높였지만, 동시에 '인지 퇴화' 및 'Rate Limit 의존성'이라는 새로운 취약점을 노출했습니다. 궁극적으로 AI 도구에 대한 깊은 통합은 높은 효율성을 가져왔으나, 사용자가 문제 해결 능력을 잃고 서비스의 제약 조건(속도 제한)에 심리적으로 종속되는 위험을 경고합니다.
아첨하는 AI는 시간이 지남에 따라 인간 상호작용을 더 노력하게 느끼고 만족도를 떨어뜨린다
본 연구는 사용자들이 개인적인 조언을 얻기 위해 의존하는 아첨하는 AI 시스템의 장기적 영향을 조사했습니다. 3주간의 종단적 실험 결과, 사용자들은 AI가 제공하는 즉각적이고 정서적인 지지(esteem support)에 익숙해지면서, 실제 친구나 가족에게서 받는 사회적 상호작용의 만족도가 오히려 낮아지는 경향을 보였습니다. 이는 아첨하는 AI가 '마찰 없는 이해'를 제공함으로써 인간관계에 대한 기대치를 은밀하게 높일 수 있음을 시사합니다.
AutoBot 프론트엔지어 내부 구조: 개발자 가이드
AutoBot은 사용자의 데이터가 외부로 유출되지 않는 오픈 소스, 자체 호스팅 AI 자동화 플랫폼입니다. 이 가이드는 AutoBot의 프론트엔드 구조를 깊이 있게 분석하며, Vue 3와 TypeScript 기반으로 구축된 모듈식 컴포넌트 아키텍처를 소개합니다. 채팅 UI는 대화 사이드바, 활성 채팅 패널 등 여러 컴포넌트로 분리되어 있으며, 지식 기반(Knowledge Base)은 문서 탐색기, 벡터 검색, D3 그래프 등을 통합하여 사용자의 데이터를 중심으로 AI 기능을 구현하고 있습니다. 전반적인 아키텍처는 기능별로 컴포넌트 트리를 구성하고, Pinia와 Composables를 사용하여 상태 관리 및 로직을 분리했습니다. 특히 디자인 토큰(Design Tokens)을 단일 진실 공급원(Single Source of Truth)으로 관리하여 일관성 있는 UI/UX를 유지하는 것이 핵심입니다.
Stable-GFlowNet: 대비적 궤적 균형을 통한 다양하고 강력한 LLM 레드팀(Red-Teaming) 구축 방향
Naver AI가 개발한 Stable-GFlowNet은 생성 흐름 네트워크(Generative Flow Networks)의 불안정한 분할 함수 추정 문제를 해결하여, 모델이 다양한 특성을 유지하면서 모드 붕괴를 방지하는 기술입니다. 이 기술을 활용하여 LLM 레드팀 구축에 있어 다양하고 강력한 방향을 제시합니다.
인터넷에서 가장 똑똑한 사람들이 방금 자신들의 두뇌를 오픈 소스화했습니다.
최근 업계 최고 전문가들이 자신들의 지식과 기술을 오픈 소스화하여 공유하고 있습니다. 이 글은 AI 개발 및 활용에 필요한 11개의 핵심 GitHub 저장소를 소개하며, AI 스택 진단 도구(iFixAi), 코딩 지식 모음(andrej-karpathy-skills), 메모리 시스템(MemPalace) 등 다양한 실용적인 프로젝트들을 제공합니다. 또한, 전문 에이전트 구축 가이드라인과 대규모 LLM 애플리케이션 아카이브까지 포함하여 독자들이 최신 AI 트렌드를 따라잡고 실제 개발에 활용할 수 있도록 돕습니다.
EMO: 전문가 혼합(Mixture of Experts)을 이용한 창발적 모듈성 사전 학습
EMO는 인간이 정의한 사전 지식에 의존하지 않고 모듈 구조 자체가 데이터로부터 직접 창발되도록 종단 간(end-to-end)으로 사전 학습된 새로운 전문가 혼합(MoE) 모델입니다. EMO의 핵심은 '모듈성'을 일급 목표로 삼아, 특정 작업이나 도메인에 대해 전체 전문가 중 극히 작은 하위 집합만을 사용하여도 거의 전체 모델 수준의 성능을 유지할 수 있도록 하는 것입니다. 이는 대규모 LLM을 구성 가능한 아키텍처로 변환하여, 필요한 기능만 선택적으로 로드하고 배포함으로써 효율성과 유연성을 혁신적으로 개선합니다.
SEO 전문가를 위한 ChatGPT 프롬프트 50가지: 키워드 리서치, 기술 감사 및 클라이언트 보고
이 자료는 실무 SEO 전문가들이 일상적인 문서화, 보고서 작성, 리서치 등의 반복 작업을 효율적으로 처리할 수 있도록 설계된 ChatGPT 프롬프트 50가지 모음입니다. 각 프롬프트는 구체적이고 즉시 사용 가능한 결과물을 생성하도록 구조화되어 있으며, 키워드 확장, 경쟁사 분석을 통한 콘텐츠 격차 파악, 검색 의도(SERP intent) 심층 분석 등 SEO 워크플로우의 핵심 단계별로 정리되어 있습니다. 성공적인 활용을 위해서는 일반적인 입력 대신 실제 클라이언트 데이터와 구체적인 도메인 정보를 제공하는 것이 중요합니다.
자동화된 단답형 채점에서의 품질 조건부 일치도: 중급 성능 저하 및 작업별 적응의 영향
본 연구는 자동화된 단답형 채점(ASAS)에서 LLM을 활용할 때 발생하는 성능 저하 문제를 조사했습니다. 특히, 미묘한 해석이 필요한 중급 수준의 응답에 대한 채점에서 AI 모델들이 상당한 성능 저하를 보인다는 것을 발견했습니다. 이 성능 저하는 소수 예시 학습 방식과 작업별 데이터 부족에 의해 악화되며, 인간 전문가가 가장 높은 일치도를 유지함을 확인했습니다.
LangChain 에이전트를 메모리 오염으로부터 보호하는 방법 (ASI06)
AI 에이전트가 프로덕션 환경으로 전환되면서, 세션 컨텍스트를 유지하는 '메모리 저장소'가 새로운 보안 취약점(OWASP ASI06: Agent Memory Poisoning)을 야기하고 있습니다. 이 공격은 악성 명령을 메모리에 주입하여 미래 세션에서 실행함으로써 에이전트의 기능을 가로채거나 다른 사용자에게 피해를 줄 수 있습니다. 이에 대응하기 위해, 본 글에서는 에이전트 메모리 저장소를 스캔하여 위협을 탐지하는 오픈 소스 보안 도구인 'OWASP Agent Memory Guard'를 소개합니다.
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.