Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
Vercel AI 223건필터 해제
파일 시스템 기반 컨텍스트 검색을 위한 bash-tool 소개
본 기술 기사는 파일 시스템 기반의 컨텍스트 검색을 가능하게 하는 오픈소스 Bash 실행 엔진인 bash-tool을 소개합니다. 이 도구는 에이전트가 대량의 텍스트를 프롬프트에 모두 포함할 필요 없이, 마치 유닉스 스타일 워크플로우처럼 로컬 파일 시스템에서 필요한 컨텍스트 조각을 검색하여 모델에 제공하도록 돕습니다. bash-tool은 메모리 내 및 샌드박스 환경을 지원하며, 실제 쉘 실행 없이도 Bash 스크립트를 해석할 수 있어 에이전트의 성능과 토큰 효율성을 크게 개선합니다.
v0 를 효과적인 코딩 에이전트로 만드는 법
본 기사는 v0 모델을 효과적인 코딩 에이전트로 만들기 위한 아키텍처적 접근 방식을 설명합니다. 핵심은 단순히 LLM의 출력을 사용하는 것이 아니라, 동적 시스템 프롬프트, 'LLM Suspense'와 같은 스트리밍 조작 레이어, 그리고 결정론적 자동 수정기(autofixers) 세트를 포함하는 복합 파이프라인을 구축하는 것입니다. 이 파이프라인은 LLM이 코드를 생성하고 스트리밍하는 실시간 과정에서 발생하는 오류를 감지하고 자동으로 수정하여, 코드 생성의 성공률을 크게 향상시킵니다.
파일 시스템과 Bash 를 활용한 에이전트 구축 방법
본 기사는 복잡하게 구축되던 AI 에이전트의 커스텀 도구들을 파일 시스템(filesystem) 툴과 Bash 스크립트로 대체하는 간단하면서도 효과적인 방법을 제시합니다. 이 접근 방식은 판매 통화 요약 및 텍스트-to-SQL 같은 에이전트의 비용을 크게 절감하고 출력 품질을 개선했습니다. 핵심 원리는 LLM들이 방대한 코드 학습 과정에서 이미 파일 시스템 탐색과 상태 관리 능력을 갖추고 있다는 점을 활용하는 것입니다.
On-Demand 동시 빌드 제한을 각 브랜치당 1 회로 조정
이 업데이트를 통해 On-Demand 동시 빌드 기능에 조정이 이루어져, 이제 각 브랜치당 최대 1개의 활성 빌드가 실행되도록 제한됩니다. 이로 인해 동일한 브랜치로의 추가 배포는 대기열에 추가되며, 이전의 대기열 항목들은 건너뛰고 가장 최근의 배포만 활성 빌드로 시작됩니다. 다만, 다른 브랜치에서의 배포는 여전히 독립적으로 동시 빌드를 수행할 수 있습니다.
대형 빌드 머신의 빌드 캐치 저장 용량 증가
대형 빌드 머신 사용자를 위해 빌드 캐치(build cache)의 저장 용량 제한이 상향 조정되었습니다. 이 업데이트는 추가 비용 없이 제공되며, 향상된 빌드 머신은 3GB, 터보 빌드 머신은 7GB의 빌드 캐치 제한을 갖게 됩니다.
Vercel AI Gateway 를 통해 모든 모델에서 Perplexity 웹 검색 기능 사용
Vercel의 AI Gateway를 활용하면 어떤 모델이든 관계없이 Perplexity 웹 검색 기능을 통합할 수 있습니다. 이 게이트웨이는 모든 모델과 호환되는 범용 웹 검색 도구로, 특정 제공자에게만 국한된 네이티브 검색 기능보다 유연성을 제공합니다. 개발자는 AI SDK와 함께 `gateway.tools.perplexitySearch()`를 사용하여 Perplexity Search를 쉽게 구현할 수 있으며, 이를 통해 다양한 모델에서 일관되게 웹 검색 기능을 활성화할 수 있습니다.
Streamdown v2: 더 작은 번들 크기와 새로운 Remend 옵션
Streamdown v2는 AI 기반 콘텐츠 스트리밍을 위한 react-markdown의 대체재로 업데이트되었습니다. 주요 개선 사항으로는 번들 크기 감소와 플러그인 기반 아키텍처 채택이 있습니다. 또한, 실시간으로 콘텐츠가 생성됨을 시각적으로 보여주는 커서(caret) 인디케이터가 추가되었으며, 마크다운 수정 기능(Remend)의 정도를 사용자가 직접 구성할 수 있게 되었습니다.
Web Interface Guidelines 가 이제 에이전트 명령으로 제공됨
Vercel의 웹 인터페이스 가이드라인을 이제 AI 에이전트의 스킬(skill) 또는 명령어로 쉽게 통합할 수 있게 되었습니다. `/web-interface-guidelines` 명령어를 실행하는 것만으로 UI 코드에 대한 접근성, 키보드 지원, 폼 동작, 애니메이션, 성능 등 포괄적인 검토를 수행할 수 있습니다. 이 기능은 Claude Code, Cursor, Gemini CLI 등 다양한 AI 코딩 에이전트를 통해 즉시 활용 가능합니다.
Mux 가 @mux/ai SDK 를 통해 견고한 비디오 워크플로우를 출시하는 방법
Mux는 @mux/ai SDK를 통해 개발자들이 AI 기반 비디오 워크플로우를 쉽게 구축하고 배포할 수 있도록 지원합니다. 기존의 AI 워크플로우는 네트워크 오류, 레이트 리밋, 공급자 에러 등으로 인해 중간에 실패하는 경우가 잦아 재시도 및 상태 관리가 복잡했습니다. Mux는 Vercel Workflow DevKit을 활용하여 이러한 문제를 해결하고, 개발자가 인프라 복잡성 없이 견고한(durable) 워크플로우를 구현할 수 있도록 했습니다.
배포 보호 (Deployment Protection) 의 팀 전체 기본값 설정
이 기능은 팀 전체에 걸쳐 배포 보호(Deployment Protection)의 기본값을 설정할 수 있게 합니다. 이제 새로운 프로젝트는 지정된 기본 보호 수준(모든 배포, 표준 보호, 또는 없음)으로 자동 활성화됩니다. 이를 통해 조직 전체의 모든 새 프로젝트가 일관되고 원하는 보안 및 안정성 정책을 갖추도록 보장하여 개발 프로세스의 신뢰성을 높일 수 있습니다.
자동화를 위한 보호 우회 기능이 이제 여러 개의 시크릿을 지원함
Vercel 프로젝트에서 '보호 우회(Protection Bypass for Automation)' 기능이 업데이트되어 이제 여러 개의 시크릿을 지원합니다. 이 기능을 통해 개발자는 시크릿 회전을 더 용이하게 할 수 있으며, 워크플로우별로 독립적인 시크릿을 관리할 수 있게 됩니다. 또한 각 우회에 주석을 추가하여 사용 목적 추적의 정확성을 높였습니다.
프로젝트 수준의 배포 접미사 설정
Vercel은 이제 팀 전체에 적용되는 단일 배포 접미사 대신, 개별 프로젝트 단위로 배포 접미사를 설정할 수 있는 기능을 제공합니다. 이 기능은 기존의 팀 수준 접미사와 동일한 요구 사항을 따르며, 사용자는 .프로젝트 설정에서 이를 구성할 수 있습니다.
Docs Pages 지원 마크다운 응답
Vercel은 이제 헤더에 `value`를 `. (점)`으로 보내는 방식을 통해 문서(Docs) 콘텐츠의 Markdown 응답을 지원합니다. 이 기능은 에이전트 워크플로우, CLI 도구, 인덱싱 파이프라인 등에서 문서 내용을 활용하는 것을 용이하게 합니다. 특히, 반환되는 Markdown 응답에는 추가적인 링크가 포함되어 있어, 에이전트나 개발자가 프로그래밍 방식으로 다음 관련 문서를 쉽게 탐색할 수 있도록 돕습니다.
닉 보가티, Vercel 최고 수익 책임자 (CRO) 로 합류
Vercel은 웹이 페이지 기반에서 에이전트 기반으로 전환되는 변화에 대응하여, AI 시대를 선도할 자율 주행 인프라를 구축하고 있습니다. 이에 발맞춰 Vercel은 영업 조직을 재정비하며 업계 최고 수준의 시장 진출(go-to-market) 조직을 구축하는 과제를 안고 있습니다. 이 중요한 역할을 수행하기 위해 닉 보가티(Nick Bogaty)를 최고 수익 책임자(CRO)로 영입했습니다.
대규모 프로젝트의 빌드 시간 단축
이 기술 기사는 대규모 프로젝트의 빌드 시스템 최적화에 대해 설명합니다. 주요 변경 사항은 비싼 디스크 작업(대형 파일 감지 및 폴더 크기 계산)을 성공적인 빌드의 핵심 경로에서 제외한 것입니다. 그 결과, 빌드 완료 시간이 평균 2.8초 단축되었으며, 대규모 프로젝트에서는 최대 12초까지 개선 효과를 보였습니다.
Vercel AI Gateway 에서 GPT 5.2 Codex 사용 가능
Vercel의 AI Gateway를 통해 별도의 제공자 계정 없이 GPT 5.2 Codex에 접근할 수 있게 되었습니다. 이 새로운 모델은 GPT 5.2의 전문 지식과 GPT 5.1 Codex Max의 에이전트 코딩 기능을 결합하여, 대규모 리팩토링 및 마이그레이션 같은 복잡한 장기 코딩 작업 수행 능력이 뛰어납니다. 또한 시각적 성능 향상과 사이버 보안 능력 강화 등 여러 면에서 이전 모델을 능가하는 것이 특징입니다.
Vercel 샌드박스의 Node.js 런타임 기본 버전이 24 로 변경됨
Vercel 샌드박스가 기본적으로 Node.js 런타임 버전을 24로 업데이트했습니다. 이 변경은 개발자들이 최신 Node.js 기능과 성능 개선 사항을 활용할 수 있도록 보장하며, 별도의 구성 없이도 최신 환경에서 프로젝트를 실행할 수 있게 합니다.
Vercel AI Gateway 와 Perplexity 웹 검색 활용
AI 모델은 학습 데이터와 지식 마감일로 인해 최신 정보에 한계가 있지만, Vercel AI Gateway를 활용한 웹 검색 기능을 통합하면 이 문제를 해결할 수 있습니다. 이 게이트웨이는 OpenAI, Anthropic, Google 등 다양한 공급자의 모든 모델에 실시간 웹 검색 능력을 단 하나의 코드로 부여하여, 사용자가 항상 최신의 정보를 얻을 수 있도록 합니다.
향상된 함수 캐싱으로 더 빠른 배포
Vercel은 함수 업로드 프로세스를 최적화하여, 코드가 변경되지 않은 경우 불필요한 업로드를 건너뛰도록 개선했습니다. 이 업데이트는 빌드 시간을 평균 400~600ms 단축하고 대형 빌드의 경우 최대 5초까지 절감하는 효과를 가져옵니다. 이제 환경 변수는 런타임에 주입되어 모든 배포에서 동일한 코드를 정확하게 식별할 수 있게 되었습니다.
AI Gateway 를 통한 실시간 모델 성능 지표 접근
AI Gateway는 수백 개의 AI 모델에 대한 실시간 처리량(throughput) 및 지연 시간(latency) 성능 지표를 제공하여, 사용자가 최적의 모델을 선택할 수 있도록 돕습니다. 이 지표들은 '모델 목록', '개별 모델 페이지', 그리고 'REST API' 세 가지 경로에서 접근 가능하며, 실제 고객 요청 데이터를 기반으로 매시간 업데이트됩니다. 이를 통해 사용자들은 특정 사용 사례(예: 빠른 토큰 생성 vs. 낮은 첫 토큰 시간)에 가장 적합한 모델과 제공자 조합을 비교 분석할 수 있습니다.
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.