Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
OpenAI Blog 226건필터 해제
GPT-5.3 Instant: 검색 최적화 및 대화 흐름 개선 모델
새롭게 출시된 GPT-5.3 Instant는 이전 버전 대비 웹 검색 기반 답변의 속도와 품질을 획기적으로 향상시킨 모델입니다. 특히, 단순히 정보를 나열하는 것을 넘어 사용자의 의도를 깊이 이해하여 맥락에 맞는 풍부하고 정확한 답변을 제공합니다. 또한, 대화 중 불필요한 설명이나 경고 문구(caveats)를 최소화하여 사용자 경험과 대화의 흐름(flow)을 극대화했습니다.
기업용 AI 에이전트 플랫폼 'Frontier' 출시: 업무 자동화의 새로운 기준
OpenAI가 기업 환경에 특화된 AI 에이전트 구축 및 관리 플랫폼인 'Frontier'를 공개했습니다. 이 플랫폼은 단순한 사용 사례(use case)를 넘어, 실제 업무 전반에서 작동하는 'AI 동료(AI coworkers)'를 만드는 데 초점을 맞춥니다. Frontier는 기존의 분산된 시스템과 데이터를 연결하여 AI 에이전트가 기업 전체의 공유 컨텍스트(shared context)를 이해하고 복잡한 작업을 수행할 수 있도록 지원합니다. 이를 통해 제조, 금융 등 다양한 산업에서 업무 효율성을 극대화하며, 기술적 격차 해소와
GPT-5.3-Codex 기반, 사이버 방어 강화를 위한 신뢰 접근(Trusted Access) 프로그램 도입
OpenAI는 최첨단 모델인 GPT-5.3-Codex를 활용하여 사이버 보안 분야의 역량을 강화하고, 오용 위험을 줄이기 위해 '신뢰 접근(Trusted Access for Cyber)' 파일럿 프로그램을 시작합니다. 이 프로그램은 신원 및 신뢰 기반 프레임워크를 통해 방어 목적의 사용을 우선 지원하며, 악의적인 활동(예: 데이터 유출, 악성코드 생성)을 차단하는 동시에 합법적이고 선의의 연구 활동에 필요한 마찰을 최소화하는 것을 목표로 합니다. 또한, 사이버 보안 역량 강화를 가속하기 위해 총 1,000만 달러 규모의 API 크레
GPT-5 기반 자율 실험실로 단백질 합성 비용 40% 절감
본 연구는 GPT-5와 Ginkgo Bioworks의 클라우드 자동화 실험실을 결합하여 세포 외 단백질 합성(CFPS) 과정을 최적화했습니다. 기존 방식으로는 어려웠던 대규모 반복 실험 환경에서, AI가 36,000개 이상의 독특한 반응 조합을 테스트하고 결과를 학습하는 폐쇄 루프(closed-loop) 시스템을 구축했습니다. 그 결과, 단백질 생산 비용을 이전 최고 수준 대비 40% 절감하고 시약 비용은 57% 개선하는 성과를 달성했습니다. 이는 AI가 생명과학의 병목 현상인 반복 실험 과정을 혁신적으로 가속화할 수 있음을 보여주
코덱스 기반 에이전트 시스템으로 소프트웨어 개발 혁신하기
본 글은 코딩 과정에서 인간의 수동 개입을 최소화하고, AI 에이전트(Codex)를 주도적으로 활용하여 소프트웨어 제품을 개발한 경험을 공유합니다. 5개월 동안 수백만 라인의 코드와 1,500개의 PR을 생성하는 과정에서, 엔지니어링의 초점이 '코딩'에서 '에이전트 환경 설계 및 의도 명세화(Intent Specification)'로 이동했음을 보여줍니다. 핵심은 에이전트가 스스로 테스트, 리뷰, 배포까지 반복할 수 있는 완전한 피드백 루프를 구축하는 것입니다.
실시간 코딩에 최적화된 GPT-5.3-Codex-Spark 공개
GPT-5.3-Codex의 경량 버전인 Codex-Spark가 실시간 코딩을 위해 처음으로 출시되었습니다. 이 모델은 Cerebras의 초저지연 하드웨어에서 구동되어, 1초당 1000 토큰 이상의 속도를 자랑하며 개발자가 즉각적인 피드백과 빠른 반복(iteration)을 경험할 수 있도록 설계되었습니다. Codex-Spark는 기존 GPT-5.3-Codex가 지원하던 장기적이고 복잡한 작업 수행 능력에 더해, 실시간으로 코드를 수정하고 로직을 개선하는 '즉각성'이라는 새로운 차원을 추가합니다. 또한, API 및 사용자 경험 전반에
Codex와 Sora의 접근성 확장: 실시간 사용량 추적 및 크레딧 기반 결제 시스템
OpenAI는 폭발적으로 성장하는 Codex와 Sora 같은 제품에 대응하기 위해 기존의 단순한 속도 제한(rate limit) 모델을 넘어선 하이브리드 접근 제어 시스템을 구축했습니다. 이 신규 시스템은 사용자가 요청할 때마다 실시간으로 속도 제한과 크레딧 잔액을 결합하여 사용량을 결정합니다. 특히, 사용자 경험 저하를 막기 위해 '실시간 한계(Rate Limit)'와 '사용한 만큼 지불(Pay-as-you-go)' 방식을 하나의 워터폴(waterfall) 모델로 통합했습니다. 이 시스템은 모든 트랜잭션에 대한 완벽한 감사 추적(
ChatGPT 보안 강화: 'Lockdown Mode'와 'Elevated Risk' 레이블 도입
OpenAI가 AI 시스템의 복잡성 증가에 따라 높아지는 보안 위험, 특히 프롬프트 인젝션(prompt injection) 공격을 방어하기 위해 두 가지 주요 기능을 도입했습니다. 첫째, 고위험 사용자 및 조직을 위한 'Lockdown Mode'는 외부 시스템과의 상호작용을 엄격하게 제한하여 민감 정보 유출 위험을 최소화합니다. 둘째, 잠재적 위험이 있는 특정 기능에는 통일된 'Elevated Risk' 레이블을 적용하여 사용자가 위험 수준과 그 이유를 명확히 인지하도록 돕습니다. 이는 기업 고객에게 더욱 강력한 제어권을 제공하며,
AI 에이전트 기반 스마트 컨트랙트 보안 평가 벤치마크, EVMbench 공개
EVMbench는 AI 에이전트가 블록체인 환경의 취약점을 탐지(Detect), 패치(Patch), 악용(Exploit)하는 능력을 평가하기 위해 개발된 벤치마크입니다. 스마트 컨트랙트는 현재 $100B 이상의 오픈소스 암호화 자산을 보호하고 있어, AI 에이전트의 보안 감사 및 강화 역량 측정은 매우 중요합니다. EVMbench는 40개의 감사(audit)에서 가져온 117개의 고위험 취약점을 활용하며, GPT-5.3-Codex가 악용 모드(Exploit mode)에서 71.0%의 점수를 기록하는 등 모델 성능 향상을 보여주었으나
ChatGPT for Excel 출시 및 금융 데이터 통합으로 분석 효율 극대화
OpenAI가 엑셀 워크북에 직접 탑재되는 'ChatGPT for Excel'을 베타로 공개하며, 사용자가 복잡한 수식 작성이나 모델링 대신 자연어로 분석 지시를 내릴 수 있게 했습니다. 또한 FactSet, Dow Jones Factiva 등 주요 금융 데이터 제공업체와의 통합을 강화하여 시장 및 기업 데이터를 ChatGPT 워크플로우에 직접 가져올 수 있습니다. GPT-5.4 기반의 이 기능들은 재무 모델 구축, 시나리오 분석, 실사(Due Diligence) 등의 시간을 획기적으로 단축시키고, 결과물의 출처를 명확히 제시하여(
AI 에이전트의 사고 과정(CoT) 통제 난이도 분석: 안전성 확보에 긍정적 신호
본 연구는 AI 에이전트가 복잡한 작업을 수행할 때 생성하는 중간 추론 과정(Chain-of-Thought, CoT)의 통제 가능성을 분석했습니다. 안전성 확보를 위해 필수적인 CoT 모니터링 시스템의 신뢰도를 검증하기 위함입니다. 현재 최신 모델들을 대상으로 테스트한 결과, 모델들이 의도적으로 자신의 사고 과정을 조작하거나 숨기려는 시도가 매우 어렵다는 것을 확인했습니다. 이는 AI가 발전하더라도 CoT 모니터링이 강력한 안전장치로 유지될 가능성을 시사하며, 현존하는 기술적 위험은 낮음을 보여줍니다.
AI 정렬 연구 생태계 강화: The Alignment Project에 750만 달러 기여
OpenAI는 고도화되는 AI 시스템의 안전 및 보안 위험을 완화하기 위한 독립적인 연구를 지원하고자, 글로벌 독립 정렬 연구 기금인 The Alignment Project에 750만 달러(약 £5.6M)를 기부한다고 발표했습니다. 이 투자는 AGI(Artificial General Intelligence)가 모든 사람에게 안전하고 유익하도록 보장하는 것이 단일 조직의 역량만으로는 불가능하다는 인식에서 비롯되었습니다. OpenAI는 자체적인 최첨단 연구와 병행하여, 계산 복잡도 이론, 경제학, 인지 과학 등 다양한 분야를 아우르는
AI의 심층 추론 능력 검증: First Proof 도전기 공개
OpenAI가 AI 모델의 최고 수준 추론 능력을 입증하기 위해 'First Proof'라는 수학적 난제에 대한 풀이 시도를 발표했습니다. 이 챌린지는 단순한 정답 맞히기를 넘어, 특정 전문 분야에서 전문가 검토가 필수적인 완전한 논리 전개(end-to-end arguments)를 요구합니다. OpenAI는 자체 모델을 이용해 10개의 문제에 도전했으며, 그 결과 일부 문제는 높은 정확도를 보였으나, 다른 문제들은 지속적인 검토가 필요함을 밝혔습니다. 이 발표는 AI의 다음 세대 추론 능력을 평가하는 새로운 기준점을 제시하며, 복잡
SWE-bench 평가 중단 선언: 모델 성능 측정의 새로운 기준 제시
OpenAI는 자율 소프트웨어 엔지니어링(autonomous software engineering) 능력을 측정하는 지표로 사용되던 SWE-bench Verified 평가를 더 이상 사용하지 않겠다고 발표했습니다. 주요 원인은 두 가지입니다. 첫째, 감사 결과 27.6%의 문제 중 59.4%가 기능적으로 올바른 제출을 거부하는 결함 있는 테스트 케이스를 포함하고 있습니다. 둘째, 최신 대규모 모델(frontier models)들이 학습 데이터셋에서 평가 문제를 접했을 가능성이 높아져, 성능 향상이 실제 능력 개선이 아닌 '학습 노출
악의적인 AI 오용 방지: 최신 위협 보고서 분석
본 보고서는 지난 2년간 수집된 데이터를 바탕으로, 악성 행위자들이 인공지능(AI) 모델을 어떻게 오용하는지에 대한 심층적인 통찰력을 제공합니다. 핵심은 위협 활동이 단일 AI 플랫폼에 국한되지 않으며, 웹사이트, 소셜 미디어 계정 등 기존의 전통적 도구와 결합하여 복합적으로 이루어진다는 점입니다. 따라서 방어 전략 수립 시, 여러 AI 모델과 다양한 오프라인 채널을 아우르는 통합적인 접근 방식이 필수적임을 강조합니다.
OpenAI와 Figma의 협업: 코드-디자인 간 끊김 없는 개발 경험 제공
OpenAI가 자사의 강력한 코딩 모델인 Codex를 디자인 플랫폼 Figma에 통합하여, '코드(Code)'와 '디자인(Design)' 간의 경계를 허무는 혁신적인 개발 워크플로우를 제시합니다. 이 새로운 통합은 제품 빌더들이 아이디어 구상부터 실제 구현까지 단일 흐름에서 진행할 수 있게 합니다. 사용자는 Figma 디자인을 Codex로 가져가 코드로 구현하거나, 반대로 코드 UI를 편집 가능한 Figma 디자인으로 변환하여 반복적인 개선(Iteration)이 가능해집니다. 이는 개발자와 디자이너의 역할을 유기적으로 연결하며, 전
OpenAI-Microsoft 파트너십 재확인: 핵심 조건 및 협력 범위
본 공동 성명은 OpenAI와 Microsoft의 지속적인 파트너십을 공식적으로 재확인합니다. 2019년부터 시작된 이 관계는 연구, 엔지니어링, 제품 개발 전반에 걸쳐 깊이 통합되어 있으며, 최근의 새로운 투자 및 제휴 발표에도 불구하고 기존 협력 구조가 전혀 변하지 않음을 강조합니다. 특히 Microsoft는 OpenAI 모델과 IP에 대한 독점 라이선스 및 접근권을 유지하며, Azure는 여전히 무상태(stateless) OpenAI API의 유일한 클라우드 제공업체로 지정됩니다. 이는 모든 제휴사와의 AI 호출이 Azure를
청소년 안전을 위한 OpenAI의 일본 청사진 발표
OpenAI Japan이 생성형 AI를 사용하는 청소년들의 안전한 사용 환경 조성을 목표로 '일본 청소년 안전 청사진(Japan Teen Safety Blueprint)'을 발표했습니다. 본 계획은 기술의 편리성보다 청소년의 안전과 복지를 최우선으로 두는 원칙에 기반합니다. 주요 내용은 연령별 보호 강화, 18세 미만 사용자 대상의 강력한 안전 정책 적용, 그리고 부모를 위한 통제 기능 확대입니다. 또한 임상의 및 교육 전문가들과 협력하여 사용 시간 관리 알림 등 복지 중심 설계를 지속적으로 개선할 예정이며, 이는 AI 시대 청소년
OpenAI와 아마존, 대규모 AI 혁신을 위한 전략적 파트너십 발표
OpenAI와 아마존은 기업 및 일반 사용자를 위한 AI 혁신 가속화를 목표로 다년간의 전략적 파트너십을 체결했습니다. 이 협력에 따라 아마존은 OpenAI에 총 500억 달러를 투자하며, 초기 150억 달러가 집행됩니다. 주요 내용은 다음과 같습니다: 첫째, AWS 기반에서 생성형 AI 애플리케이션과 에이전트를 구축할 수 있는 'Stateful Runtime Environment'를 공동 개발합니다. 둘째, AWS는 OpenAI의 가장 진보된 기업 플랫폼인 'Frontier'의 독점 클라우드 배포 제공업체가 됩니다. 셋째, 이 파
OpenAI, 국방부와의 AI 협력: 안전장치와 윤리적 가이드라인 강화
OpenAI는 미국 국방부(DoW)와의 첨단 AI 시스템 배치에 대한 합의 내용을 발표했습니다. 이 합의는 국내 감시나 자율 무기 시스템 사용을 엄격히 금지하는 등 강력한 안전장치(guardrails)를 포함하고 있습니다. OpenAI는 자체적인 '레드 라인' 세 가지 원칙을 제시하며, 이는 대규모 국내 감시, 자율 무기 시스템 운용, 그리고 사회 신용제와 같은 고위험 자동화 결정에 AI 기술을 사용하는 것을 금지합니다. 이들은 클라우드 기반 배포 아키텍처, 계약서상의 법적 보호 장치, 그리고 현장에 배치된 전문 엔지니어의 참여를
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.