GPT-5.5 을 위한 반공식 Codex 백도어 API 를 통한 펠리컨
요약
이 기술 기사는 GPT-5.5 모델을 활용하기 위해 '반공식' 백도어 API를 사용하는 방법을 설명합니다. 작성자는 기존의 Codex CLI와 OpenAI 구독 메커니즘을 역공학하여 `llm-openai-via-codex`라는 플러그인을 개발했으며, 이를 통해 사용자가 GPT-5.5 모델에 접근할 수 있게 합니다. 또한, 이 글은 새로운 API 가격 구조($5/1M input, $30/1M output)와 'reasoning_effort' 같은 고급 파라미터의 도입 등 GPT-5.5의 기술적 특징과 사용법을 상세히 다루고 있습니다.
핵심 포인트
- GPT-5.5 모델에 접근하기 위해 기존 Codex API 및 OpenAI 구독 메커니즘을 역공학한 플러그인(`llm-openai-via-codex`)이 소개되었습니다.
- 새로운 플러그인을 사용하면 GPT-5.5를 통해 이미지 생성(SVG)과 같은 복잡한 작업을 수행할 수 있습니다.
- GPT-5.5의 API 가격 구조가 $5/1M input tokens, $30/1M output tokens로 책정되었으며, 이전 버전 대비 비용이 크게 상승했습니다.
- 프롬프트에 `-o reasoning_effort xhigh`와 같은 파라미터를 추가하여 모델의 추론 노력(reasoning effort)을 높여 더 복잡하고 상세한 출력을 얻을 수 있습니다.
GPT-5.5 을 위한 반공식 Codex 백도어 API 를 통한 펠리컨
2026 년 4 월 23 일
오늘의 릴리스에서 눈에 띄는 누락 사항은 API 입니다:
API 배포에는 다른 보호 장치가 필요하며, 우리는 이를 대규모로 서비스하기 위한 안전 및 보안 요구 사항을 파트너와 고객과 긴밀히 협력하고 있습니다. GPT-5.5 과 GPT-5.5 Pro 를 API 에 매우 곧바로 제공하겠습니다.
내가 펠리컨 벤치마크를 실행할 때 항상 ChatGPT 나 다른 에이전트 해시 (harness) 에서 숨겨진 시스템 프롬프트가 결과에 영향을 미치지 않도록 API 를 사용하는 것을 선호합니다.
The OpenClaw backdoor
지난 몇 개월 동안 AI 세계의 지속적인 긴장점은 OpenClaw 와 Pi 같은 에이전트 해시 (harness) 가 대형 제공업체가 제공하는 API 와 어떻게 상호작용하는지에 관한 것이었습니다.
OpenAI 과 Anthropic 은 모델에 대한 원본 API 에 비해 상당한 할인율을 제공하여 인기 있는 월간 구독을 제공합니다.
OpenClaw 는 이 메커니즘과 직접 통합되었으나, Anthropic 의 막아진 후 이것이 시작되었습니다. OpenAI—who recently hired OpenClaw creator Peter Steinberger—는 그들의 (오픈 소스) Codex CLI 도구를 사용하는 것과 동일한 메커니즘을 통해 OpenAI 의 구독과 통합할 것을 환영한다고 발표하여 쉬운 카르마 승리를 보았습니다.
이것은 누구나 OpenAI 의 Codex 특정 API 와 통합하여 기존 구독에 접근할 수 있는 코드를 작성할 수 있음을 의미하는가?
어느 날 Jeremy Howard 는:
누구든지 Pi 와 Opencode (IIUC) 가 사용하는
/backend-api/codex/responses
엔드포인트를 OpenAI 가 공식적으로 지원하는지 알고 계신가요?
그 결과 3 월 30 일 OpenAI 의 Romain Huet 은 트위터를 통해:
우리는 Codex 를 어디서든 사용하게 하고 싶습니다! 그건 앱, 터미널에서뿐만 아니라 JetBrains, Xcode, OpenCode, Pi, 그리고 이제 Claude Code 에서도 가능하다는 뜻입니다.
그것이 Codex CLI 와 Codex 앱 서버가 오픈 소스인 이유입니다! 🙂
Peter Steinberger 는 Jeremy 에게:
OpenAI 구독은 공식적으로 지원됩니다.
llm-openai-via-codex
그래서... 나는 Claude Code 를 사용하여 openai/codex 저장소를 역공학하고, 인증 토큰이 어떻게 저장되는지 파악하여 GPT-5.5 의 기존 Codex 구독을 가져와 프롬프트를 실행하는 새로운 플러그인 llm-openai-via-codex 를 만들었습니다.
(후견으로 생각하면 GPT-5.4 나 GPT-5.5 프리뷰를 사용했어야 했는데, 더 재미있었을 것입니다. 나는 코드를 재작성하여 이 농담을 위해 Codex 와 GPT-5.5 를 사용하도록 고려했지만, 더 이상 시간을 보내지 않기로 결정했습니다.)
사용 방법은 다음과 같습니다:
-
Codex CLI 설치, OpenAI 플랜 구매, Codex 로 로그인
-
LLM 설치:
uv tool install llm -
새 플러그인 설치:
llm install llm-openai-via-codex -
프롬프트 시작:
llm -m openai-codex/gpt-5.5 'Your prompt goes here'
모든 기존 LLM 기능도 작동해야 합니다—이미지 첨부를 위해 -a filepath.jpg/URL 사용, llm chat -m openai-codex/gpt-5.5 를 사용하여 지속적인 채팅 시작, llm logs 를 사용하여 기록된 대화 보기 및 llm --tool ... 를 사용하여 도구 지원으로 테스트.
And some pelicans
펠리컨을 생성해 보겠습니다!
llm install llm-openai-via-codex
llm -m openai-codex/gpt-5.5 'Generate an SVG of a pelican riding a bicycle'
나는 다음과 같은 것을 받았습니다:
GPT-5.4 에서 더 나은 결과를 보았으므로 -o reasoning_effort xhigh 를 추가하고 다시 시도했습니다:
그것은 거의 4 분 걸려 생성되었지만, 나는 그것이 훨씬 더 나은 노력이라고 생각합니다.
SVG 코드 (기본값, xhigh) 를 비교하면 xhigh
는 매우 다른 접근 방식을 사용하며—as demonstrated by those gradients—그것은 훨씬 더 CSS 가 많았습니다. xhigh 는 9,322 reasoning tokens 을 사용했고 기본값은 39 만 사용했습니다.
A few more notes on GPT-5.5
GPT-5.5 의 가장 눈에 띄는 사항은 가격입니다. API 에 라이브되면 $5 per 1M input tokens 과 $30 per 1M output tokens 으로 가격이 설정되며, 여기서 5.4 는 $2.5 와 $15 입니다.
GPT-5.5 Pro 는 더욱: $30 per 1M input tokens 과 $180 per 1M output tokens 입니다.
GPT-5.4 는 계속 이용
AI 자동 생성 콘텐츠
본 콘텐츠는 Simon Willison Blog의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기