본문으로 건너뛰기

© 2026 Molayo

Axios헤드라인2026. 05. 14. 22:30

AI 사이버 보안의 다음 단계에는 여전히 인간이 필요하다

요약

최신 AI 사이버 보안 모델(Anthropic의 Mythos, OpenAI의 GPT-5.5-Cyber 등)은 수많은 취약점 발견 및 익스플로잇 작성 능력을 보여주며 산업에 큰 변화를 예고하고 있습니다. 그러나 실제 테스트 결과들은 이러한 강력한 모델들이 효과적으로 운영되기 위해서는 여전히 인간 보안 전문가의 지시, 검증, 그리고 전문적인 판단이 필수적임을 강조합니다. 기업과 연구기관들은 AI가 발견하는 취약점의 양 증가에 대비하여, 시스템 자체를 '확인 가능하게' 만들고 인간의 숙련된 통제력과 결합시키는 방향으로 진화하고 있습니다.

핵심 포인트

  • AI 모델은 수많은 버그와 익스플로잇을 찾아내는 강력한 능력을 입증했으나, 오탐률(False Positive Rate)이 높다는 한계가 존재합니다.
  • 최고의 성능은 AI 모델과 '몸이 없는 뇌'에 필적하는 숙련된 인간 보안 연구원이 결합될 때 나타납니다.
  • AI 기반 시스템은 발견한 취약점을 단순히 나열하기보다, 공격 체인(attack chains)으로 연결하여 실질적인 위협을 구성하는 능력이 향상되고 있습니다.
  • 산업계는 AI의 환각(Hallucinations) 및 신뢰할 수 없는 동작을 관리하기 위해 '확인 가능성(Checkable)'과 명시적 검증 과정을 시스템에 통합하고 있습니다.
  • AI가 발견하는 취약점의 규모 증가로 인해 방어자들은 결함을 분류(triage)하고 패치해야 하는 압박이 가중될 것입니다.

실제 환경에서 시스템을 테스트한 사용자들의 새로운 조사 결과에 따르면, Anthropic과 OpenAI의 사이버 능력을 갖춘 AI 모델들은 효과적으로 운영하기 위해 여전히 상당한 수준의 인간 전문 지식을 필요로 할 수 있습니다.

중요한 이유: AI 기반 사이버 보안의 새로운 단계는 완전히 자율적인 해킹에 덜 의존하고, 점점 더 강력해지는 시스템을 인간이 얼마나 효과적으로 지시(direct), 검증(validate) 및 운영화(operationalize)할 수 있는지에 더 많이 의존할 수 있습니다.

전체적인 모습: Anthropic이 Mythos Preview를 세상에 공개했을 때, 해당 모델이 너무 강력하여 거의 모든 운영 체제에 걸쳐 수만 개의 버그를 찾아냈다고 경고했습니다. 제3자 테스트에 따르면, OpenAI의 GPT-5.5-Cyber 역시 버그를 찾고 익스플로잇(exploit)을 작성하는 데 있어 Mythos만큼 강력한 것으로 나타났습니다. 전 세계의 주요 기업과 정부들은 유사한 능력이 공격자의 손에 들어갔을 때 무엇에 맞서게 될지 이해하기 위해 이러한 모델들을 확보하려고 열망해 왔습니다.

뉴스 핵심: Mythos와 GPT-5.5를 조기에 도입한 여러 사용자가 이번 주에 이 혁신적으로 보이는 모델들을 테스트한 경험을 공유했습니다. Palo Alto Networks는 Axios에 Anthropic과 OpenAI 모델을 모두 사용하여 75개의 버그를 발견했으며, 이는 평소 매달 발견하는 5~10개의 버그와 대조적이라고 밝혔습니다. 연구원들은 또한 모델들이 겉보기에 심각도가 낮은 취약점(vulnerabilities)들을 실행 가능한 공격 체인(attack chains)으로 연결하는 능력이 점점 더 향상되고 있음을 발견했습니다. Microsoft는 화요일, 여러 프런티어(frontier) 및 증류(distilled) 모델을 기반으로 실행되는 자사의 새로운 에이전틱(agentic) 보안 시스템이 Windows 네트워킹 및 인증 스택에서 16개의 새로운 취약점을 발견했다고 발표했습니다. Microsoft는 또한 AI 도구들이 시간이 지남에 따라 발견되는 취약점의 전체 규모를 증가시킬 가능성이 높으며, 이로 인해 방어자들이 결함을 더 빠르게 분류(triage)하고 패치(patch)해야 하는 추가적인 압박을 받게 될 것이라고 경고했습니다. Cisco는 이번 주 조직들이 고급 AI 모델을 사용하는 방식에 대해 어떻게 생각해야 하는지에 대한 오픈 소스 청사진인 "Foundry Security Spec"을 발표했습니다.

AI 기반 침투 테스트 (Penetration Testing) 스타트업인 XBOW는 화요일 내부 테스트를 상세히 설명하는 블로그 게시물을 통해 Mythos가 "소스 코드 감사 (Source Code Audits)에 매우 강력하다"고 밝혔습니다. 현실적인 점검 (Reality check): 벤더들은 모델이 발견 사항을 검증하고, 워크플로우를 안내하며, 악용 가능한 취약점 (Exploitable Vulnerabilities)과 노이즈를 구분할 수 있는 숙련된 보안 연구원과 결합되었을 때 가장 성능이 좋다는 것을 지속적으로 발견했습니다. XBOW는 Mythos가 "취약점 공격 (Exploits)을 검증하는 데에는 좋지만, 성능이 덜 강력하며", 모델이 "너무 문자 그대로 해석하고 보수적일 수 있어" 때때로 발견 사항의 실질적인 중요성을 과장할 수 있다고 밝혔습니다. Mythos, Opus 4.7, 그리고 GPT-5.5-Cyber와 함께 작업해 온 Palo Alto Networks는 자사 제품 전반에서 약 30%의 오탐률 (False Positive Rate)을 확인했습니다. 다만, 회사가 탐색 중인 환경에 맞춰 모델을 학습시킴에 따라 해당 비율은 감소했습니다. 오픈 소스 프로젝트인 Curl의 리드 개발자 Daniel Stenberg는 월요일, Mythos가 코드에서 몇 개의 오탐과 함께 하나의 낮은 심각도 버그를 발견했으며, Curl이 최종적으로 중요하지 않다고 판단한 또 다른 이슈도 발견했다고 말했습니다. 이는 여전히 상당한 양의 인간 검토가 필요함을 강조합니다. 자세히 보기 (Zoom in): Cisco의 새로운 청사진을 위한 사양 (Spec) 문서 내부에는 새로운 모델들의 역량에 대한 단서가 들어 있습니다. Cisco는 사양서에 "프런티어 모델 (Frontier Model)은 유창하고 자신감 있으며 그럴듯한 취약점 주장을 생성하지만, 검토되지 않은 출력물은 무가치할 정도로 틀린 비율이 높다"라고 기록했습니다. Cisco 연구원들은 단순히 모델에게 더 주의를 기울이라고 말하는 대신, 시스템이 주장을 "확인 가능하게 (Checkable)" 만들고 스스로의 발견 사항을 명시적으로 검증하도록 지시했을 때 더 나은 결과를 얻었습니다. 이는 기업들이 환각 (Hallucinations) 및 신뢰할 수 없는 에이전트 (Agent) 동작을 관리하기 위해 채택하고 있는 신흥 접근 방식입니다. 전문가 의견 (What they're saying): XBOW의 AI 책임자인 Albert Ziegler는 회사 블로그 게시물에서 "모델은 몸이 없는 뇌와 같다"라고 썼습니다. Ziegler는 모델이 "그 뇌의 힘에 필적하는 기술과 통제력을 가진" 인간과 함께할 때 가장 잘 작동한다고 덧붙였습니다.

하지만, 적대적 해커(Adversarial hackers)들은 이러한 도구들을 사용할 때 동일한 학습 곡선(learning curve)을 거치지 않을 것이라고 Palo Alto Networks의 최고 제품 책임자(CPO)인 Lee Klarich가 Axios에 전했습니다. "공격이 어떻게 작동하는지, 그리고 소프트웨어 등을 어떻게 악용할 수 있는지 이해하는 것은 공격자들의 전문 지식입니다,"라고 Klarich는 말했습니다. 수요일 영국 AI 보안 연구소(U.K. AI Security Institute)가 발표한 연구에 따르면, Mythos는 이미 스스로 개선되고 있습니다. 연구소는 "눈에 띄는 능력의 도약이 항상 새로운 모델 출시를 필요로 하는 것은 아니다"라고 언급하며, 추가적인 컴퓨팅 파워(computing power)와 추론 시간 스케일링(inference-time scaling)만으로도 자율적인 사이버 역량을 크게 향상시킬 수 있다고 덧붙였습니다. 더 알아보기: Google은 AI 지원 해킹이 이미 현실로 다가왔다고 경고합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 Axios의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0