본문으로 건너뛰기

© 2026 Molayo

Tom's HW헤드라인2026. 05. 02. 17:11

펜타곤, 오픈AI·구글·마이크로소프트 등 주요 기업과 AI 협력 발표 - 분류된 국방망에 LLM '법적 운용 목적'으로 배포

요약

미국 국방부가 스페이스X, 오픈AI, 구글, 마이크로소프트 등 주요 기술 기업들과 협력하여 자체 분류된 네트워크 내에서 LLM(대형 언어 모델)을 '법적 운용 목적'으로 배포합니다. 이 시스템은 군사 작전의 의사결정 속도를 높이고 데이터 분석 능력을 강화하는 데 초점을 맞추고 있습니다. 하지만 전문가들은 AI가 제공하는 정보에 대한 과도한 신뢰(자동화 편향)와, AI가 사용하는 데이터 자체의 오류 및 오해 가능성 등 심각한 위험 요소들을 경고하고 있습니다.

핵심 포인트

  • 미국 국방부는 주요 빅테크 기업들의 LLM을 분류된 네트워크에 통합하여 'AI 우선 전투력'으로 군대를 전환시키고 있다.
  • 현재 AI 도구는 데이터 분석 및 의사결정 지원에 활용되며, 전술적 결정 자체를 자동화하는 단계는 아니다.
  • 군사 분야에서의 AI 사용은 자동화 편향(automation bias)의 위험을 내포하며, 인간 운영자의 비판적 사고와 경험적 판단이 필수적이다.
  • AI 모델 간의 경쟁적인 테스트 결과가 전술적 핵공격 시나리오를 보여주는 등, AI 기술의 잠재적 오용 및 위험성이 심각하게 제기되고 있다.

미국 국방부(The U.S. Department of War)는 운영 목적으로 "세계의 선두주자 7 개 최첨단 인공지능 기업"과 계약을 체결했다고 발표했다. Classified Networks AI Agreements 보도자료에 따르면, 스페이스X(SpaceX), 오픈AI(OpenAI), 구글(Google), 엔비디아(Nvidia), 리플렉션(Reflection), 마이크로소프트(Microsoft), 그리고 아마존 웹 서비스(Amazon Web Services)는 펜타곤의 분류된 네트워크에서 그들의 대형 언어 모델(LLMs)을 "법적 운용 목적(for lawful operational use)"으로 배포할 예정이다. 정부는 이 조치가 미국 군대를 "AI 우선 전투력 (AI-first fighting force)"으로 전환하는 데 도움이 될 뿐만 아니라, 모든 전쟁 영역에서의 "결정 우위 (decision superiority)"를 확보하는 데 기여할 것이라고 밝혔다.

현재로서는 이러한 기업들이 제공하는 AI 도구가 데이터 분석에 국한되어 있으며, 미국이 직면한 복잡한 상황을 대처하기 위해 의사결정을 더 빠르고 쉽게 만드는 데 도움이 될 것으로 보인다. 이 도구들은 국방부 네트워크를 통해 펜타곤의 공식 AI 플랫폼인 GenAi.mil 을 통해 접근 가능하며, 해당 기관의 인력에게 널리 제공된다.

"5 개월 만에 130 만 명 이상의 국방부 직원이该平台을 사용하여 수천만 개의 프롬프트를 생성하고 수십만 개의 에이전트를 배포했습니다."라고 펜타곤은 밝혔다. "전투원, 민간인, 계약자들이 이러한 기능을 즉시 실용적으로 활용하여 많은 작업을 수개월에서 수일로 단축하고 있습니다."

그러나 군사 분야에서의 AI 사용에 대한 우려도 존재한다. 앤스로픽(Anthropic) 은 국방부가 안전장치 완화 요구를 수용하지 않고 거부했는데, 이는 그들의 AI 제품이 대량 감시나 자율 무기 제작에 사용될 수 있음을 의미할 수 있기 때문이다. 이 조치로 인해 도널드 트럼프 대통령은 해당 회사를 연방 기관에서 금지했으며, 심지어 연방 정부의 요구를 거절함으로써 공급망 위험으로 지정하기도 했다.

AI 는 방대한 양의 정보를 정제하고 인간이 놓칠 수 있는 패턴을 찾는 데 확실히 유용하지만, 전 세계적 영향을 미칠 수 있는 결정을 내리는 데 있어 100% 신뢰할 수 있는 도구는 아니다. 연구자가 GPT-5.2, 클로드 소넷 4(Claude Sonnet 4), 그리고 지미니 3(Gemini 3) 을 서로 겨루는 전쟁 게임으로 테스트한 결과, 결과의 95% 가 전술적 핵공격으로 끝났음을 발견했다. 세 시나리오 중 두 시나리오는 세계를 종식시킬 전략적 핵공격으로 이어졌다.

하지만 이러한 AI 도구가 분석과 지원에 국한되어 있으며, 모든 결정에 대해 인간 운영자가 책임지고 있는 상황임에도 불구하고 자동화 편향 (automation bias) 의 위험도 존재한다. 이는 특히 AI 시스템이 인간보다 훨씬 빠르게 대량의 데이터를 처리할 수 있기 때문에, 모순되는 정보에도 불구하고 컴퓨터의 제안을 따르는 인간의 경향을 말한다. 그러나 AI 가 의존하는 데이터가 거짓이거나 오류가 있거나 오해의 소지가 있을 수 있으므로, AI 의 제안을 표면 그대로 받아들이기 전에 직관과 경험을 적용하는 것이 중요하다.

미국 군대가 운용 목적으로 AI 기술을 실험하고 배포하는 유일한 사례는 아니다. 예를 들어 중국은 200 대 규모의 AI 드론을 선보이는 등

AI 자동 생성 콘텐츠

본 콘텐츠는 Tom's Hardware의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
8

댓글

0