White House reportedly considers mandatory government vetting of AI models
요약
트럼프 행정부가 공개 출시 전 AI 모델에 대한 의무적인 정부 심사 절차를 고려하고 있으며, 이는 기술 기업과 정부 관료들로 구성된 작업 그룹을 통해 감독 시스템을 개발할 예정입니다. 이 논의는 바이든 행정부의 기존 안전 규제와 대조되며, 트럼프 지지자들이 주장하는 '규제 완화' 기조에 반하는 움직임으로 해석됩니다. 그럼에도 불구하고 정부가 모델에 대한 1차 접근 권한을 확보하려는 시도는 지속되고 있으며, 이는 EU나 영국과 유사하게 배포 전 평가를 요구하는 방향으로 진행될 가능성이 있습니다.
핵심 포인트
- 트럼프 행정부가 AI 모델의 의무적 정부 심사(Mandatory Government Vetting) 도입을 검토 중이다.
- 이러한 규제 논의는 트럼프 지지자들이 주장하는 '규제 완화' 기조와 상충되는 측면이 있어 정치적 주목을 받고 있다.
- 정부는 Anthropic 등 주요 AI 기업에 대해 모델 배포 전 정부 접근 권한(Government First Access)을 확보하려는 움직임을 보이고 있다.
- 과거의 강경한 규제 시도(예: 국방장관의 최후통첩, 펜타곤 공급망 리스크 지정)와 달리, 현재는 외교적 협력 및 '공유된 접근 방식' 논의로 전환되고 있다.
- 미국은 영국이나 EU처럼 배포 전 평가 시스템을 구축하는 데 있어 법적 선두 주자라기보다는, 정부가 모델에 대한 통제권을 확보하려는 과정에 있는 것으로 보인다.
트럼프 행정부는 공개 출시 전에 AI 모델을 검토하는 정부 심사 절차를 만드는 행정명령에 대해 초기 논의 중입니다.
제안된 명령은 기술 기업 최고경영자들과 정부 관료들로 구성된 작업 그룹을 설립하여 감독 절차를 개발할 예정이며, 미 NYT 에 따르면 익명의 미국 관료들은 지난 주 백악관 직원이 Anthropic, Google, OpenAI 의 지도자들에게 계획을 브리핑했습니다. 한 백악관 관계자는 NYT 에게 행정명령 논의는 "추측"이라고 말했습니다.
이 논의가 사실이라면 이는 2025 년 1 월 취임 후 몇 시간 만에 바이든의 AI 안전 행정명령을 폐지하고 지난 해 대부분 산업 규제 완화 주창자로서 자신을 홍보했던 행정부에게 반전을 의미할 것입니다. NYT 는 지난 파리 국제 AI 회의에서 부통령 JD Vance 가 "AI 의 미래는 안전에 대한 우려를 통해, '건설'을 통해 이겨낼 것"이라고 말한 바 있다고 보도했습니다.
로비링 반발
지난 해 10 월, 당시 백악관 AI 및 암호화폐 총책임자였던 데이비드 사크스는 X 에서 Anthropic 을 "공포 조장 기반에 대한 고도의 규제 포획 전략을 실행하고 있다"고 공적으로 비난했습니다. 사크스는 CEO 디아리오 아모데이와 그의 트럼프를 "封建의 전쟁령주"라고 묘사한 지지, 그리고 정책 팀에 바이든 시대 관료들을 여러 명 채용한 점 등을 지적했습니다.
Anthropic 은 공포 조장 기반에 대한 고도의 규제 포획 전략을 실행하고 있습니다. 이는 스타트업 생태계를 해치는 국가적 규제 열풍의 주된 책임자입니다. https://t.co/C5RuJbVi4POc 2025 년 10 월 14 일
Anthropic 의 월간 로비 지출은 트럼프의 두 번째 임기 동안 약 511% 증가하여 2025 년 말에 매월 $1.1 만 달러에 달했습니다. NYT 는 지난 2 월 초기에 보도했습니다. 이 회사는 빅 뷰티풀 빌에서 주 AI 규제 금지 10 년을 반대했고, 캘리포니아의 SB 53 투명성 요구 사항을 지지했으며, 더 엄격한 AI 감독을 요구하는 정치 그룹인 공공 첫 행동에 $20 만 달러를 기부했습니다.
이제 행정부는 Anthropic 이 주장한类型的监督 구조를 구축하고 있지만, 정부는 키를 가지고 있습니다. NYT 는 일부 관료들이 새로운 모델에 대한 정부 1 차 접근 권한을 부여하는 시스템을 원하며, 이는 상업적 출시를 막지 않고 있으며, 이것이 펜타곤이 관계가 붕괴되기 전에 Anthropic 에게 요구한 것이 기능적으로 무엇인지 언급했습니다.
지난 월요일, 전 트럼프 행정부 AI 자문관인 딘 발과 전 바이든 백악관 AI 자문관인 벤 부처는 NYT 에게 AI 개발자의 안전 주장에 대한 제 3 자 감사 의무화를 촉구하는 연설문을 공동 작성했습니다. 부처는 또한 Anthropic 의 외부 자문관이며, 발은 행정부가 과도한 규제를 피하면서 기술과 동기화하려는 것이라고 NYT 에게 말한 동일한 관료입니다.
당근과 막대
제안된 검토 절차는 이번 해 초에 행정부가 시도했던 것보다 더 부드러운 접근법입니다. 2 월, 국방장관 피트 헤그세스는 Anthropic 에 ultimatum 을 제시했습니다: 자율 무기 및 대규모 감시에서 안전 장치를 제거하거나 $2 억의 Pentagon 계약을 잃어야 합니다. 헤그세스는 또한 펜타곤 생산법을 동원할 것을 위협했습니다. 이는 한국 전쟁 시대의 법률로, 이론적으로该公司에게 기술을 군사 용도로 넘겨야 한다고 명령할 수 있습니다.
Anthropic(안트립릭)이 거절했습니다. 트럼프는 이후 모든 연방 기관에 안트립릭의 기술을 사용 중지하라고 명령했고, 펜타곤은 이 회사를 공급망 리스크로 지정했습니다. 이는 이전에 외국 적대 세력에게만 부여된 라벨이었습니다. 안트립릭은 소송을 제기했고, 연방 판사는 이 지정을 '올웰식 (Orwellian)'이라고 불렀습니다.
그러나 4 월에 D.C. 회부 법원은 안트립릭의 지정 전체 해제를 요청하는 motion(요청) 을 거부했습니다. 법원은 이를 제거하면 군이 "중대한 군사 분쟁 중 중요한 AI 서비스의 원하지 않는 공급업체"와 계속 거래해야 한다고 판결했습니다. 이 판결은 정부에 법적 역량을 되돌렸고, 백악관은 더 조화로운 정치적 경로를 추구하고 있었습니다.
Sacks(사크스)가 3 월에 자신의 역할을 떠난 후 Hegseth(헤그세스) 와 Sacks(사크스) 를 통한 대립적인 접근 방식은 외교적 방식으로 바뀌었습니다. 뉴욕 타임즈 (New York Times) 는 백악관 총리인 Susie Wiles(서시 위리스) 와 재무장관 Scott Bessent(스코트 베센트) 가 나서게 되었습니다.
지난 달, 위리스와 베센트는 Amodei(아모디) 와 회담을 열었습니다. 양측은 이를 "생산적 (productive)"이라고 묘사했습니다. 이후 백악관 발표는 이 회담이 "기술의 확장과 관련된 도전 과제를 해결하기 위한 협력의 기회, 그리고 공유된 접근 방식 및 프로토콜에 대해 논의했다"고 밝혔습니다.
EU(유럽연합) 의 AI 심사 뒤에 있는 미국
뉴욕 타임즈 (New York Times) 의 보도에 따르면, 잠재적인 감독은 NSA(미국 국가 안보국), 백악관 사이버 디렉터 사무소, 그리고 국가 정보局局长을 포함할 것입니다.
고려 중인 모델은 UK(영국) 의 접근 방식과 유사합니다. AI Security Institute(AISI) 는 배포 전에 안전 기준에 대해 평가한 후 frontier models(경계 모델) 을 평가합니다. 보안 출판물 CSO Online 에 따르면, UK 의 AISI 와 EU 의 AI Act(인공지능법) 은 미국보다 배포 전 평가에서 더 앞서 나갔고, 미국은 현재 이러한 검토를 요구할 법적 권한이 없습니다.
또한 Center for AI Standards and Innovation(CAISI)(AI 표준 및 혁신 센터) 도 있습니다. 이는 바이든 행정부 시기에 정부와 공유된 AI 모델을 평가하기 위해 설립된 기관입니다. 뉴욕 타임즈 (New York Times) 는 이 센터가 트럼프 행정부에서 주변화되었다고 보도했습니다. 그러나 행정부의 AI 정책 문서에서는 이 센터가 AI 시스템 성능을 평가하는 역할을 수행해야 한다고 명시하고 있습니다.
의회는 행정부와 병행하여 움직이고 있습니다. FY2026 National Defense Authorization Act(방위법) 는 펜타곤이 AI 모델 평가 및 감독을 위한 교차 기능 팀을 설립하도록 요구하며, 미래의 어느 시점에 "DoD-wide assessment framework(군 전체 평가 프레임워크)"가 완료되어야 합니다. 이 팀은 군이 구매하는 AI 모델에 대한 테스트 절차, 보안 요구사항, 준수 표준을 개발해야 합니다.
Mythos(마이토스) 는 촉매제였는가?
모든 이러한 배경에서 가장 명백한 질문은 Mythos(마이토스) 가 새로운 백악관 정책 논의의 촉매제였는지에 대한 것입니다. 뉴욕 타임즈 (New York Times) 는 보도에서 이를 확실히 믿고 있습니다. 그러나 확인하는 출처는 인용되지 않았습니다.
Anthropic 이上个月(지난 달) 마케팅 캠페인처럼 느껴지는 발표를 통해 공개한 Mythos(마이토스) 는 Anthropic 이 사이버 슈퍼무기라고 프레임화한 것입니다. 이는 수천 개의 중요한 소프트웨어 취약점을 초당에 찾아낼 수 있으며, 따라서 "예상치 못한 사이버 보안 리스크"를 제기합니다. 이러한 이유로 Anthropic 은 이를 공개적으로 출시를 거부했습니다. 그러나 뉴욕 타임즈 (New York Times) 에 따르면 NSA 는 이미 Mythos 를 사용하여 정부 소프트웨어의 취약성을 평가했습니다.
일반 대중에게 너무 위험한 모델로 Mythos 를 공개하려는 이러한 불의는 행정부에 행동할 정당성과 정치적 동기를 부여했을 수 있습니다. 백악관은 AI 기반 사이버 공격이 발생했을 때 파급효과를 피하고 싶어하며, 또한 펜타곤과 정보 기관에 유용한 공격적 사이버 능력을 제공할 수 있는 프론티어 모델 (frontier models) 을 평가 중입니다.
독립적인 평가는 Anthropic 의 주장의 진실성을 의문시했으며, AISLE Security 의 연구는 오픈소스 모델이 많은 플래그십 취약점을 감지할 수 있음을 발견했습니다. 영국 AISI 또한 Mythos 를 평가하여 사이버 보안 작업에 가장 능숙한 모델로 결론지었으나, 모든 평가에서 다른 모델들을 압도적으로 상회하지는 않았습니다.
Luke James 는 프리랜서 작가이자 기자입니다. 그의 배경은 법률 분야이지만, 하드웨어와 마이크로전자기기, 규제 관련 모든 것에 대한 개인적인 관심이 있습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 Tom's Hardware의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기