AI 군사화의 최전선 — Anthropic vs Pentagon, 그리고 우리가 선택해야 할 것

2026년 2월의 마지막 주, AI 역사상 가장 극적인 72시간이 펼쳐졌다. Anthropic이 Pentagon의 “모든 합법적 사용” 요구를 거부하고, 같은 날 OpenAI가 그 자리를 채웠으며, 미국 정부는 자국 AI 기업을 공급망 리스크로 지정했다. 해커뉴스에서 관련 세 개 포스트가 총 5,687포인트를 기록한 이 사건은 단순한 계약 분쟁이 아니다. AI 안전의 이상주의가 지정학적 현실과 정면 충돌한 순간이다.


1. 하루에 벌어진 세 가지 사건

2026년 2월 27일 목요일. 워싱턴 D.C.의 시계가 오후 5시 01분을 가리켰을 때, AI 산업의 판도가 바뀌었다.

첫 번째 사건: Anthropic이 Department of War(구 국방부)의 최후통첩을 거부했다. “모든 합법적 사용(any lawful use)“에 대한 제한 철폐 요구에 “양심적으로 동의할 수 없다”고 공개 성명을 발표한 것이다. Dario Amodei CEO는 전날인 26일 이미 성명을 발표했다.

두 번째 사건: 같은 날, Trump 행정부는 Anthropic을 **공급망 리스크(supply chain risk)**로 지정하는 절차에 착수했다. Huawei 같은 외국 적성국 기업에나 적용하던 조치를 미국 국내 AI 기업에 최초로 적용한 것이다.

세 번째 사건: 역시 같은 날, OpenAI가 Department of War와의 기밀 네트워크 배포 계약을 발표했다. Anthropic이 비운 자리를 정확히 채우는 타이밍이었다.

해커뉴스의 반응은 폭발적이었다. Dario Amodei의 성명문은 2,919포인트, OpenAI의 계약 발표는 1,406포인트, 공급망 리스크 지정 소식은 1,362포인트를 기록했다. 세 포스트 합산 5,687포인트 — 단일 주제로는 이례적인 수치다. 수천 개의 댓글은 “AI 안전”이라는 단어의 의미가 근본적으로 재정의되는 순간을 실시간으로 목격하고 있었다.


2. 타임라인 — 계약에서 충돌까지

이 사건은 갑자기 터진 것이 아니다. 2025년 중반부터 쌓여온 긴장의 결과다.

2025년 6월 — Anthropic이 Claude Gov를 출시했다. 미국 정부 기밀 네트워크에 배포된 최초의 프론티어 AI 모델이었다. 같은 시기, Detachment 201이라는 조직이 주목받았다. Meta, OpenAI, Palantir 등 빅테크 임원들이 예비역 중령(Lieutenant Colonel) 자격으로 군과 협업하는 새로운 형태의 실리콘밸리-Pentagon 인터페이스였다.

2025년 7월 — Anthropic이 약 2억 달러 규모의 DoD 계약을 체결했다. 핵심은 두 가지 제한 조건이었다. (1) 완전 자율무기 타겟팅에 Claude를 사용하지 않을 것. (2) 미국인에 대한 대량 감시에 사용하지 않을 것. 이 두 조건이 이후 모든 갈등의 씨앗이 된다.

2025년 8월 — Palantir가 100억 달러 규모의 미 육군 계약을 수주했다. AI 군사 시장의 규모가 급격히 커지고 있었다.

2025년 9월 — Trump 행정부가 행정명령으로 국방부(Department of Defense)를 Department of War로 개명했다. 공식 도메인이 war.gov가 되었다. 단순한 네이밍이 아니라, 군사 정책의 방향 전환을 상징하는 조치였다.

2026년 1월 9일 — 전환점이 왔다. 국방장관 Pete Hegseth가 AI 전략 메모를 발표했다. 핵심 문구는 “any lawful use” — 법적으로 허용되는 모든 용도에 AI를 제한 없이 사용한다는 방침이었다. 그리고 결정적인 한 문장: “불완전한 정렬(imperfect alignment)의 리스크보다 속도 부족의 리스크가 더 크다.” AI 안전 커뮤니티가 수년간 쌓아온 논의를 정면으로 부정하는 선언이었다.

2026년 2월 24일 — Department of War가 Anthropic에 최후통첩을 보냈다. 2월 27일 오후 5시 01분까지 두 가지 제한 조건을 철폐하라. 그렇지 않으면 계약을 종료한다.

2026년 2월 26일 — Anthropic이 공개 성명을 발표했다. 거부.

2026년 2월 27일 — 트리플 이벤트. 금지 + OpenAI 계약 발표 + Amodei의 내부 메모 유출.

2026년 2월 28일 — Operation Epic Fury 개시. 이란에 대한 대규모 군사 작전이 시작되었고, 금지된 Claude가 여전히 군사 플랫폼에서 사용되고 있다는 보도가 나왔다.

2026년 3월 1일 — Claude가 전 세계 20개국 이상 앱스토어에서 1위를 기록했다. 정부의 금지가 역설적으로 최고의 마케팅이 된 것이다.

2026년 3월 4일 — Department of War가 공식적으로 Anthropic을 공급망 리스크로 지정하는 서한을 발송했다.

2026년 3월 5일 — Anthropic이 법적 대응을 선언했다. “이 조치가 법적으로 타당하다고 보지 않으며, 법원에서 이의를 제기할 수밖에 없다.”

2026년 3월 7일 — OpenAI의 로보틱스 총괄 Caitlin Kalinowski가 항의 사임했다. “사법적 감독 없는 미국인 감시와 인간 승인 없는 치명적 자율성”에 반대한다는 성명을 남겼다.


3. 세 가지 레드라인의 해부학

이 사건의 핵심을 이해하려면 각 당사자의 “레드라인”을 비교해야 한다.

Anthropic의 두 가지 레드라인

Dario Amodei는 성명에서 명확했다:

“미국과 민주주의를 방어하기 위해 AI를 사용하는 것이 실존적으로 중요하다고 깊이 믿는다. … 그러나 양심적으로 그들의 요구에 동의할 수 없다.”

Anthropic이 거부한 것은 군사 협력 자체가 아니었다. Claude는 이미 정보 분석, 모델링/시뮬레이션, 작전 계획, 사이버 작전 등에 광범위하게 사용되고 있었다. 거부한 것은 정확히 두 가지였다:

  1. 완전 자율무기(fully autonomous weapons) — “프론티어 AI 시스템은 완전 자율무기를 구동할 만큼 충분히 신뢰할 수 없다.” 부분 자율무기(partially autonomous)는 허용했다. “방어에 필수적”이라고까지 인정했다. 그러나 인간 감독 없이 치명적 결정을 내리는 시스템은 거부했다.

  2. 미국인 대량 감시(mass domestic surveillance) — “흩어진 개인 데이터를 대규모로 종합적 생활 프로필로 조합하는 데 AI를 제공하지 않을 것이다. 기술적으로 합법이라 해도.”

주목할 점은 Anthropic이 CCP 연계 기업에 대한 Claude 접근을 제한하기 위해 **“수억 달러의 매출”**을 이미 포기했다고 밝힌 것이다. 이 회사가 돈보다 원칙을 택한 것은 이번이 처음이 아니었다.

OpenAI의 세 가지 레드라인

OpenAI는 Anthropic보다 하나 더 많은 세 가지 레드라인을 내세웠다:

  1. 대량 감시 금지 — “미국 시민에 대한 국내 감시를 수행하는 데 사용되지 않을 것”
  2. 자율무기 지시 금지 — “법률, 규정 또는 부서 정책이 인간 통제를 요구하는 경우, AI 시스템이 자율무기를 독립적으로 지시하는 데 사용되지 않을 것”
  3. 고위험 자동 결정 금지 — “사회적 신용(social credit)” 시스템 같은 용도 금지

OpenAI는 자신들의 계약이 **“Anthropic의 기밀 AI 배포를 포함한 이전 어떤 계약보다 많은 보호장치를 가지고 있다”**고 주장했다. 구체적으로:

  • 클라우드 전용 배포 — 에지 디바이스 배포 없음 (자율 무기 사용 방지)
  • OpenAI가 안전 스택 운영 — “가드레일 해제”나 안전 훈련 없는 모델 제공 거부
  • 계약서에 현행법 고정 — 수정헌법 제4조, 1947년 국가안보법, 1978년 FISA법, 행정명령 12333, Posse Comitatus Act, DoD 지시 3000.09를 명시적으로 참조. 법률이 변경되더라도 현행 기준에 맞춰야 함

Hegseth의 “any lawful use” — 구체적으로 무엇을 의미하는가

Pentagon의 요구는 단순했다. 법적으로 합법인 모든 사용에 AI 기업이 제한을 걸지 말 것. 여기서 “합법”의 범위가 문제다.

미국 전쟁법(Law of Armed Conflict)은 무기 사용의 비례성과 구별을 요구하지만, AI의 역할에 대한 구체적 법률은 아직 없다. “any lawful use”는 현실적으로 법의 공백 지대를 기업의 자발적 제한 없이 정부가 채우겠다는 선언이다. AI가 표적 선정에 관여하는 것이 “합법”인가? 법적으로는 금지하는 조항이 없다. 바로 그 공백이 Anthropic이 지키려 한 레드라인이었다.

비교표

항목AnthropicOpenAIPentagon 요구
완전 자율무기❌ 거부❌ 거부 (조건부)✅ “any lawful use”
대량 감시❌ 거부❌ 거부✅ “any lawful use”
고위험 자동 결정미언급❌ 거부✅ “any lawful use”
부분 자율무기✅ 허용✅ 허용✅ 요구
기밀 네트워크 배포✅ 기존 운영✅ 신규 계약✅ 요구
레드라인 철폐 수용❌ 거부⚠️ 계약으로 대체✅ 요구

흥미로운 것은 Anthropic과 OpenAI의 레드라인이 사실상 거의 동일하다는 점이다. 차이는 이행 방식에 있었다. Anthropic은 “우리 정책에 명시된 제한”을 고수했고, OpenAI는 “계약서 조항으로 제한을 법적 구속력 있게 만들었다”고 주장했다. 어느 쪽이 더 견고한가는 결국 법원에서 판가름날 문제다.


4. 공급망 리스크 지정의 의미

이 사건에서 가장 전례 없는 조치가 바로 공급망 리스크 지정이다.

기존 적용 대상

공급망 리스크 지정은 10 USC §3252 조항에 근거한다. 지금까지 이 조치가 적용된 대상은 Huawei, ZTE, Kaspersky Lab 등 외국 적성국 기업이었다. 적국의 기술이 미국 군사 시스템에 침투하는 것을 막기 위한 장치였다.

그런데 이것을 미국 국내 기업에 최초로 적용했다. Anthropic이 중국 기업이나 러시아 기업과 같은 카테고리에 놓인 것이다. 이유는? 계약 조건에 동의하지 않았기 때문이다.

법적 근거의 불안정성

Anthropic은 즉각 반박했다: “이 조치가 법적으로 타당하다고 보지 않는다.” 법률 분석 매체 Lawfare와 Just Security의 전문가들도 같은 견해를 보였다. §3252 조항은 **“필요한 최소 제한 수단(least restrictive means necessary)“**을 요구하는데, 계약 조건 불일치를 이유로 공급망 리스크를 지정하는 것은 이 기준을 충족하기 어렵다는 것이다.

공급망 리스크는 “이 기업의 제품이 보안 위협을 내포한다”는 의미다. Anthropic의 Claude가 보안 위협이라서가 아니라 정책적 조건에 동의하지 않았기 때문에 리스크로 지정한 것은 법적 체계에서 살아남기 어렵다.

6개월 Phase-out과 아이러니

지정에 따르면 모든 DoD 시스템에서 Claude를 6개월 내에 단계적으로 제거해야 한다. Anthropic은 이 전환 기간 동안 “명목상 비용(nominal cost)“으로 모델을 제공하겠다고 밝혔다. 적대적 관계에서도 미국 군에 대한 지원을 유지하겠다는 것이다.

그런데 아이러니가 있다. 2월 28일 시작된 Operation Epic Fury에서 Claude가 여전히 Palantir의 기밀 플랫폼 위에서 사용되고 있었다는 보도가 나왔다. 금지된 AI가 전쟁에서 계속 사용되는 모순. 이것이 공급망 리스크 지정의 실질적 한계를 보여준다.

정치적 압박 도구인가, 진정한 안보 조치인가

OpenAI조차 이 지정에 반대했다. “아니요, 그리고 우리는 이 입장을 정부에 분명히 전달했습니다.” OpenAI는 Anthropic과 경쟁 관계임에도 불구하고 정부에 Anthropic과의 문제를 해결하라고 요청했다고 밝혔다. “현재 상태는 정부와 AI 연구소 간 협업의 다음 단계를 시작하는 매우 나쁜 방법”이라고까지 표현했다.

이 지정의 실질적 효과는 법적 제재가 아니라 정치적 압박에 가깝다. “우리 요구에 따르지 않으면 이런 대가를 치른다”는 메시지를 AI 산업 전체에 보내는 것이다.


5. Operation Epic Fury — AI 전쟁의 첫 대규모 실전

논쟁이 한창인 와중에, AI의 군사적 사용이 이론에서 현실로 전환되는 사건이 벌어졌다.

2026년 2월 28일, Anthropic 금지 다음 날, 미군이 이란에 대한 대규모 군사 작전 Operation Epic Fury를 개시했다. Soufan Center의 분석에 따르면, 이 작전은 **“세계 최초의 대규모 AI 주도 전쟁”**으로 기록될 수 있는 규모였다.

12시간 만에 900회 공격, 48시간 내에 1,250개 이상의 표적이 타격되었다. 이 속도는 인간 분석관만으로는 불가능한 것이었다. AI가 수행한 역할은 다층적이었다:

  • 실시간 데이터 분석 — 위성 이미지, 신호 정보, 인간 정보를 통합 분석
  • 위성 좌표 산출 — 표적 위치의 정밀 좌표 계산
  • 표적 우선순위 결정 — 수백 개의 잠재적 표적에서 전략적 가치와 법적 허용 가능성을 기준으로 우선순위 산출
  • 탄약 매칭 — 각 표적에 최적화된 무기와 탄종 추천
  • 법률 검토 — 교전 규칙과 국제 인도법 준수 여부의 자동 검증

이 모든 것이 Palantir의 기밀 플랫폼 위에서 작동했고, 그 플랫폼 위에는 여전히 Claude가 돌아가고 있었다.

금지된 AI를 전쟁에서 계속 사용하는 이 모순은 두 가지를 보여준다. 첫째, AI가 이미 군사 작전에 너무 깊이 통합되어 있어 즉각적인 제거가 불가능하다는 현실. 둘째, 공급망 리스크 지정이 실질적 안보 조치가 아니라 정치적 제스처에 가깝다는 증거.


6. 시장의 반응 — Streisand Effect

정부의 제재가 최고의 마케팅이 된 사례가 탄생했다.

Trump 행정부의 Anthropic 제재 소식이 퍼지자, 역설적인 일이 벌어졌다. 일반 소비자들이 Claude를 대거 다운로드하기 시작한 것이다.

  • Claude 일일 다운로드: 149,000건 — ChatGPT의 124,000건을 넘어섰다
  • 주당 100만 명 이상의 신규 가입자
  • ChatGPT 삭제 295% 급증 — OpenAI의 Pentagon 계약에 반발한 사용자들이 이탈
  • 20개국 이상 앱스토어 1위 — 미국뿐 아니라 유럽, 아시아 전역에서

이것은 전형적인 Streisand Effect다. 정보를 억압하려는 시도가 오히려 그 정보를 더 널리 퍼뜨리는 현상. 이 경우에는 정부가 특정 AI를 위험하다고 낙인찍은 행위가 오히려 그 AI에 대한 대중의 신뢰와 호감을 폭발적으로 높인 것이다.

3월 1일, Claude는 앱스토어 1위에 올랐다. “정부가 막으려는 AI”라는 라벨이 “정부에 맞서는 AI”로 재해석되면서, Anthropic은 의도치 않게 반체제적 이미지까지 얻게 되었다.

비즈니스 관점에서 이 현상은 중요한 질문을 던진다. Anthropic이 Pentagon 계약을 거부한 것이 단기적으로는 수억 달러의 매출 손실이지만, 장기적으로는 브랜드 가치와 소비자 시장에서의 우위를 가져왔다면, 이것은 순수한 윤리적 결정인가 아니면 전략적 결정인가? 아마 둘 다일 것이다. 그리고 그것이 이 상황의 아름다움이자 복잡함이다.


7. 더 큰 그림 — 실리콘밸리-Pentagon 복합체

이 사건은 더 큰 구조적 변화의 일부다.

Detachment 201 — 빅테크 임원이 군복을 입다

Detachment 201은 2025년에 공식화된 새로운 형태의 민군 협력체다. Meta, OpenAI, Palantir 등 빅테크 기업의 임원들이 예비역 중령(Lieutenant Colonel) 자격으로 군과 직접 협업한다. 이전에는 방산 기업의 전유물이었던 군사 관련 업무에 실리콘밸리가 깊숙이 들어온 것이다.

이것은 냉전 시대의 군산복합체(Military-Industrial Complex)의 21세기 버전이다. 차이가 있다면, 이번에는 무기 제조업체가 아니라 정보와 의사결정 시스템을 만드는 기업이 중심이라는 것이다. 물리적 무기보다 더 근본적인 층위에서 전쟁의 성격을 바꾸는 힘.

Meta는 Anduril과 협력해 AR 전투 헤드셋을 개발하고, Palantir는 100억 달러 규모의 육군 데이터 분석 계약을 체결했다. 빅테크와 Pentagon 사이의 벽은 이미 사라지고 있었다. Anthropic만이 그 벽의 일부를 지키려 했다.

Kalinowski의 사임 — 내부에서의 반란

가장 극적인 반전 중 하나는 OpenAI 내부에서 나왔다. 3월 7일, OpenAI의 로보틱스 총괄 Caitlin Kalinowski가 항의 사임했다. Apple의 Vision Pro 개발을 이끌었던 하드웨어 엔지니어링의 거물이 OpenAI에 합류한 지 불과 수개월 만에 떠난 것이다.

그녀가 공개한 사임 사유는 두 가지였다:

  1. 사법적 감독 없는 미국인 감시 — OpenAI의 계약서에 보호장치가 있다고 주장하지만, 실효성에 의문을 제기
  2. 인간 승인 없는 치명적 자율성 — “자율무기를 독립적으로 지시하지 않는다”는 조항의 “독립적으로”라는 단어에 숨겨진 해석의 여지

Kalinowski의 사임은 OpenAI의 “가드레일이 더 강하다”는 주장에 대한 내부자의 반론이었다. 계약서의 문구와 실제 운용 사이의 괴리를 지적한 것이다.

참여(engagement) vs 거부(refusal) — 어느 쪽이 더 효과적인가

이 사건이 AI 윤리 논쟁에 던지는 가장 근본적인 질문이 있다. 기술 기업이 군사 사용에 참여하면서 내부에서 제한하는 것아예 거부하는 것 중 어느 쪽이 더 효과적인가?

참여 논리: “우리가 테이블에 앉아 있으면 최소한 가드레일을 협상할 수 있다. 우리가 떠나면 가드레일 없는 대안이 그 자리를 채울 뿐이다.” — OpenAI의 입장이 이것이다. 실제로 OpenAI는 계약서에 수정헌법 제4조부터 FISA법까지 명시적으로 참조하는 등 상당한 법적 보호장치를 넣었다.

거부 논리: “특정 기준 이하의 용도에 기술을 제공하는 것 자체가 정당화(legitimization)다. 레드라인은 지켜야 의미가 있다.” — Anthropic의 입장이다. 문제는 Anthropic이 참여와 거부의 중간을 택했다는 것이다. 참여하되 레드라인을 지키려 했으나, “any lawful use”가 레드라인 자체를 허용하지 않았다.

결국 둘 다 불완전하다. OpenAI의 가드레일은 계약서에만 존재하고 실제 운용에서는 검증이 어렵다. Anthropic의 거부는 Claude가 이미 전쟁에 사용되고 있는 현실 앞에서 무력하다. Kalinowski의 사임은 참여 전략의 한계를, Operation Epic Fury는 거부 전략의 한계를 각각 보여준다.


8. Amodei의 딜레마 — “20%는 진짜, 80%는 safety theater”

Anthropic의 내부 메모가 유출되었을 때, Dario Amodei의 솔직한 평가가 담겨 있었다. 자신들의 안전 정책에 대해 **“20%는 진짜이고 80%는 safety theater”**라는 표현을 사용한 것으로 알려졌다.

이 발언은 맥락이 중요하다. AI 안전 정책의 대부분은 현실적으로 의미 있는 제한이 아니라 PR과 신뢰 구축을 위한 것이라는 인정이다. 그리고 그 “20%의 진짜” 부분이 바로 자율무기와 대량 감시에 대한 레드라인이었다는 해석이 가능하다.

Amodei는 공개 성명에서 이 프레이밍을 정교하게 표현했다. 자율무기와 대량 감시를 **“높은 수준의 사용 영역(high-level usage areas)“**이라고 부르며, 이것은 “운영적 의사결정이 아닌” 수준의 제한이라고 설명했다. 즉, 군사적 의사결정 권한은 군에 있어야지 민간 기업에 있어서는 안 된다는 논리다. 기업이 전쟁의 방식을 결정하는 것은 아니지만, 그 도구에 대한 최소한의 안전장치를 유지할 권리는 있다는 것이다.

이것은 공학적이면서 동시에 철학적인 주장이다. AI 모델은 완벽하지 않다. 환각(hallucination)을 일으키고, 편향이 있고, 적대적 공격에 취약하다. 이런 시스템에 인간 감독 없이 치명적 결정을 맡기는 것은 기술적으로도 위험하다. Amodei는 윤리가 아니라 공학적 신뢰성의 프레임으로 자신의 레드라인을 정당화했다.

“프론티어 AI 시스템은 완전 자율무기를 구동할 만큼 충분히 신뢰할 수 없다. … 이것이 가능해질 미래가 올 수도 있겠지만, 아직은 아니다.”

“아직은 아니다(not yet)” — 이 두 단어가 핵심이다. 영구적인 원칙이 아니라 기술적 현실에 기반한 판단이라는 것. 이것이 Anthropic의 입장을 원칙론과 실용론의 중간 어딘가에 놓는다.


9. 결론 — “AI 안전”의 재정의

이 사건 이후, “AI 안전(AI safety)“이라는 단어는 다시는 같은 의미를 가질 수 없게 되었다.

2023-2024년, AI 안전은 주로 모델 정렬(model alignment) 문제였다. AI가 인간의 의도에 맞게 행동하는가? 유해한 출력을 생성하지 않는가? 편향은 없는가? 이런 기술적 질문이 중심이었다.

2026년 2월 이후, AI 안전은 지정학적 정렬(geopolitical alignment) 문제가 되었다. 어느 국가의 이익에 맞게 작동하는가? 어떤 전쟁에 사용되는가? 누구의 감시에 기여하는가? 기술적 안전은 정치적 안전의 부분집합이 된 것이다.

이 전환에는 깊은 아이러니가 있다. Anthropic은 AI 안전 연구를 위해 설립된 회사다. OpenAI에서 갈라져 나온 이유 자체가 AI의 안전한 개발이었다. 그 회사가 이제 국가 안보의 이름으로 “안전하지 않다”는 낙인을 받은 것이다.

기술 기업이 국가의 도구가 되는 것과 독립성을 유지하는 것 사이의 긴장은 이제 시작일 뿐이다. AI가 전쟁, 감시, 통제의 도구로 사용되는 시대에, 기술 기업의 윤리 정책은 더 이상 PR 문서가 아니다. 그것은 지정학적 선언이다.

개발자로서, 사용자로서, 우리 역시 이 긴장에서 자유롭지 않다. ChatGPT를 사용하는가 Claude를 사용하는가, 어떤 클라우드 서비스를 선택하는가, 어떤 API를 호출하는가 — 도구의 선택이 정치적 선택이 되는 시대에 우리는 이미 들어와 있다.

2월의 마지막 주에 벌어진 세 가지 사건은 그 시대의 서막이었다. AI 안전을 둘러싼 진짜 논쟁은 이제부터 시작이다.


이 글에 인용된 내용은 Anthropic, OpenAI의 공식 성명, 해커뉴스 커뮤니티 반응, 그리고 Lawfare, Just Security, Soufan Center 등의 분석 보도를 기반으로 합니다.