본문 바로가기

일과 생각

AI 기업이 '레드라인'을 지킨다는 것의 의미

지난 2월 27일, 미국 국방부가 Anthropic에 이례적인 '공급망 위험(Supply Chain Risk)' 지정을 내렸습니다.
통상 중국 기업이나 외국 적성국에게 붙이는 이 딱지가, 미국의 AI 스타트업에게 처음으로 적용됐습니다. 
국방부와 계약을 맺은 업체들은 Claude를 사용하지 않는다는 것을 인증해야 하며, 트럼프 대통령은 Truth Social을 통해 연방 기관 전체에 Anthropic 기술 사용 중단을 지시했습니다.

발단은 Anthropic이 국방부에 요청한 두 가지 조건이었습니다.
1. Claude를 미국 시민에 대한 대규모 감시에 사용하지 말 것. 
2. 자율 무기 시스템에서 인간의 판단 없이 Claude가 단독으로 결정을 내리게 하지 말 것. 
국방부는 이를 거부했습니다. 사유는 간단했습니다. 
"민간 기업이 국가 안보 상황에서 우리의 도구 사용 방식을 제한할 수 없다."

Anthropic은 3월 9일, 연방 법원에 두 건의 소송을 제기했습니다.
저는 이 사건을 단순한 기업과 정부의 계약 분쟁으로 보지 않습니다.
이것은 AI 기업의 원칙이 실제 비용을 치르게 되는 첫 번째 큰 시험입니다.
Anthropic의 CFO는 법원 제출 서류에서 이 지정이 2026년 수익에 수십억 달러의 손실을 초래할 수 있다고 밝혔습니다. 

100개 이상의 엔터프라이즈 고객이 지정 이후 Anthropic에 연락을 취했습니다. 
아마존과 구글은 Anthropic의 주요 투자자이자 미국 정부의 주요 방산 계약업체이기도 합니다.
원칙을 지키는 비용이 이 정도입니다.

흥미로운 일이 이어졌습니다.
국방부가 Anthropic을 공급망 위험으로 지정한 직후, OpenAI는 국방부와 계약을 체결했습니다. 
다리오 아모데이는 OpenAI의 접근 방식을 두고 '안전 연극(Safety Theater)'이라고 공개 비판했고, 
샘 알트먼은 이에 우회적으로 반격했습니다. 

두 회사의 CEO가 공개적으로 충돌하는 사이, 
OpenAI와 Google DeepMind의 직원 30명 이상이 개인 자격으로 Anthropic 지지 의견서를 법원에 제출했습니다. 
Google의 수석 과학자 제프 딘도 서명자 중 한 명이었습니다.
경쟁사 직원들이 경쟁사를 지지하는 일이 벌어진 것입니다.

이 사건이 AI 업계에 던지는 질문은 명확합니다.
AI 기업이 자사 모델의 사용 방식에 대해 '레드라인'을 설정하고 유지할 수 있는가. 
그 선이 충분히 강한가. 그리고 그 선을 지키는 데 실제로 얼마의 비용을 감수할 수 있는가.
Anthropic은 보도자료가 아니라 소송으로 그 질문에 답하는 중입니다.

저는 이 상황이 앞으로 AI 도입을 검토하는 기업들에게도 중요한 참고점이 될 것이라고 생각합니다.
어떤 AI 공급사를 선택하느냐는, 단순히 모델 성능의 문제가 아닙니다. 
그 회사가 어떤 상황에서 어떤 선택을 하는지, 그 원칙이 실제 압력 앞에서 어떻게 작동하는지를 함께 보는 일이 됩니다. 
공급사의 원칙이 흔들리면, 그 위에 쌓은 서비스도 함께 흔들릴 수 있습니다.
어떤 AI와 함께 일할 것인가에 대한 판단 기준이 조금 더 복잡해진 한 주였습니다.

관련 내용은 아래 링크에서 확인할 수 있습니다.
https://www.cnbc.com/2026/03/09/anthropic-trump-claude-ai-supply-chain-risk.html