앤트로픽은 지난 금요일 오후 캘리포니아 연방법원에 두 건의 진술서를 제출했는데, 이는 AI 회사가 ‘국가 안보에 용납할 수 없는 위험’을 초래한다는 미 국방부의 주장을 기각하고, 정부의 소송은 분쟁 이전 몇 달 동안의 협상 동안 실제로 제기된 적이 없는 기술적인 오해와 주장에 근거하고 있다고 주장했다.
이 성명서는 국방부를 상대로 한 소송에 대한 Anthropic의 답변 요약서와 함께 제출되었으며 다음 주 화요일인 3월 24일 화요일 샌프란시스코에서 Rita Lin 판사 앞에서 심리를 앞두고 있습니다.
이 분쟁은 트럼프 대통령과 피트 헤그세스 국방장관이 앤트로픽이 인공지능 기술의 무제한적인 군사적 사용을 거부하자 앤트로픽과의 관계를 끊겠다고 공개적으로 밝힌 2월 말부터 시작됐다.
성명서를 제출한 두 사람은 Anthropic의 최고 정책 책임자인 Sarah Heck와 회사의 공공 부문 이사인 Thiyagu Ramasamy입니다.
Heck은 전직 국가안전보장회의(National Security Council) 직원으로, 오바마 행정부 시절 백악관에서 근무한 뒤 Stripe로 옮겨가다가 Anthropic으로 옮겨 회사의 대정부 관계 및 정치 업무를 이끌고 있습니다. 그는 지난 2월 24일 다리오 아모데이 최고경영자(CEO)가 헤그세스 국방장관, 에밀 마이클 미 국방부 차관과 함께 앉은 회의에 직접 참석했다.
그 안에 성명Heck은 정부 문서에서 그녀가 설명하는 주요 허위 내용을 폭로합니다. 즉, Anthropic이 군사 작전에 대해 어떤 형태의 승인 서류를 요구했다는 것입니다. 그는 그 진술이 사실이 아니라고 주장한다. “Anthropic이 부서와 협상하는 동안 나나 다른 Anthropic 직원은 회사가 그런 유형의 직책을 원한다고 말한 적이 없습니다.”라고 그는 썼습니다.
그는 또한 인류가 작전 중 기술을 비활성화하거나 변경하는 것에 대한 국방부의 우려가 협상 중에 제기된 적이 없다고 주장합니다. 대신, 그는 그것이 정부 법원 서류에 처음 등장했지만 Anthropic이 대응할 기회를 주지 않았다고 말했습니다.
기술 이벤트
샌프란시스코, 캘리포니아 주, 미국
|
2026년 10월 13~15일
눈살을 찌푸리게 할 Heck의 성명에서 또 다른 세부 사항은 3월 4일(국방부가 Anthropic에 대한 공급망 위험 지정을 공식적으로 종료한 다음 날)에 Amodei에게 이메일을 보내 행정부가 현재 Anthropic이 국가 안보 위협이라는 증거로 인용하고 있는 두 가지 문제, 즉 자율 무기와 미국의 대규모 감시에 대한 입장에 대해 양측이 “매우 가깝다”고 말했습니다.
Heck이 자신의 진술에 대한 증거로 첨부한 이메일은 Michael이 그 후 며칠 동안 공개적으로 말한 내용과 함께 읽을 가치가 있습니다. 3월 5일, Amodei는 회사가 “생산적인 대화” 펜타곤과 함께. 다음날 마이클 X에 게시됨 “Anthropic과 활발한 전쟁부 협상이 없습니다.” 일주일 뒤 그는 CNBC에 회담을 재개할 “기회는 없다”고 말했다.
Heck의 요점은 다음과 같습니다. 이 두 가지 문제에 대한 Anthropic의 입장이 국가 안보 위협이 된다면 왜 국방부 관리는 지정이 확정된 직후 양측이 해당 문제에 대해 거의 정확히 일치했다고 직접 말했습니까? (정부가 해당 지정을 협상 카드로 사용했다고는 말할 수 없지만 제시된 일정을 보면 의문이 남는다.)
Ramasamy는 사건에 다른 종류의 경험을 제공합니다. 2025년 Anthropic에 합류하기 전에 그는 기밀 환경을 포함하여 정부 고객을 위한 AI 배포를 관리하는 Amazon Web Services에서 6년을 보냈습니다. Anthropic에서 그는 자신의 Claude 모델을 국가 안보 및 국방 환경에 적용한 팀을 창설한 공로를 인정받았습니다. 2억 달러 계약 지난 여름 국방부가 발표한 것과 함께요.
그의 성명 Anthropic이 기술을 비활성화하거나 동작을 변경함으로써 이론적으로 군사 작전을 방해할 수 있다는 정부의 주장을 가정합니다. Ramasamy는 이것이 기술적으로 불가능하다고 말합니다. 그의 설명에 따르면 Claude가 제3자 계약자가 운영하는 정부 보안 “공백” 시스템 내에 배포되면 Anthropic은 이에 접근할 수 없습니다. 원격 킬 스위치, 백도어, 무단 업데이트 전송 메커니즘이 없습니다. 그는 어떤 종류의 “작전 거부권”도 허구이며, 모델을 변경하려면 이를 설치하려면 국방부의 명시적인 승인과 조치가 필요하다고 설명합니다.
그는 Anthropic은 데이터 추출은커녕 정부 사용자가 시스템에 무엇을 쓰고 있는지조차 볼 수 없다고 말합니다.
Ramasamy는 또한 Anthropic이 외국인을 고용하면 회사가 보안 위험에 처하게 된다는 정부의 주장에 대해 이의를 제기합니다. Anthropic 직원은 미국 정부 보안 허가 확인(기밀 정보에 액세스하는 데 필요한 것과 동일한 배경 확인 프로세스)을 거쳤으며 “내가 아는 한” Anthropic은 승인된 직원이 실제로 기밀 환경에서 실행되도록 설계된 AI 모델을 구축한 유일한 AI 회사라고 덧붙였습니다.
Anthropic의 소송은 미국 회사에 처음으로 적용된 공급망 위험 지정이 수정헌법 제1조를 위반하여 AI 안전에 대한 회사의 공개적 견해에 대한 정부의 보복에 해당한다고 주장합니다.
정부는 이번 주 초 40페이지 분량의 문서를 통해 다음과 같이 말했습니다. 그 프레임을 완전히 거부했습니다Anthropic이 자사 기술의 모든 합법적인 군사적 사용을 거부한 것은 보호된 발언이 아닌 비즈니스 결정이며, 해당 지정은 회사의 견해에 대한 처벌이 아니라 국가 안보를 위한 단순한 요구였다고 말했습니다.