leangnews
Command Palette
Search for a command to run...
2026년 02월 24일 09:02
Anthropic, DeepSeek·Moonshot·MiniMax 'AI 증류' 도용 의혹 폭로
기사 요약
- Anthropic는 DeepSeek·Moonshot AI·MiniMax가 수만 개의 가짜 계정으로 Claude 능력을 빼내는 ‘AI 증류’를 했다고 공개 주장했다.
- 회사에 따르면 약 2만4천 개 계정으로 1,600만 건 이상 상호작용이 발생했으며, 프록시·‘하이드라 클러스터’로 지역 제한을 우회했다.
- Anthropic는 이를 국가안보 위협으로 규정하고, 업계·클라우드·정책 당국 간 공조와 API 보안 강화를 촉구했다.
Anthropic, 중국 3개 연구소의 대규모 ‘AI 증류’ 도용 의혹 제기
Anthropic는 DeepSeek, Moonshot AI, MiniMax가 가짜 계정 수만 개를 동원해 Claude 모델의 핵심 역량을 체계적으로 추출했다고 밝혔다. 회사는 약 2만4천 개의 위장 계정으로 1,600만 건 이상 요청이 발생했으며, 이는 이용약관과 지역 접근 제한을 모두 위반한 행위라고 주장했다. 이 폭로는 미·중 AI 개발 긴장 속에서 반도체 수출통제 논의와 맞물려 업계 전반에 파장을 일으키고 있다.
사건 개요와 핵심 주장
핵심 쟁점: AI 증류를 통한 기능 탈취
Anthropic에 따르면 세 캠페인은 공통적으로 Claude의 차별화된 역량인 에이전트형 추론, 도구 사용, 코딩을 집중 겨냥했다. ‘AI 증류’는 거대 모델(교사)의 출력으로 더 작은 모델(학생)을 학습시키는 합법적 기법이지만, 경쟁사가 대량 프롬프트로 출력을 수집해 역량을 흡수하면 사실상 산업 수준의 기술 탈취가 된다는 게 회사의 시각이다. Anthropic는 “공격 강도와 정교함이 커지고 있어 신속한 공동 대응이 필요하다”고 경고했다.
증류 기법의 부상과 논쟁
배경 설명: 합법적 기법에서 논란의 AI 증류로
증류는 학계에서 출발해 현재 프런티어 모델을 더 작게, 더 저렴하게 만드는 표준적 방법으로 자리 잡았다. 그러나 2025년 1월 DeepSeek의 R1 공개 이후, 낮은 비용으로 선두 모델에 근접한 성능을 달성할 수 있다는 점이 부각되며 논란이 커졌다. UC 버클리, 스탠퍼드·워싱턴대 등은 짧은 시간과 수십~수백 달러 규모로 추론 모델을 재현했다고 밝혔고, DeepSeek는 MIT 라이선스로 증류 모델을 공개하며 상업적 활용과 2차 저작(증류 포함)을 허용했다.
세부 정황: DeepSeek·Moonshot AI·MiniMax
DeepSeek 사례: 추론·검열 회피 학습 시도
DeepSeek는 약 15만 회 이상의 상호작용을 생성했으며, 강화학습 보상모델처럼 Claude가 채점·평가를 수행하도록 한 루브릭 기반 프롬프트를 다수 사용했다고 한다. 특히 응답이 끝난 뒤 내부 추론을 단계별로 서술하게 해 대규모 사유 과정(Chain-of-Thought) 데이터를 뽑아내는 시도가 관찰됐다. 또한 ‘반체제 인사·권력자·권위주의’ 같은 민감 질의에 대한 ‘검열 안전’ 대안을 만들도록 유도한 정황도 제시됐다.
Moonshot AI 사례: 340만 건 규모와 추론 흔적 복원
베이징의 Moonshot AI는 에이전트형 추론·도구 사용, 코딩·데이터 분석, 컴퓨터 조작 에이전트, 컴퓨터 비전을 겨냥해 340만 건이 넘는 트래픽을 발생시킨 것으로 지목됐다. 수백 개의 위장 계정과 다양한 접근 경로를 활용해 탐지를 어렵게 했고, 후반부에는 Claude의 추론 흔적을 추출·재구성하려는 시도가 관측됐다는 주장이다.
MiniMax 사례: 1,300만 건과 기민한 ‘피벗’
상대적으로 덜 알려진 MiniMax는 전체의 3/4을 넘는 1,300만 건 이상을 생성한 최대 규모로 지목됐다. Anthropic는 해당 캠페인을 진행 중에 포착해 데이터 생성부터 모델 출시까지 ‘AI 증류’ 공격 생애주기를 이례적으로 추적했다고 했다. 새 모델이 공개되자 24시간 내에 트래픽 절반가량을 최신 모델로 전환한 점도 포착됐다.
접근 우회 인프라
조직적 우회 수법: 프록시·‘하이드라 클러스터’
Anthropic는 중국 내 Claude 상용접근을 제공하지 않지만, 대규모 프록시 사업자가 Claude 등 프런티어 모델을 재판매하며 접근 제한을 우회했다고 설명한다. 이들은 수많은 가짜 계정을 분산 배치하는 ‘하이드라 클러스터’ 아키텍처로 단일 실패 지점을 없애고, 정당한 고객 트래픽과 섞어 탐지를 어렵게 만든다. 한 네트워크는 동시에 2만 개가 넘는 계정을 관리한 사례도 보고됐다.
국가안보 프레이밍과 정책 함의
안보 리스크: 불법 AI 증류의 안전장치 상실
Anthropic는 불법적으로 증류된 모델은 안전장치가 약화돼 생물·사이버·감시 남용 위험이 커진다고 경고한다. 이는 수출통제로 유지하려는 기술 격차를 ‘AI 증류’ 공격이 잠식한다는 논지와 연결된다. 회사는 최근 급속한 성과가 자체 혁신이 아니라 미국 모델 역량을 빼낸 결과일 수 있다고 주장하며, 정책 당국의 가시성과 집행 수단(제재·수출통제 강화 등)을 촉구했다.
법적 회색지대
법·정책 쟁점: 불법 AI 증류의 회색지대
저작권은 인간 저작물에 한정되고, 다수의 모델 약관이 출력 소유권을 사용자에게 귀속해 증거가 있어도 권리 행사에 제약이 따른다. 반면 계약법(이용약관 위반)은 비교적 명확하지만, 해외 관할과 프록시·가짜 계정으로 집행이 어렵다. Anthropic가 이를 단순한 IP 분쟁이 아닌 안보 이슈로 제기한 배경에는 이러한 법적 한계가 자리한다.
대응과 업계 영향
방어 전략: AI 증류 탐지와 API 보안 강화
Anthropic는 체인오브소트 유도 탐지 등 분류기·행동 지문화로 ‘AI 증류’ 패턴을 식별하고, 타 연구소·클라우드·당국과 지표를 공유 중이라고 밝혔다. 교육·보안연구·스타트업 경로의 계정 검증을 강화하고, 합법 사용자 경험을 해치지 않으면서도 증류 효용을 낮추는 모델 차원의 방어도 개발 중이다.
향후 전망: API 보안의 전략자산화
의회에서는 ‘No DeepSeek on Government Devices Act’가 발의되고, NASA 등은 DeepSeek 기기 사용을 금지했다. 업계 전반에서 API는 모든 프런티어 연구소의 공격 표면으로 간주되고 있으며, 모델 가중치만큼이나 API 보안이 전략 자산이 되는 국면이 도래하고 있다. 앞으로 대응책이 공조를 이끌지, 아니면 공격-방어의 군비 경쟁을 가속할지는 정책 선택에 달려 있다.