leangnews
Command Palette
Search for a command to run...
2025년 12월 03일 13:01
DeepSeek V3.2, GPT-5 견줄 성능을 MIT 라이선스로 무료 공개
기사 요약
- 중국 스타트업 DeepSeek이 일상 추론형 DeepSeek V3.2와 대회 특화형 V3.2-Speciale를 공개하며 GPT-5·Gemini-3.0-Pro에 필적한다고 주장하고, 두 모델을 MIT 오픈소스로 배포했습니다.
- 핵심 혁신인 DSA(DeepSeek Sparse Attention)로 128k 토큰 처리 시 추론 단가를 V3.1 대비 약 70% 절감하면서 685B 파라미터와 128k 컨텍스트를 지원하고, AIME 96.0%·HMMT 99.2%·IMO 금메달 등 벤치마크에서 최상위권 성적을 냈습니다.
- 툴 사용 중 사고(Reasoning Trace 유지), 기업 도입 유인과 규제 리스크(EU·미국) 공존, 수출통제 속 중국산 칩 호환 등의 이슈가 얽히며 미·중 AI 경쟁 구도를 흔들 가능성이 커졌습니다.
DeepSeek V3.2 공개: 개요와 핵심 포인트
DeepSeek는 일상형 추론 보조 모델인 DeepSeek V3.2와 고성능 변형 DeepSeek-V3.2-Speciale를 발표했습니다. 회사는 두 모델이 OpenAI GPT-5와 Google Gemini‑3.0‑Pro에 맞먹거나 앞선다고 주장하며, 전면 오픈소스(MIT 라이선스)로 가중치·훈련 코드·문서를 공개했습니다. 미국의 대중(對中) 수출통제에도 불구하고 경쟁력 있는 프런티어 모델을 무료로 배포했다는 점에서 파장이 큽니다.
DeepSeek V3.2의 DSA 혁신과 비용 절감
신형 아키텍처 DSA(DeepSeek Sparse Attention)는 이른바 ‘라이트닝 인덱서’를 통해 질의마다 핵심 컨텍스트만 선별해 연산을 집중합니다. 전통적 어텐션이 입력 길이에 제곱으로 비용이 증가하는 한계를 완화하며, 128,000 토큰 처리 기준 디코딩 비용이 백만 토큰당 약 0.70달러로 V3.1‑Terminus의 2.40달러 대비 약 70% 절감됐습니다. 기술 보고서는 “성능을 유지하면서 계산 복잡도를 크게 낮췄다”고 밝힙니다.
장문 컨텍스트와 모델 스펙
DeepSeek V3.2는 685B 파라미터, 128k 컨텍스트 윈도우를 지원해 대형 문서, 코드베이스, 논문 분석에 적합합니다. 독립 벤치마크에서 장문 과제 성능이 희소 어텐션 도입에도 전작과 동등하거나 상회했다고 보고됩니다.
벤치마크: GPT‑5급 성능 주장 근거
DeepSeek‑V3.2‑Speciale는 AIME 2025에서 96.0%(GPT‑5‑High 94.6%, Gemini‑3.0‑Pro 95.0%), HMMT에서 99.2%(Gemini 97.5%)를 기록했습니다. 국제 대회 실전 성과도 두드러져 IMO 35/42점(금메달), IOI 492/600점(금, 종합 10위), ICPC 세계파이널 10/12 문제 해결(2위)을 달성했으며, 테스트는 인터넷·외부 도구 없이 대회 규정을 엄수했다고 합니다. 코딩에서는 SWE‑Verified 버그 수정 73.1%(GPT‑5‑High 74.9%), Terminal Bench 2.0에서 46.4%(GPT‑5‑High 35.2%)를 기록했습니다. 한편 토큰 효율성은 과제로 남아, Gemini‑3.0‑Pro 수준의 출력 품질을 내기 위해 더 긴 생성 경로가 필요한 경우가 있다고 인정했습니다.
툴 사용 중 사고: 멀티스텝 에이전트의 전제
DeepSeek V3.2는 코드 실행·웹 검색·파일 조작 등 도구 호출 사이에서도 추론 흔적(Reasoning Trace)을 유지해, 이전 세대의 “도구 호출 때마다 사고가 끊기는” 한계를 줄였습니다. 회사는 1,800여 개 작업 환경과 85,000개 복합 지시로 구성된 대규모 합성 데이터 파이프라인을 구축하고, 실제 웹 검색 API·코딩 환경·Jupyter 노트북을 활용해 일반화 능력을 높였습니다. Speciale는 심층 추론 전용으로 도구 호출을 지원하지 않으며, 임시 API 제공 후 12월 15일 표준 릴리스에 통합될 예정입니다.
오픈소스 전략과 기업 도입 효과
DeepSeek는 DeepSeek V3.2와 Speciale를 MIT로 공개, 누구나 제약 없이 다운로드·수정·배포할 수 있습니다. Hugging Face에 전체 가중치와 훈련 코드가 공개됐고, OpenAI 호환 포맷 인코딩 예제 스크립트도 제공돼 이전이 수월합니다. 이는 유료 API 모델과의 가격 경쟁력을 높여 엔터프라이즈에 ‘프런티어 성능+배포 유연성+낮은 비용’이라는 조합을 제시하지만, 데이터 거주·규제 불확실성과 중국 기업이라는 출신 배경은 민감 분야 도입을 제약할 수 있습니다.
규제와 수출통제: 유럽·미국의 경계
독일은 DeepSeek의 독일 사용자 데이터 중국 이전을 EU 규정상 ‘불법’이라 지적하며 스토어 차단을 검토했고, 이탈리아는 앱 차단을 명령했습니다. 미국에서도 정부 기기 사용 금지 움직임이 이어집니다. 수출통제 관련해 DeepSeek는 화웨이·Cambricon 등 중국산 칩과 추가 설정 없이 작동한다고 밝혔고, 과거 V3는 Nvidia H800 약 2,000대로 학습된 것으로 전해집니다. V3.2의 학습 인프라는 비공개지만, 진전 속도로 볼 때 통제만으로 중국의 AI 발전을 막기 어렵다는 시사점이 나옵니다.
향후 로드맵과 AI 경쟁의 의미
DeepSeek 보고서에 따르면 사후 학습(포스트 트레이닝) 투자 비중이 사전 학습 대비 10%를 넘기며 추론력 개선에 기여했습니다. 다만 세계 지식의 폭은 여전히 일부 독점 모델에 뒤처져, 사전 학습 규모 확대로 보완할 계획입니다. DeepSeek V3.2는 효율 혁신과 오픈소스로 프런티어 성능을 대중화하며, 미·중 경쟁 구도와 상용 AI 비즈니스 모델을 재편할 잠재력을 보여줍니다. DeepSeek V3.2의 등장은 “비슷한 성능을 공짜로 배포하는 경쟁자”가 등장했을 때 실리콘밸리가 어떻게 우위를 지킬지라는 새 질문을 던집니다.