UAE발 ‘K2 Think’, 세계에서 가장 빠른 오픈소스 AI 모델 공개

UAE발 ‘K2 Think’, 세계에서 가장 빠른 오픈소스 AI 모델 공개

UAE발 ‘K2 Think’, 세계에서 가장 빠른 오픈소스 AI 모델 공개


기사 요약

  • 아부다비 MBZUAI와 G42 AI가 공동 개발한 K2 Think가 공개돼, 소형(32B)임에도 초당 2,000토큰 생성 속도를 내세운다.
  • 수학·코드·과학 벤치마크에서 대형 모델을 상회하며, Apache 2.0 라이선스로 기업의 상업적 활용과 커스터마이징이 자유롭다.
  • Cerebras WSE 기반 추론과 SFT·RLVR 등 6대 기법으로 효율을 끌어올렸고, 데이터·가중치·코드까지 전면 공개해 투명성을 강조했다.

개요 — K2 Think 출시 배경과 협업

중국 Moonshot의 Kimi K2와 혼동하지 말아야 한다. K2 Think는 아랍에미리트에 기반한 모하메드 빈 자이드 인공지능대학(MBZUAI) 산하 기초모델연구소와 스타트업 G42 AI가 공동 개발한 오픈소스 대규모 언어모델로, 수학적 추론에 최적화하면서도 다양한 작업에 유연하게 대응하도록 설계됐다.

고속·고성능 — K2 Think의 속도와 파라미터

해당 모델은 320억(32B) 파라미터로, 최신 초대형 모델 대비 규모는 작지만 복잡한 수학·코드·과학 벤치마크에서 더 큰 모델을 능가하거나 대등한 성능을 보였다. 제작사에 따르면 초당 2,000토큰(요청당) 생성이라는 세계 최고 수준의 오픈소스 모델 속도를 달성했으며, 이는 전형적인 GPU 배치 대비 10배 이상 높은 처리량이다. 토큰은 단어·어구·수학 기호·코드 단위를 포함한 LLM의 기본 표현 단위로, 초당 생성량은 응답 속도의 핵심 지표다. 서드파티 측정 사이트 Artificial Analysis에선 구글 Gemini 2.5 Flash가 초당 258토큰으로 상위권이지만, 이는 제시된 2,000토큰에 크게 못 미친다. 간단한 웹 챗봇 테스트에서도 응답이 ‘순간적’에 가까울 정도로 빠르다는 보고가 있다.

상업적 활용 — Apache 2.0 라이선스

K2 Think는 Apache 2.0 라이선스로 공개되어 기업과 개발자가 코드, 학습 데이터, 가중치(파라미터)를 자유롭게 다운로드·수정·배포·상업화할 수 있다. 비용 부담 없이 사내 환경이나 제품에 탑재해 운영하는 것이 가능하다는 점이 큰 장점이다.

추론 특화 — 수학·코드·과학 벤치마크 성과

K2 Think는 대화형 수다보다는 단계적 계획과 실행에 기반한 고급 문제 해결에 초점을 맞춘다. 벤치마크 결과, AIME 2024에서 90.8점, AIME 2025에서 81.2점, HMMT 2025에서 73.8점을 기록했으며, OMNI-MATH-HARD 60.7, 코드 영역 LiveCodeBench v5 64.0, 과학 영역 GPQA-Diamond 71.1로 공개 오픈소스 중 최상위권 성과를 보였다.

하드웨어 가속 — Cerebras WSE와 실시간 추론

이 모델의 체감 속도는 Cerebras의 웨이퍼 스케일 엔진(WSE) 기반 추론으로 뒷받침된다. 최대 32,000토큰 분량의 긴 응답을 약 16초에 처리하며, 동등 작업이 고급 GPU 환경에선 2.5분 이상 걸릴 수 있다. 여기에 추측(사전) 디코딩(speculative decoding)을 더해 응답성을 한층 끌어올렸다.

효율성 6대 기법 — 설계의 핵심

제작사 기술 보고서에 따르면 성능과 효율을 함께 달성하기 위해 다음 여섯 가지가 통합 적용됐다: (1) 긴 사고과정 예시를 활용한 지도 미세조정(SFT), (2) 검증 가능한 보상에 기반한 강화학습(RLVR), (3) 생성 전 구조화된 사고를 세우는 에이전틱 플래닝, (4) Best-of-N 샘플링을 통한 테스트타임 스케일링, (5) 추측 디코딩으로 추론 가속, (6) Cerebras 최적화 하드웨어 배치.

국가 전략 — UAE의 AI 2031과 자원 효율

뉴욕타임스 보도에 따르면, 이 모델은 UAE가 글로벌 AI 허브로 부상하려는 전략의 일환이다. 2024년 3월 설립된 MBZUAI 산하 기초모델연구소는 ‘개방 연구 리더십’과 ‘지적 주권’을 강조하는 인공지능 2031 전략의 핵심 축이다. 에릭 싱 MBZUAI 총장은 2,000개의 특수 AI 칩만으로 시스템을 구축했다고 밝히며 “제한된 자원으로도 해낼 수 있다”고 강조했다.

전면 공개 — 데이터부터 배포 인프라까지

많은 모델이 ‘오픈’이라는 이름과 달리 접근을 제한하는 데 비해, 이 모델은 학습 데이터, 모델 가중치, 미세조정 코드, 추론 도구, 배포 인프라까지 공개했다. k2think.ai와 Hugging Face에서 내려받아 사용할 수 있으며, 공식 엔터프라이즈용 API는 향후 제공할 계획이라고 밝혔다. 내부 안전성 평가도 함께 공개됐는데, 고위험 콘텐츠 거부 0.83, 대화 견고성 0.89, 탈옥 내성 0.72, 보안/데이터보호 0.56로, 전체 매크로 평균은 0.75였다.

업계 반응 — ‘포스트 사이즈’ 시대로

G42 그룹 CEO 펭 샤오는 “혁신은 더 큰 컴퓨팅 클러스터가 아니라 더 똑똑한 학습 레짐에서 온다”고 밝혔고, MBZUAI 이사회 의장 할두운 칼리파 알 무바라크는 지식 공유·협업과 책임 있는 재현 가능 AI의 이정표라 평했다. 업계 자문 알렉산드루 보이카는 “더 큰 모델만이 정답이라는 통념을 깬 전환점”이라며, ‘더 영리한 훈련이 더 비대한 모델을 이긴다’는 메시지를 강조했다.

도입 체크포인트 — 기업을 위한 요약

K2 Think 도입을 검토하는 기업은 (1) 초당 2,000토큰급 처리량과 32B 규모의 비용 효율성, (2) Apache 2.0이 보장하는 상업적 자유도, (3) 수학·코드·과학 중심의 추론 성능, (4) Cerebras 연동 및 사내 배치 옵션, (5) 데이터·가중치·코드 전면 공개와 안전성 지표를 핵심 평가 항목으로 삼는 것이 좋다.