leangnews
Command Palette
Search for a command to run...
2025년 11월 21일 09:02
Ai2, 투명성과 커스터마이징 강화한 Olmo 3 공개
기사 요약
- Ai2가 Apache 2.0으로 공개한 Olmo 3는 더 긴 컨텍스트, 증가한 추론 트레이스, 향상된 코딩 성능과 함께 학습 데이터 및 체크포인트의 투명한 접근을 제공한다.
- 라인업은 Think(7B/32B), Base(7B/32B), Instruct(7B)로 구성되며, 32B Think는 6만5천 토큰 컨텍스트와 명시적 추론 체인 생성을 지원한다.
- Dolma 3(6조 토큰)로 사전학습하고 GPU-시간/토큰 기준 약 2.5배 효율을 달성했으며, 성능은 Qwen·Gemma·Llama 등 오픈 모델과의 격차를 좁혔다고 Ai2는 밝혔다.
Olmo 3 출시 개요와 핵심 변화
Ai2는 최신 대규모 언어 모델 제품군을 공개했으며, Olmo 3는 이전 세대 대비 더 긴 컨텍스트 윈도우와 더 많은 추론 트레이스, 개선된 코드 성능을 제공한다. 이 모델은 Apache 2.0으로 완전 공개되며, 기업은 학습 데이터와 체크포인팅에 대해 완전한 투명성과 제어 권한을 갖는다.
Olmo 3 라인업과 사용 시나리오
세 가지 구성은 Olmo 3-Think(7B/32B), Base(7B/32B), Instruct(7B)로 나뉜다. 32B Think는 완전 개방형 최초의 32B ‘thinking’ 모델로서 명시적 추론 체인 스타일 출력을 생성하고, 6만5천 토큰의 긴 컨텍스트로 에이전트형 작업이나 장문 문서 추론에 적합하다. Base는 프로그래밍·독해·수학·장문 추론에 적합하며 지속 사전학습이나 파인튜닝에 알맞고, Instruct는 지시 따르기·멀티턴 대화·툴 사용에 최적화됐다.
투명성과 커스터마이징 전략
Ai2의 Noah Smith는 규제가 엄격한 기업부터 연구기관까지 학습 데이터 출처가 보장되는 모델을 원한다며, 일괄형 접근 대신 조직별 특화가 중요하다고 강조했다. 이 모델군은 자체 데이터 소스를 추가해 사실상 재학습할 수 있도록 설계됐고, 주요 학습 단계별 체크포인트를 제공한다.
또한 OlmoTrace 도구로 모델 출력의 근거를 원 학습 데이터까지 추적할 수 있으며, 코드와 모델은 GitHub와 같은 저장소에 공개된다. 개발자는 Hugging Face와 Ai2 Playground에서 손쉽게 접근할 수 있고, 경쟁사들이 추론 토큰을 숨기거나 요약해 투명성이 낮아졌다는 개발자 비판과 대비된다.
학습 데이터와 효율성
이 제품군(Olmo 3)은 웹·과학 논문·코드를 아우르는 오픈소스 데이터셋 Dolma 3(6조 토큰)로 사전학습됐으며, 이전 세대가 수학에 집중했던 것과 달리 코드 성능에 초점을 맞췄다. GPU-시간/토큰 기준 약 2.5배 높은 연산 효율을 달성해 프리트레이닝 에너지와 비용을 줄였다.
성능 비교와 포지셔닝
Ai2는 이번 제품군이 스탠퍼드의 Marin, LLM360의 K2, Apertus 등 다른 오픈 모델을 앞섰다고 밝혔지만, 구체적인 벤치마크 수치는 제시하지 않았다. 특히 Think(32B)는 Qwen 3-32B-Thinking 등 동급 오픈웨이트 모델과의 격차를 좁혔으며, 6배 적은 토큰으로 학습됐다고 설명했다.
또한 Instruct는 Qwen 2.5, Gemma 3, Llama 3.1보다 우수한 지표를 보였다는 것이 Ai2의 주장이다. 전반적으로 회사는 중국 외에서 개발된 진정한 오픈소스 LLM의 의미 있는 도약이라고 평가하고 있다.
도입과 접근 방법
조직은 자체 데이터로 모델을 세밀하게 조정해 사내 질의에 특화된 답변을 얻을 수 있으며, 데이터 프라이버시와 사용 제약을 통제할 수 있다. 배포와 실험은 Hugging Face 및 Ai2 Playground를 통해 시작할 수 있다.