씽킹머신즈, 분산 LLM 파인튜닝 API ‘Tinker’ 첫 공개

씽킹머신즈, 분산 LLM 파인튜닝 API ‘Tinker’ 첫 공개

씽킹머신즈, 분산 LLM 파인튜닝 API ‘Tinker’ 첫 공개


기사 요약

  • 전 OpenAI CTO 미라 무라티가 설립한 씽킹머신즈가 Python 기반 분산 LLM 파인튜닝 API Tinker를 비공개 베타로 출시했다.
  • Tinker는 표준 파이썬 코드로 손실 함수·학습 루프·데이터 흐름을 직접 제어하면서, 분산 연산과 인프라는 관리형으로 맡겨 복잡성을 줄인다.
  • 초기 사용자 성과와 커뮤니티 호평 속에 베타 기간 무료 제공 후 종량제 요금제가 도입될 예정이다.

Tinker: 분산 LLM 파인튜닝 API 출시

전 OpenAI CTO 미라 무라티가 올해 설립한 Thinking Machines(씽킹머신즈)가 첫 공식 제품인 Python 기반 분산 LLM 파인튜닝 API Tinker를 비공개 베타로 공개했다. 개발자와 연구자는 학습 파이프라인을 표준 파이썬 코드로 세밀하게 제어하고, 분산 연산과 인프라 관리는 관리형으로 위임해 속도와 편의성을 모두 확보할 수 있다. 무라티는 “실험·파이프라인 작성을 위한 깔끔한 추상화와 분산 학습 복잡성 처리를 결합해 최전선 도구를 연구자에게 제공한다”고 밝혔다. 씽킹머신즈는 a16z, NVIDIA, Accel 등으로부터 20억 달러를 유치했으며, 개방적이고 맞춤화 가능한 AI 개발을 지향한다.

개발자 중심 학습 API

Tinker 분산 LLM 파인튜닝의 설계 철학

Tinker는 드래그앤드롭이나 블랙박스 튜닝 서비스가 아니다. 대신 저수준이면서도 사용자 친화적인 API로 손실 함수, 학습 루프, 데이터 워크플로를 세분 제어하게 해준다. 실제 학습은 씽킹머신즈의 관리형 인프라에서 분산 실행되어, 까다로운 GPU 오케스트레이션 없이도 빠르게 확장할 수 있다.

분산 LLM 파인튜닝 API Tinker의 핵심 기능

분산 LLM 파인튜닝 API Tinker는 파이썬 네이티브 프리미티브(forward_backward, sample)를 제공해 맞춤형 파인튜닝·강화학습 알고리즘을 구현할 수 있다. 공개 가중치 모델 전반(소형~대형)과 Mixture-of-Experts(Qwen-235B-A22B 등)을 지원하고, LoRA 기반 튜닝을 통합해 여러 학습 잡이 컴퓨트 풀을 공유하도록 설계되어 비용 효율을 높인다. 또한 사후학습 기법 구현이 담긴 오픈소스 보조 라이브러리 ‘Tinker Cookbook’을 함께 제공한다.

실제 적용 사례

프린스턴 Goedel 팀: 정리 증명

Tinker와 LoRA로 전체 데이터의 20%만 사용해도 Goedel-Prover V2 같은 전량 SFT 모델에 필적하는 성능을 냈다. MiniF2F 벤치마크에서 pass@32 기준 88.1%, 자기 교정 적용 시 90.4%를 기록해 더 큰 폐쇄형 모델을 앞질렀다.

스탠퍼드 Rotskoff Lab: 화학 추론

LLaMA 70B 위에 강화학습을 얹어 IUPAC 명칭→화학식 변환 정확도를 15%에서 50%로 끌어올렸다. 연구진은 대규모 인프라 지원 없이는 달성하기 어려웠던 도약이라고 평가했다.

버클리 SkyRL: 멀티에이전트 RL

비동기 오프-폴리시 학습과 다중 턴 도구 사용을 포함한 맞춤 멀티에이전트 RL 루프를 구현했으며, Tinker의 유연성이 실험을 현실적으로 만들었다.

레드우드 리서치: 장문맥 AI 제어

Qwen3-32B를 대상으로 장문맥 AI 제어 태스크에 RL 학습을 수행했다. 연구자 Eric Gan은 멀티 노드 스케일링 장벽 때문에 Tinker 없이는 착수하지 못했을 프로젝트였다고 밝혔다.

AI 연구 커뮤니티 반응

알고리즘 제어 90%, 인프라 부담 90% 감축

Andrej Karpathy는 “데이터 업로드 후 대신 사후학습해주는 기존 방식 대비, Tinker는 사후학습 복잡성을 더 영리하게 분할한다”며 알고리즘 제어권 약 90%를 유지하면서 인프라 고통의 약 90%를 덜어준다고 평가했다.

“원하던 인프라” — 존 슐먼의 소감

Thinking Machines의 공동 창업자이자 최고과학책임자 John Schulman은 Tinker를 “내가 늘 원하던 인프라”라고 소개하고, 화이트헤드의 “문명은 생각하지 않고도 수행 가능한 중요한 작업 수를 늘리며 전진한다”는 말을 인용했다.

분산 프레임워크와의 결합 확장성

AnyScale 공동 창업자이자 Ray 제작자인 Philipp Moritz와 Robert Nishihara는 Ray 같은 분산 컴퓨팅 프레임워크와 결합해 더 큰 스케일을 노릴 기회를 봤다고 밝혔다. 커뮤니티는 병렬 추론, 체크포인트 샘플링 등 RL 특화 시나리오에서도 API가 매끈하게 동작한다고 평했다.

접근성과 가격

분산 LLM 파인튜닝 API Tinker 이용 안내

Tinker는 현재 비공개 베타로 대기자 등록을 받고 있으며, 베타 기간 사용료는 무료다. 곧 사용량 기반 종량제 요금제가 도입될 예정이며, 심층 통합이나 전담 지원이 필요한 조직은 웹사이트로 문의할 수 있다.

배경과 비전

Thinking Machines의 출범

무라티는 2024년 9월 OpenAI를 떠난 뒤(당시 조직 불안정과 슈퍼얼라인먼트 팀 해체 등) 2025년 초 새로운 비전을 제시했다. 핵심 축은 ①사용자 필요에 맞춘 AI 적응 지원 ②역량 있고 안전한 AI의 기초 확립 ③모델·코드·연구의 공개를 통한 오픈 사이언스 촉진이다.

자금·연구 방향과 경쟁 구도

씽킹머신즈는 20억 달러를 유치하며 독립 AI 스타트업 중 최대급 자금을 확보했다. 팀은 ChatGPT, PPO·TRPO, PyTorch, OpenAI Gym 등 핵심 돌파구 경험을 갖췄다. 완전 자율 에이전트가 아니라 사용자와 협업하는 멀티모달 AI에 초점을 두고, 누구나 활용 가능한 오픈소스 연구도 꾸준히 내고 있다. 개방성·인프라 품질·연구자 지원을 내세워 OpenAI, Anthropic, Google, Meta 등과 치열해진 오픈소스 AI 경쟁 속에서 제품, 기술적 명료성, 공개 문서를 무기로 개발자 관심을 겨냥한다.