
기사 요약
- Liquid AI가 3.5억~26억 매개변수의 작업 특화 소형 모델 6종 ‘Liquid Nanos’를 공개해, 추출·번역·RAG·도구 호출·수학 추론 등 에이전트형 워크플로에서 대형 모델에 필적하는 성능을 제시했다.
- 모델은 LEAP와 허깅페이스를 통해 iOS·Android·노트북 등 온디바이스 배포가 가능하며, 연매출 1,000만 달러 미만은 무료(연구·상업)이고 그 이상은 별도 상업 계약이 필요하다.
- Liquid AI는 비트랜스포머 LFM2와 하이브리드(온디바이스+클라우드) 전략으로 비용·지연·프라이버시를 개선해 기업·연구 환경에서의 실제 적용을 넓히겠다고 밝혔다.
개요
MIT CSAIL 출신 연구진이 설립한 Liquid AI가 여섯 가지 유형의 작업 특화 소형 기초모델 제품군 ‘Liquid Nanos’를 공개했다. Liquid Nanos는 3.5억~26억 매개변수로 구성되며, 노트북·스마트폰·센서 어레이·소형 로봇까지 기업 현장의 엣지 장치에 상주시키는 것을 목표로 한다. 회사는 다국어 데이터 추출, 번역, RAG 기반 질의응답, 저지연 툴/함수 호출, 수학 추론 등 특화된 에이전트형 워크플로에서 대형 모델에 견줄 성능을 낸다고 주장한다.
왜 에이전트형 AI를 다시 설계하나
그동안 기업들은 거대 기초모델(Gemini, GPT, Claude 등)에 프롬프트·캐시·메모리를 덧붙여 특정 작업에 집중시키는 방식을 택해왔다. 그러나 이 접근은 클라우드의 강력한 중앙 모델에 대한 지속적 의존과 비용을 전제로 하며, 열악한 연결 환경·보안/프라이버시 요구·모델 수정 자유도의 제약이 뒤따른다. Liquid Nanos는 연산을 클라우드에서 기기로 이동시켜 속도와 비용, 프라이버시를 동시에 개선하고, 연결성·전력 제약이 있는 기업·연구 환경에서도 안정적으로 동작하도록 설계됐다. 회사는 실제 업무 흐름에서 순간적으로 생성되는 RAG 페처·추출기·번역기·툴콜러 같은 마이크로 에이전트와 백그라운드 보안/자동화 에이전트를 합치면 1인당 약 100개의 에이전트가 필요해질 것이라고 전망한다.
라인업: 작업 특화 소형 모델 6종
Liquid Nanos 제품별 초점
Liquid Nanos | LFM2-Extract
다국어 구조화 데이터 추출 특화(350M, 1.2B). 이메일·보고서 등의 비정형 텍스트를 JSON/XML로 변환.
Liquid Nanos | LFM2-350M-ENJP-MT
영↔일 양방향 번역(350M). 다양한 도메인 텍스트로 학습.
Liquid Nanos | LFM2-1.2B-RAG
대규모 문서 세트 위 근거 있는 질의응답을 위한 RAG 파이프라인 최적화(1.2B).
Liquid Nanos | LFM2-1.2B-Tool
정밀한 툴·함수 호출 특화. 긴 추론 체인에 의존하지 않고 엣지에서 저지연 실행.
Liquid Nanos | LFM2-350M-Math
어려운 수학 문제를 효율적으로 풀기 위한 추론 지향 모델. 강화학습으로 장황함을 제어.
Luth-LFM2 시리즈
커뮤니티( Sinoué Gad, Maxence Lasbordes )가 개발한 파인튜닝. 프랑스어 특화이면서 영어 성능을 유지.
성능 평가
Liquid AI에 따르면 추출 모델은 구문 유효성·정확도·충실도 벤치마크에서 대형 시스템을 앞섰다. 예를 들어 LFM2-1.2B-Extract는 다국어 구조화 출력에서 자신보다 20배 이상 큰 Gemma 3 27B를 상회했다. LFM2-350M-ENJP-MT는 llm-jp-eval에서 GPT-4o에 견줄 성능을 보였고, RAG 특화 1.2B 모델도 동급 모델 대비 groundedness·relevance·helpfulness에서 경쟁력을 확인했다. 커뮤니티 기반 Luth-LFM2 시리즈는 프랑스어 벤치마크 향상과 동시에 영어 과제 성능도 끌어올리며, 표적 특화가 교차언어 성과를 개선할 수 있음을 보여준다.
배포·통합·라이선스
Liquid Nanos 배포 경로
Liquid Nanos는 즉시 이용 가능하다. 개발자는 Liquid Edge AI Platform(LEAP)을 통해 iOS·Android·노트북에 배포하거나, 허깅페이스에서 내려받아 사용할 수 있다. SDK와 멀티에이전트 시스템용 모듈식 구성도 지원한다. iOS 앱 ‘Apollo’를 통해 온디바이스로 손쉽게 실험할 수 있다.
LFM Open License v1.0 핵심
완전한 오픈소스는 아니며 Meta의 Llama 라이선스를 떠올리게 하는 조건이다. 연매출 1,000만 달러 미만의 개인·연구자·비영리·기업은 연구 및 상업적 사용이 무료다. 재배포와 2차 저작물 제작이 가능하며, 출처 표기·수정 내역 문서화·라이선스 동봉이 요구된다. 기여자 특허 라이선스가 포함되지만, 사용자가 특허소송을 개시하면 종료된다. 연매출 1,000만 달러 이상 기업에는 상업 이용 권리가 자동 부여되지 않으며, 제품/서비스에 적용하려면 Liquid AI와 별도 상업 계약을 체결해야 한다. Liquid AI는 전자·자동차·이커머스·금융 등 포춘 500 기업과 맞춤 배포도 진행 중이다.
작은 모델의 의미와 하이브리드 전략
최근 수년간 AI 발전은 주로 데이터센터의 거대 모델이 이끌었지만, 비용·지연·프라이버시 측면의 트레이드오프가 컸다. Liquid Nanos는 데이터를 최전선 시스템으로 보내는 대신, 지능을 기기로 배송하는 발상 전환을 택한다. 모델은 100MB~2GB 메모리 내에서 동작해 최신 모바일 하드웨어에 적합하다. 공동창업자 겸 CEO 라민 하사니는 2027년까지 데이터센터에 1조 달러 이상의 투자가 예상되지만 효율성 개선 없이는 경제성이 불확실하다고 지적하며, 경량 추론은 기기에서, 가장 무거운 작업만 클라우드로 올리는 하이브리드가 더 지속 가능하다고 강조했다. 그는 ‘Nanos가 특화 작업에서 프런티어급 결과를 내며 로컬로 구동되는 것은, 접근 가능하고 경제적으로도 건전한 행성 규모 디바이스-클라우드 AI의 첫걸음’이라며, ‘Let’s move the median token to the edge!’라고 밝혔다.
회사 배경과 이전 릴리스
Liquid AI는 다수 대형언어모델의 기반인 트랜스포머를 넘어, 동적 시스템·신호처리·수치 선형대수 원리에 뿌리를 둔 비트랜스포머 기초모델을 개발해 왔다. 2024년 9월 비트랜스포머 ‘Liquid Foundation Models(LFM)'(1.3B, 3B, 40B MoE)을 공개해 동급 트랜스포머를 앞서는 성능으로 주목받았고, 2025년 4월에는 스마트폰·엣지용 합성곱 기반 하이브리드 ‘Hyena Edge’를 선보였다. 2025년 7월엔 2세대 아키텍처 ‘LFM2’를 출시해 CPU 디코드·프리필 속도를 Qwen3 대비 최대 2배, 학습 효율을 이전 세대 대비 3배 높였다. 채택 촉진을 위해 크로스플랫폼 SDK ‘LEAP’과 오프라인 테스트용 iOS 앱 ‘Apollo’도 함께 제공한다.
전망
클라우드 의존 없이 자립적으로 동작하는 소형·특화 모델로의 전환은 가속될 전망이다. Liquid Nanos는 프라이버시·지연·비용 제약이 큰 환경에서 새로운 산업용·연구용 응용을 열 잠재력을 보여주며, 에이전트형 AI의 실전 배치 방식을 재편할 유력 대안으로 부상하고 있다.