파운데이션 모델의 종분화 — GPT의 대안은 GPT가 아닐지도 모른다
파운데이션 모델의 종분화 — GPT의 대안은 GPT가 아닐지도 모른다
“같은 주에, 금융 시장의 언어를 읽는 모델과, 시계열을 예측하는 모델과, 토크나이저 없이 말하는 모델이 동시에 GitHub 트렌딩에 올랐다. 셋 다 자신을 ‘foundation model’이라고 불렀다. 셋 다 LLM이 아니었다.”
2026년 4월 10일 기준 GitHub Trending을 열면, 이상한 풍경이 보인다.
shiyu-coder/Kronos가 12,180 스타를 찍고 일일 +245로 올라가고 있다. “A Foundation Model for the Language of Financial Markets”라는 부제가 붙어 있다. 금융 시장의 주문 흐름과 가격 행동을 “언어”로 취급하고, transformer 아키텍처를 적용해 그 언어의 패턴을 학습하는 모델이다. 중국 대학 연구팀의 프로젝트다.
같은 주간 트렌딩에 google-research/timesfm이 15,985 스타, 주간 +3,095로 올라와 있다. Google Research의 pretrained time-series foundation model이다. 소매, 날씨, 에너지 — 도메인을 가리지 않고 zero-shot으로 시계열 예측을 수행한다. “시계열의 GPT”라는 포지셔닝이다.
그리고 OpenBMB/VoxCPM이 7,644 스타, 일일 +496으로 올라와 있다. 다국어 음성 합성과 voice cloning을 수행하는 모델인데, 핵심 기술적 선택이 하나 있다 — tokenizer-free. 토크나이저를 쓰지 않는다. 텍스트를 토큰으로 쪼개는 것은 LLM의 가장 기본적인 전처리 단계인데, VoxCPM은 그것을 아예 버렸다. 오디오 도메인에서 토큰화라는 개념 자체가 적합하지 않다는 판단이다.
세 모델의 공통점은 두 가지다. 첫째, 셋 다 자신을 “foundation model”이라고 부른다. 둘째, 셋 다 LLM이 아니다. 텍스트를 입력으로 받아 텍스트를 출력하는 모델이 아니라, 금융 주문 흐름, 시계열 수치, 음성 파형이라는 전혀 다른 데이터 도메인에 특화된 모델이다. 서로 다른 대륙의 서로 다른 연구 그룹이, 같은 주에, 같은 단어를 자기 도메인의 전문 모델에 붙여서 공개한 것이다.
이 에세이는 이 동시성이 우연이 아니라 구조적 추세의 가시화라고 주장한다. 지난 3년간 AI 담론을 지배한 서사는 “더 크고, 더 범용적인 LLM이 모든 것을 해결한다”였다. GPT-5, Claude Opus 4.6, Gemini 3.1 — 매 분기마다 더 큰 모델이 나오면서 통합주의(unificationism)가 당연시되었다. 그런데 2026년 4월, 바로 그 연구 커뮤니티가 — 범용 FM을 만들 능력이 있음에도 — 도메인 특화 FM을 따로 만들어서 내놓고 있다. 왜?
이 글은 그 “왜”를 세 가지 층위에서 해부한다. 데이터, 아키텍처, 경제학. 그리고 이 현상을 30년 전에 이미 한 번 일어났던 역사적 선례 — 데이터베이스의 종분화 — 와 대비하면서, “foundation model”이라는 단어의 의미가 어떻게 변하고 있는지를 논한다.
1. 세 모델이 범용 LLM과 다른 길을 걸은 이유
Kronos — 금융 시장의 “언어”를 읽는 모델. Kronos의 가장 흥미로운 점은 프레이밍이다. “Language”라는 단어가 은유가 아니라 아키텍처 설계의 근거다. 금융 시장의 주문 흐름(order flow) — 매수, 매도, 체결, 취소 — 을 시계열이 아니라 시퀀스로 취급한다. 자연어에서 단어가 나열되어 문장을 이루듯, 주문 이벤트가 나열되어 시장의 “문장”을 이룬다는 관점이다.
범용 LLM에 이 데이터를 넣을 수 없는 이유는 두 가지다. 첫째, 데이터 형식의 불일치. 가격(연속형 실수), 수량(정수), 주문 유형(범주형), 타임스탬프(시간형)가 얽힌 다차원 구조화 데이터를 텍스트로 변환하면, “101.35에 500주 매수”라는 텍스트는 (101.35, 500, BUY)라는 벡터의 숫자 연속성과 크기 관계를 이산적 토큰 임베딩 안에서 희석시킨다. 둘째, 학습 데이터의 부재. 거래소의 마이크로스트럭처 데이터, 레벨 2 오더북, 틱 단위 체결 기록은 유료이고 라이선스 제약이 있어 범용 LLM의 사전학습 코퍼스에 포함되지 않는다. GPT-5가 아무리 커져도 학습한 적 없는 데이터 분포에 대해서는 할 수 있는 것이 제한적이다. 12,180 스타라는 숫자는 이 접근에 대한 커뮤니티의 관심 수준을 보여준다. 금융공학 분야에서 GitHub 프로젝트가 만 스타를 넘기는 것은 매우 드문 일이다.
TimesFM — 시계열의 GPT. TimesFM의 접근법은 더 명시적이다. “GPT가 텍스트에 한 것을 시계열에 하겠다”는 선언이다. 대규모 시계열 데이터로 사전학습한 뒤, 특정 도메인에 파인튜닝 없이 zero-shot으로 예측을 수행한다. 소매점의 수요 예측, 기상 관측소의 온도 예측, 전력망의 부하 예측 — 도메인을 가리지 않는다. 지금까지 시계열 예측은 ARIMA, Prophet, N-BEATS 등 각 모델을 각 도메인에 맞춰 세팅하는 것이 표준 워크플로였다. TimesFM은 이 워크플로를 뒤집는다.
범용 LLM과 결정적으로 다른 것은 inductive bias다. 시간적 국소성(temporal locality), 주기성(periodicity), 추세(trend) — 시계열 고유의 구조를 아키텍처에 내재시킨다. 시간축에 대한 특별한 positional encoding, 다중 해상도 입력 처리, 예측 지평선(horizon)에 최적화된 디코딩 전략이 같은 파라미터 수에서 범용 모델보다 더 정확한 예측을 가능케 한다. Google Research가 Gemini를 만들 수 있는 자원을 보유하면서도 별도로 도메인 FM을 만들었다는 사실 자체가, 범용 LLM의 시계열 처리 능력에 한계가 있음을 스스로 인정한 것이다.
VoxCPM — 토크나이저를 버린 모델. VoxCPM은 세 모델 중 가장 급진적인 설계 선택을 했다. Tokenizer-free. LLM의 세계에서 토크나이저는 공기와 같은 존재다. GPT 시리즈의 BPE부터 SentencePiece까지, 모든 주요 LLM이 어떤 형태로든 토크나이저를 사용한다. VoxCPM은 이것을 아예 제거했다.
왜 음성에서 토크나이저가 문제인가. 텍스트는 이산적(discrete) 데이터다. 단어 사이에 명확한 경계가 있고, 유한한 어휘로 환원된다. 음성은 연속적(continuous) 데이터다. 파형은 매끄럽게 흐르고, 토큰화하면 운율(prosody), 감정(emotion), 화자 특성(speaker identity) 같은 미세한 음향 정보가 버려진다. VoxCPM이 voice cloning을 핵심 기능으로 내세울 수 있는 것은, 토크나이저를 버림으로써 화자 특성 정보를 보존하기 때문이다. OpenBMB는 Tsinghua University에서 시작된 연구 그룹으로, 대규모 언어 모델(CPM 시리즈)을 만들어온 팀이다. LLM 아키텍처를 잘 알면서도 음성 도메인에서 의도적으로 토크나이저를 폐기했다는 것은, LLM 아키텍처가 만능이 아님을 LLM 전문가가 스스로 선언한 것에 가깝다.
2. “Foundation Model”이라는 단어의 의미 변천
“Foundation model”이라는 용어가 학술적으로 정의된 것은 2021년, Stanford CRFM이 발표한 “On the Opportunities and Risks of Foundation Models”(Bommasani et al.)이다. “대규모 데이터로 사전학습되어 다양한 하위 작업에 적응(adaptation)할 수 있는 모델.” 주목할 것은, 이 정의에 “범용”이라는 단어가 필수 요소로 포함되지 않는다는 점이다. “다양한 하위 작업”은 도메인 내부의 하위 작업일 수도 있다. 시계열 예측이라는 도메인 안에서 소매 예측, 기상 예측, 에너지 예측 — 이것도 “다양한 하위 작업”이다. TimesFM은 이 정의를 정확히 충족한다.
그러나 ChatGPT의 등장(2022년 11월) 이후, 담론에서 foundation model은 GPT-4, Claude, Gemini 같은 거대 범용 LLM의 동의어가 되었다. 스케일링 법칙 — 모델이 커질수록 더 많은 영역에서 더 잘 작동한다 — 이 이론적 근거였고, 도메인 특화 접근은 “자원이 부족한 연구실의 차선책”으로 취급되었다.
2025년 후반부터 풍향이 바뀌기 시작했다. 범용 LLM이 놀라운 속도로 발전했음에도 불구하고, 특정 도메인에서는 도메인 특화 모델이 범용 모델을 명확하게 앞서기 시작한 것이다. AlphaFold가 단백질 구조 예측에서, GraphCast/Pangu-Weather가 기상 예측에서 그랬다. 이 모델들은 LLM이 아니었지만, 각각의 도메인에서 “foundation model”이라는 지위를 획득했다. 2026년 4월의 Kronos, TimesFM, VoxCPM은 이 흐름의 연장선이지만, 결정적 차이가 있다. 세 모델이 같은 주에 동시에 트렌딩에 올랐다. AlphaFold나 GraphCast가 각각 단독으로 화제가 되었을 때는 “대단한 도메인 모델이 나왔네”라는 개별 사건이었다. 지금은 서로 다른 도메인의 서로 다른 연구 그룹이 동시에 같은 방향을 향하고 있다. 이것은 개별 사건이 아니라 추세다.
“Foundation model”이라는 단어가 다시 원래의 정의로 돌아가고 있다. 다만 이번에는 “다양한 하위 작업”이 범도메인(cross-domain)이 아니라 도메인 내(within-domain)의 다양성을 의미한다. 범용 모델의 별명이 아니라, 특정 도메인의 기초(foundation)가 되는 모델이라는 문자 그대로의 의미로 회귀하고 있다.
3. 역사적 유비 — 데이터베이스 종분화의 30년
이 현상을 이해하기 위해 가장 적합한 역사적 유비는 데이터베이스의 역사다. 같은 힘(경제적 압력, 데이터 특성의 다양화, 워크로드 전문화)이 같은 결과(범용 시스템의 해체와 전문 시스템의 부상)를 만들어낸 구조적 동형성(structural isomorphism)이 존재한다.
1980년대: 범용 RDBMS의 전성시대. Oracle과 IBM DB2가 지배하던 시대. 관계형 데이터베이스는 하나의 기술로 모든 데이터 문제를 풀겠다는 야심을 가지고 있었다. 재무 데이터도, 인사 기록도, 재고 관리도, 분석 리포트도 전부 RDBMS. 이것은 2023-2025년의 “GPT-4 하나로 코딩도 하고 번역도 하고 분석도 하면 된다”와 정확히 같은 구조다. “하나의 시스템에 대한 전문성만 확보하면 되고, 운영팀을 하나만 두면 된다”는 논리가 통했다.
1990-2000년대: 첫 번째 균열과 가속. 기업의 데이터 워크로드가 크게 두 종류로 나뉜다는 것이 점점 명확해졌다. OLTP(Online Transaction Processing) — 은행 이체, 주문 접수, 재고 차감. 소량의 데이터를 아주 빠르게 읽고 쓰는 워크로드. OLAP(Online Analytical Processing) — 월별 매출 추이, 지역별 판매 비교, 고객 세그먼트 분석. 대량의 데이터를 읽기만 하지만, 집계와 조인이 복잡한 워크로드. 문제는 OLTP가 행(row) 단위 접근과 쓰기 성능을, OLAP가 열(column) 단위 접근과 읽기 성능을 요구한다는 것이었다. 하나의 엔진이 두 가지를 모두 잘할 수는 있지만, 어느 한 쪽을 극한까지 최적화하면 다른 쪽이 희생된다. OLAP 전용 데이터 웨어하우스의 탄생이다.
2000년대에는 Vertica, Greenplum 등 컬럼 지향 스토어(columnar store)가 OLAP에서 행 기반 RDBMS 대비 10~100배 성능 향상을 가져왔다. “분석 쿼리는 소수의 열만 접근한다”는 사전 가정을 스토리지 설계에 내재시킨 inductive bias의 승리였다.
2010년대: 캄브리아기 대폭발. 각 데이터 유형과 워크로드에 최적의 엔진이 따로 존재한다는 것이 업계의 합의가 되었다. Neo4j(그래프 — 관계 탐색이 상수 시간), InfluxDB(시계열 — 시간 범위 쿼리와 다운샘플링 내장), Elasticsearch(전문 검색 — 역인덱스 기반 밀리초 검색), MongoDB(도큐먼트 — 유동적 스키마), Cassandra(분산 쓰기 — 대규모 이벤트 스트리밍), 그리고 2020년대의 Pinecone(벡터 — 고차원 유사도 검색). Oracle은 죽지 않았다. 여전히 기업의 핵심 시스템에서 돌아간다. 하지만 “모든 데이터 문제를 Oracle 하나로 푼다”는 시대는 끝났다. 각 워크로드에 최적의 도구를 선택하는 것 — polyglot persistence — 이 새 표준이 되었다.
FM 세계로의 매핑. Vertica가 Oracle을 OLAP에서 이긴 것은, 적절한 inductive bias가 적절한 워크로드에서 범용 시스템을 이긴 것이다. TimesFM이 시계열 예측에서 GPT를 이기는 것도 같은 메커니즘이다. Neo4j가 테이블이라는 개념 자체를 버리고 노드와 엣지라는 완전히 다른 추상화를 도입한 것은, VoxCPM이 토크나이저를 버린 것과 같은 종류의 결정이다. 호환성을 포기하는 대신, 자기 도메인에서 범용 시스템이 도달할 수 없는 성능을 얻었다.
4. 종분화의 세 가지 힘
데이터 모트(data moat) — LLM이 보지 못한 세계
범용 LLM의 사전학습 코퍼스는 한 문장으로 요약된다 — 사람이 텍스트로 작성하여 인터넷에 올린 것. Common Crawl, Wikipedia, 코드 저장소, 학술 논문, 소셜 미디어가 수조 토큰 규모로 합쳐져서 학습 데이터가 된다.
Kronos가 다루는 금융 주문 흐름은 이 코퍼스에 들어있지 않다. 거래소의 매칭 엔진이 밀리초 단위로 생성하는 기계 데이터이고, 유료이며, 라이선스 제약이 있고, 실시간 스트리밍이다. GPT-5가 아무리 커져도 이 데이터를 학습하지 못한다면, 이 데이터의 분포를 이해할 수 없다. GPT의 금융 지식은 시장에 대한 사람의 해석 — 뉴스 기사, 보고서, 블로그 — 에서 온다. 이것은 시장 자체가 아니라 시장에 대한 2차 정보다. Kronos는 시장 자체의 데이터로 학습한다. 이 차이는 근본적이다.
TimesFM이 다루는 시계열 데이터도 마찬가지다. 센서가 초 단위로 측정하는 온도, 습도, 전력 소비량은 텍스트가 아니다. 대부분의 시계열 데이터는 공장의 SCADA 시스템, 병원의 환자 모니터링 장비, 전력회사의 스마트 미터 안에 있다. VoxCPM이 다루는 음성은 더욱 텍스트와 거리가 멀다. 사람의 목소리에 담긴 감정, 악센트, 리듬, 호흡은 텍스트 전사(transcription)로 환원되지 않는다. LLM이 음성에 대해 아는 것은 음성을 텍스트로 변환한 뒤의 텍스트에 대한 것이다. 음성 자체가 아니다.
데이터베이스 역사에서 이것에 대응하는 것은 데이터 유형의 다양화다. 1980년대에는 거의 모든 기업 데이터가 정형 테이블로 환원 가능했다. 2010년대에는 JSON 문서, 그래프, 시계열, 전문 텍스트, 고차원 벡터 등 환원 불가능한 데이터 유형이 폭증했고, 범용 RDBMS의 행-열 모델로는 이 다양성을 효율적으로 다룰 수 없었다.
Inductive bias — 구조적 사전 지식의 가치
범용 transformer의 강점은 최소한의 가정으로 거의 모든 시퀀스 데이터를 처리할 수 있다는 것이다. 그러나 최소한의 가정은 양날의 검이다. 시계열에는 “가까운 시점이 먼 시점보다 중요하다”는 강한 구조가 있고, 금융 데이터에는 평상시와 위기라는 질적으로 다른 regime structure가 있으며, 음성에는 포먼트(formant) 구조와 기본 주파수(F0)라는 주파수 영역의 구조가 있다. 범용 transformer는 이런 구조를 데이터로부터 학습해야 하지만, 도메인 FM은 이 구조를 아키텍처에 직접 내재시킨다. 결과적으로 같은 파라미터 수에서 더 적은 데이터로, 더 적은 연산으로, 더 정확한 결과를 내놓는다. 데이터베이스에서 역인덱스가 전문 검색에서 B-tree를 압도하고, R-tree가 공간 쿼리에서 범용 인덱스를 이기는 것과 같은 메커니즘이다. 각 자료구조는 특정 접근 패턴에 대한 사전 가정을 구현한 것이고, 그 가정이 맞는 워크로드에서 범용 자료구조를 이긴다.
계산 경제학 — 1B가 1T를 이기는 지점
범용 LLM은 수천억 파라미터 이상이고, 도메인 FM은 수억 파라미터 규모다. 추론 비용은 파라미터 수에 대략 비례한다. 구체적으로 비교하면: 기업이 매일 100만 건의 시계열 예측을 수행해야 한다고 가정하자. GPT-5 API에 데이터를 텍스트로 변환해서 보내면(입력 $10/1M 토큰, 출력 $30/1M 토큰 기준) 일일 약 $8,000, 월 약 $240,000(약 3.2억 원). TimesFM을 A100 GPU 2장에 자체 배포하면 월 약 $6,000(약 800만 원). 비용 차이 약 40배, 그리고 도메인 FM의 정확도가 더 높다. 더 싸고 더 정확하다면, 선택은 의지의 문제가 아니라 산술의 문제다.
이것은 2010년대에 Oracle RAC 라이선스에 수억 원을 내던 기업이 오픈소스 Cassandra로 같은 워크로드를 10분의 1 비용으로 처리할 수 있게 되자 이탈이 시작된 것과 같은 동학이다. Oracle의 기술적 우수성은 경제적 합리성 앞에서 힘을 잃었다. 물론 도메인 FM에는 범용 LLM API에 없는 비용이 있다. 모델 배포와 운영의 엔지니어링 부담, 모델 업데이트와 파인튜닝의 지속적 비용, 장애 대응과 모니터링 인프라 구축 비용이다. 하지만 이 추가 비용을 감안해도 대량 처리 워크로드에서는 총소유비용(TCO)이 범용 LLM API보다 낮다. 데이터베이스 세계에서 Oracle 단독보다 PostgreSQL+Elasticsearch 조합의 TCO가 낮아지는 티핑 포인트를 넘긴 기업들이 하나둘 Oracle을 떠나기 시작했듯, FM 세계에서도 같은 전환이 다가오고 있다.
5. Tokenizer-free의 의미 — 종분화의 물리적 증거
VoxCPM의 tokenizer-free 설계는 별도로 논의할 가치가 있다. 이 선택은 단순한 기술적 결정이 아니라, FM 종분화의 가장 명확한 물리적 증거이기 때문이다.
토크나이저는 LLM 아키텍처의 첫 번째 레이어이며, 모든 입력은 이를 통과해야 한다. 텍스트는 본질적으로 이산적이어서 — 알파벳, 음절, 단어라는 자연적 분할 단위가 존재하므로 — BPE 같은 알고리즘이 자연스럽게 작동한다. 그러나 음성, 이미지, 시계열 같은 연속적 데이터에는 이런 자연적 분할 단위가 없다. 음성 파형을 20ms 프레임으로 쪼개는 것은 관례일 뿐 물리적 필연성이 아니다. VoxCPM이 토크나이저를 버렸다는 것은, “LLM의 데이터 처리 파이프라인을 음성 도메인에 강제로 적용하는 것이 부적절하다”는 선언이다.
생물학적 종분화에서 두 집단이 같은 종인지 판단하는 핵심 기준은 교배 가능성(reproductive compatibility)이다. 토크나이저가 있는 모델과 없는 모델은 데이터 파이프라인 수준에서 호환되지 않는다. 같은 입력을 받을 수 없고, 같은 출력 형식을 생성하지 않으며, 같은 평가 프레임워크로 비교할 수 없다. Kronos와 TimesFM은 여전히 어떤 형태의 토큰화(discretization)를 수행하며, LLM과 공통 조상의 흔적을 공유한다. VoxCPM은 그 마지막 공통점마저 버렸다. 데이터베이스 역사에서 Neo4j가 테이블이라는 개념 자체를 폐기하고 노드와 엣지라는 완전히 다른 추상화를 도입한 것, SQL 대신 Cypher라는 새 질의 언어를 만든 것과 같은 종류의 결정이다. RDBMS와의 호환성을 포기하는 대신, 그래프 데이터에서 도달 불가능한 성능을 얻었다.
6. Polyglot FM 시대와 결론
데이터베이스 세계에서 polyglot persistence가 정착하는 데 약 10년이 걸렸다. 2005년경에 첫 번째 전문 DB들이 등장했고, 2015년경에 “워크로드마다 최적의 DB를 선택한다”는 것이 업계 상식이 되었다. Oracle은 죽지 않았다. 하지만 Oracle의 지위는 “유일한 선택”에서 “여러 선택 중 하나”로 변했다.
FM 세계에서도 같은 궤적이 보인다. GPT-5, Claude, Gemini 같은 범용 LLM은 텍스트 기반 범용 작업에서 여전히 최고의 선택이 될 것이다. 하지만 “모든 AI 문제를 GPT로 푼다”는 시대는 끝나가고 있다. 기업의 AI 스택은 다음과 같은 모양이 되어간다.
- 텍스트 생성/일반 추론: Claude, GPT, Gemini (범용 LLM)
- 시계열 예측: TimesFM 또는 후속 도메인 FM
- 금융 분석: Kronos 또는 후속 금융 FM
- 음성 합성/처리: VoxCPM 또는 후속 음성 FM
- 검색/임베딩: 검색 특화 임베딩 모델
이 구조에서 가치가 이동하는 방향은 명확하다. 개별 FM은 commodity화되고, 오케스트레이션 레이어 — 어떤 FM을 어떤 태스크에 어떻게 라우팅하는가 — 의 가치가 부상한다. 데이터베이스 세계에서 개별 DB가 commodity화되고 데이터 파이프라인 도구(Airflow, dbt, Fivetran)의 가치가 부상한 것과 같다. 흥미롭게도, 이 오케스트레이션 자체가 범용 LLM의 새로운 역할이 될 가능성이 있다. “모든 것을 직접 답하는 모델”에서 “적절한 전문가를 찾아주는 라우터”로의 전환. Oracle이 다른 DB와의 연결성(Oracle Data Integrator, GoldenGate)을 핵심 제품으로 내놓기 시작한 것과 비슷한 궤적이다.
FM의 종분화는 범용 LLM의 실패가 아니다. 기술 성숙(maturation)의 표지다. 생물학에서 종분화는 공통 조상이 실패해서 일어나는 것이 아니라, 서로 다른 환경에서 각각 더 잘 적응한 변이가 선택되면서 일어난다. 다윈의 핀치새가 갈라파고스 제도의 각 섬에서 서로 다른 먹이에 적응하며 부리가 달라진 것처럼, FM이 각 도메인의 데이터 특성에 적응하며 아키텍처가 달라지고 있다. GPT-5가 시계열 예측을 못해서 TimesFM이 등장한 것이 아니다. 시계열 예측이라는 워크로드가 충분히 중요하고, 충분히 고유한 특성을 가지고 있어서, 전용 FM이 범용 LLM보다 더 나은 해법을 제공할 수 있게 된 것이다.
이 점에서 “GPT의 대안은 GPT가 아닐지도 모른다”라는 이 에세이의 부제가 의미를 가진다. GPT의 대안은 “더 나은 GPT”(더 큰 범용 LLM)일 수도 있지만, 점점 더 많은 도메인에서 GPT의 대안은 “GPT가 아닌 것”(도메인 특화 FM)이 되고 있다. 이 대안들은 GPT보다 작고, GPT보다 좁고, GPT보다 싸다. 하지만 각자의 도메인에서 GPT보다 낫다.
2026년 4월 10일의 GitHub Trending은 하나의 질문을 던진다. “Foundation model은 하나의 거대한 범용 모델이어야 하는가, 아니면 도메인마다 각각의 기초 모델이 있어야 하는가?” 이 에세이의 답은 후자다. Kronos는 금융 시장의 언어를 직접 읽고, TimesFM은 시계열의 구조를 아키텍처에 내재시키고, VoxCPM은 토크나이저를 버렸다. 세 모델이 같은 주에 동시에 트렌딩에 올랐다는 것은 우연이 아니다. 같은 구조적 힘 — 데이터 모트, inductive bias의 우위, 계산 경제학 — 이 서로 다른 대륙의 연구 그룹을 같은 방향으로 이끈 것이다. 개별 사건이 아니라 추세다. FM의 종분화가 시작되었다.
실무자에게 주는 메시지는 하나다. 선택지를 다각화하라. “우리 회사의 AI = GPT API”라는 등식을 재검토하라. 당신의 핵심 워크로드가 무엇인지 식별하고, 그 워크로드에 최적화된 도메인 FM이 존재하는지 확인하라. 존재한다면, 범용 LLM과의 비용-성능 비교를 해보라. 존재하지 않는다면, 2년 안에 등장할 가능성을 열어두고 아키텍처를 설계하라. 이 검토 없이 관성적으로 범용 LLM API를 선택하는 것은, 2015년에 “모든 데이터를 Oracle에 넣자”고 결정하는 것과 같은 종류의 실수일 수 있다. 데이터베이스의 역사가 가르쳐주는 것은, 범용에서 전문으로의 전환은 하루아침에 일어나지 않지만, 그 전환이 시작되는 시점을 인지한 기업과 인지하지 못한 기업의 차이는 10년 뒤에 매우 크다는 것이다. 2026년 4월 10일의 GitHub Trending은 그 시작을 알리는 신호 중 하나다. GPT의 대안은 GPT가 아닐지도 모른다.
출처:
- shiyu-coder/Kronos — A Foundation Model for the Language of Financial Markets
- google-research/timesfm — Pretrained time-series foundation model for forecasting
- OpenBMB/VoxCPM — Tokenizer-Free TTS for multilingual speech generation with voice cloning
- NVIDIA/personaplex — AI persona/personalization
- Bommasani et al. (2021). “On the Opportunities and Risks of Foundation Models.” Stanford CRFM
- 오픈모델 전쟁 2026 — Google, AMD, Alibaba가 무료로 푸는 이유