오픈모델 전쟁 2026 — Google, AMD, Alibaba가 무료로 푸는 이유
오픈모델 전쟁 2026 — Google, AMD, Alibaba가 무료로 푸는 이유
“Google이 Gemma 4를 Apache 2.0으로 풀었다. 이것은 자선이 아니다. 전쟁이다.”
2026년 3월 마지막 주부터 4월 첫째 주까지, AI 업계에서는 이례적인 일이 벌어졌다. 단 1주일 사이에, 글로벌 빅테크 세 곳이 동시에 자사의 최신 AI 모델을 오픈소스로 공개했다. Google DeepMind가 Gemma 4를 Apache 2.0 라이선스로 풀었고(Hacker News 1,242점), 같은 주에 AMD가 GPU와 NPU를 동시에 활용하는 로컬 LLM 서버 Lemonade를 완전 오픈소스로 릴리스했다(HN 469점). Alibaba는 “towards real world agents”라는 도발적인 부제를 달고 Qwen 3.6-Plus를 공개했다(HN 462점).
여기서 끝이 아니다. Ollama 0.19가 Apple MLX 네이티브 지원을 발표하면서 Mac에서의 로컬 AI 실행 환경이 근본적으로 개선되었고, Microsoft는 MAI-Voice-1, MAI-Transcribe-1, MAI-Image-2 세 가지 모델을 동시에 릴리스하며 “우리도 이 전쟁에 참전한다”는 신호를 보냈다.
한편 클로즈드 모델 진영에서는 균열이 보이기 시작했다. Bloomberg는 “Anthropic 인기 급등 vs OpenAI 2차 시장 수요 하락”이라는 제목의 기사를 실었고, Forbes는 “The OpenAI Graveyard — 발표만 하고 실현되지 않은 제품 모음”이라는 신랄한 기사로 OpenAI의 실행력에 정면으로 의문을 제기했다(HN 239점). 오픈모델의 공세와 클로즈드 모델의 흔들림이 같은 주에 동시에 가시화된 것이다.
1주일 사이에 이 모든 일이 벌어졌다. 우연이 아니다. 오픈모델은 자선이 아니라 전략이다. 그리고 이 전략이 AI 산업의 구조를 근본적으로 바꾸고 있다. 이 글에서는 왜 이 회사들이 수십억 달러를 투자해 만든 모델을 무료로 공개하는지, 그 전략적 동기를 분석하고, 오픈모델 전쟁이 어디로 향하는지 세 가지 시나리오로 전망한다.
1. 2026년 4월 첫째 주에 무슨 일이 있었나
타임라인을 정리하면 이 주간의 밀도가 얼마나 비정상적인지 선명하게 드러난다. 보통 빅테크 기업의 주요 AI 모델 발표는 몇 주에서 몇 달의 간격을 두고 일어난다. 그런데 이번에는 서로 다른 대륙에 있는 여러 기업이 거의 동시에 움직였다.
Google Gemma 4 — DeepMind가 발표한 차세대 오픈 모델이다. 가장 먼저 눈에 띄는 것은 라이선스다. Apache 2.0. 이것은 단순한 “연구용 공개”가 아니다. 상업적 사용, 수정, 재배포가 모두 허용된다. 스타트업이 이 모델을 가져다가 자사 제품에 통합하고, 그 제품을 유료로 판매해도 Google에 1원도 내지 않아도 된다. 파인튜닝도 자유롭고, 파생 모델을 만들어 별도로 배포하는 것도 가능하다.
Hacker News에서 1,242점을 기록하며 이 주간 최대 화제가 되었다. 개발자 커뮤니티의 반응은 양극단이었다. 한쪽에서는 “이게 정말 무료?”라는 순수한 놀라움이 나왔고, 다른 한쪽에서는 “Google이 무슨 의도로 이러는 건가?”라는 경계의 목소리가 나왔다. 특히 “Google이 개발자 생태계를 자사 클라우드에 종속시키려는 것 아닌가”라는 분석이 상당한 지지를 받았다. 결론부터 말하면, 그 분석이 맞다.
AMD Lemonade — AMD가 공개한 로컬 LLM 추론 서버다. 핵심 차별점은 GPU만이 아니라 NPU(Neural Processing Unit)까지 동시에 활용한다는 것이다. NVIDIA가 CUDA라는 소프트웨어 생태계로 GPU 추론 시장을 사실상 독점하고 있는 상황에서, AMD는 완전히 다른 접근법을 택했다. 소프트웨어를 완전한 오픈소스(GitHub 공개)로 릴리스하고, AMD 하드웨어의 고유한 강점인 GPU+NPU 하이브리드 추론을 전면에 내세웠다. HN 469점. AMD가 소프트웨어를 무료로 풀어야 하는 이유는 명확하다 — 이 회사의 수익원은 소프트웨어가 아니라 하드웨어다.
Alibaba Qwen 3.6-Plus — “towards real world agents”라는 슬로건이 인상적이다. 단순한 벤치마크 성능 경쟁이 아니라, 실제 에이전트 태스크에서의 실용적 활용을 전면에 내세웠다는 점에서 기존 오픈모델 릴리스와 차별화된다. 중국 기업이 만든 AI 모델이 Hacker News에서 462점을 기록했다는 것 자체가 의미심장하다. 불과 2년 전만 해도 중국 AI 모델에 대한 서구 개발자들의 관심은 미미했다. DeepSeek R1이 2025년 초에 그 인식을 바꾸기 시작했고, 지금 Qwen 3.6-Plus는 그 흐름의 연장선에 있다. 중국 오픈 AI 모델은 이제 “호기심의 대상”이 아니라 “실제 선택지”가 되었다.
Ollama 0.19 — Apple MLX 백엔드 네이티브 지원을 추가했다. 이전 버전까지 Ollama는 llama.cpp를 기반으로 Mac에서 LLM을 실행했지만, 이번 업데이트로 Apple의 자체 머신러닝 프레임워크인 MLX를 직접 활용할 수 있게 되었다. Mac 사용자가 로컬에서 LLM을 실행할 때 Apple Silicon의 Metal GPU를 네이티브로 활용할 수 있게 되면서, 추론 속도가 대폭 개선되었다는 보고가 커뮤니티에서 연이어 올라왔다. 로컬 AI의 “사용성 장벽”이 한 단계 낮아진 순간이다.
Microsoft MAI 3종 — MAI-Voice-1(음성 합성), MAI-Transcribe-1(음성 인식), MAI-Image-2(이미지 생성)를 동시에 릴리스했다. 텍스트 기반 LLM이 아니라 음성과 이미지 영역의 모델이라는 점이 주목할 만하다. Microsoft가 한 번에 세 가지 모델을 릴리스한 것은 “우리도 오픈모델 레이스에서 뒤처지지 않겠다”는 강력한 시그널이다. 당연히 Azure 생태계와의 긴밀한 통합이 핵심 가치 제안이다.
그리고 바로 이 주간에 Bloomberg와 Forbes가 클로즈드 모델 진영의 균열을 동시에 보도했다. Bloomberg에 따르면 OpenAI 지분의 2차 시장 수요가 눈에 띄게 하락하고 있으며, 반대로 Anthropic에 대한 투자자 관심은 급등하고 있다(HN 137점). Forbes는 한 발 더 나아가, OpenAI가 발표했지만 실제로 출시하지 않은 제품과 기능을 모아 “The OpenAI Graveyard”라는 제목의 기사를 실었다(HN 239점). 오픈모델의 공세가 격화되는 시점에 클로즈드 모델 진영의 선두주자가 흔들리고 있다는 신호가 같은 주에 나온 것이다. 이것은 우연의 일치가 아니라, 같은 구조적 힘이 만들어낸 결과다.
2. 왜 무료로 푸는가 — 세 가지 전략적 동기
“왜 수십억 달러를 들여 만든 모델을 무료로 공개하는가?” 기술 업계 밖에서 보면 이해하기 어려운 행동이다. 하지만 이 질문에 대한 답을 이해하면 AI 산업의 구조가 보인다. 답은 회사마다 다르다. 하지만 한 가지 공통점이 있다. 세 회사 모두 모델 자체에서 직접 수익을 만들지 않는다. 모델 주변의 생태계에서 돈을 번다.
Google의 전략: 플랫폼을 잡기 위한 무료 미끼
Google이 Gemma 4를 Apache 2.0으로 풀었을 때, 가장 먼저 직접적으로 이득을 보는 것은 스타트업과 개발자다. 무료로 최신 AI 모델을 가져다 쓸 수 있으니까. 하지만 곰곰이 생각해보면, 그 개발자들이 Gemma 4로 제품을 만들 때 어디서 학습시키고 어디서 서빙하겠는가? 상당수가 Google Cloud Platform과 TPU를 선택할 것이다. Gemma 모델은 TPU에 최적화되어 있고, Google Cloud의 Vertex AI와의 통합이 가장 매끄럽기 때문이다.
Apache 2.0 라이선스는 모델의 상업적 사용을 완전히 자유롭게 만든다. 이것은 OpenAI와 Anthropic의 유료 API 모델과 정면으로 충돌하는 전략이다. “월 수백만 원의 API 비용을 내고 GPT나 Claude를 쓸 것인가, 아니면 무료인 Gemma를 Google Cloud 위에서 직접 운영할 것인가?” 이 질문 앞에서 비용에 민감한 스타트업은 후자를 선택할 유인이 크다.
Google의 계산은 명확하다. 모델을 무료로 풀어서 개발자 생태계를 확보하고, 그 생태계가 Google Cloud 위에서 동작하게 만든다. 이것은 역사적으로 Google이 반복해온 전략이다. Android가 무료였던 이유와 정확히 같다. Android를 무료로 풀어서 스마트폰 시장을 장악하고, 그 위에서 Google 서비스(검색, 광고, Play Store)의 매출을 만들었다. Chrome 브라우저도 마찬가지다. 무료로 배포해서 웹 표준을 장악하고, 검색 광고 매출을 보호했다. Gemma 4는 이 전략의 AI 시대 버전이다. 모델은 무료, 클라우드는 유료. 미끼는 크고 아름다울수록 좋다.
AMD의 전략: 하드웨어를 팔기 위한 소프트웨어 무료화
AMD의 Lemonade가 오픈소스인 이유는 더 직관적이다. 현재 AI 추론과 학습 시장에서 NVIDIA가 CUDA라는 소프트웨어 생태계로 압도적인 지배력을 행사하고 있다. 개발자들이 CUDA에 익숙하기 때문에 — 코드가 CUDA에 종속되어 있기 때문에 — AMD GPU로의 전환이 일어나지 않는다. 하드웨어 성능이 비슷해도 소프트웨어 호환성 때문에 NVIDIA를 선택하는 상황이 반복되고 있다. AMD의 대응은? 소프트웨어 전환 장벽을 아예 없애버린다.
Lemonade를 완전 오픈소스로 공개하고, GPU뿐 아니라 NPU까지 활용하는 차별화된 추론 파이프라인을 제공한다. 개발자에게 “우리 소프트웨어를 쓰는 데 아무 비용도 없다, 그리고 NVIDIA에서는 할 수 없는 GPU+NPU 하이브리드 추론을 할 수 있다”고 제안하는 것이다. AMD에게 소프트웨어는 비용 센터가 아니라 하드웨어 매출을 견인하기 위한 전략적 투자다. Lemonade가 잘 동작할수록 AMD Ryzen AI 프로세서와 Radeon GPU의 매력이 올라간다.
이 전략은 기술 산업에서 오래된 패턴이다. Red Hat이 리눅스를 무료로 배포하면서 기업 지원 계약으로 수익을 만들었던 것, Sun Microsystems가 자바를 무료로 풀면서 서버 하드웨어를 팔았던 것과 같은 구조다. “보완재를 commodity화하면 핵심 제품의 수요가 증가한다”는 경제학 원리의 정확한 적용이다.
Alibaba의 전략: 후발주자의 유일한 무기
Alibaba의 상황은 Google이나 AMD와 근본적으로 다르다. 가장 큰 차이는 지정학이다. 중국 기업이 미국과 유럽 시장에서 AI 서비스를 직접 판매하는 것은 규제적으로 거의 불가능하다. 클라우드 서비스 계약? 정부 조달? 기업용 AI 솔루션? 모두 지정학적 장벽에 막혀 있다. 미국의 대중국 기술 규제는 강화되는 방향이고, 유럽 역시 데이터 주권 이슈로 중국 기업의 서비스를 경계한다.
이 환경에서 Alibaba가 글로벌 AI 시장에서 영향력을 확보할 수 있는 유일한 경로가 오픈소스다. Qwen을 오픈소스로 풀면, 전 세계 개발자가 직접 다운로드해서 사용한다. 규제 기관이 이것을 막을 방법은 사실상 없다. 코드와 가중치는 GitHub과 Hugging Face를 통해 전 세계로 확산된다. 이 과정에서 Alibaba의 기술력에 대한 인정이 쌓이고, 동남아시아와 중동 등 상대적으로 지정학적 장벽이 낮은 시장에서 Alibaba Cloud의 경쟁력이 올라간다. 또한 오픈소스 모델이 널리 쓰이면 Alibaba의 AI 기술 생태계(학습 인프라, 추론 최적화 도구, 개발 플랫폼)에 대한 수요도 함께 증가한다.
DeepSeek R1이 2025년 초에 보여준 것처럼, 오픈소스는 중국 AI 기업이 규제를 우회하면서 글로벌 영향력을 행사할 수 있는 가장 합법적이고 효과적인 방법이다. Qwen 3.6-Plus의 “towards real world agents” 포지셔닝은 단순 벤치마크 경쟁을 넘어, 실제 비즈니스 활용 사례에서의 가치를 증명하겠다는 의지의 표현이다.
세 회사의 전략적 맥락은 다르지만 구조는 동일하다. 모델은 미끼이고, 진짜 수익은 모델 위에 쌓이는 생태계 — 클라우드 인프라, 하드웨어 판매, 개발 도구 — 에서 나온다. 모델을 무료로 공개하는 것은 손해가 아니라, 더 큰 시장을 차지하기 위한 선행 투자다.
3. 로컬 AI — 약속과 현실 사이
오픈모델의 폭발적 증가는 “로컬 AI” 열풍과 깊이 맞물려 있다. 클라우드에 의존하지 않고 내 노트북에서, 내 워크스테이션에서 LLM을 실행한다 — 프라이버시, 비용 절감, 오프라인 사용이라는 세 가지 약속을 담은 매력적인 비전이다. 하지만 약속과 현실 사이에는 무시할 수 없는 간극이 있다.
Ollama MLX: Mac에서의 로컬 AI 경험
Ollama 0.19의 Apple MLX 지원은 Mac 사용자에게 실질적으로 중요한 이정표다. 이전까지 Ollama는 llama.cpp 기반으로 동작했는데, Apple Silicon의 성능을 100% 끌어내지 못하는 한계가 있었다. MLX 네이티브 지원으로 Apple Silicon의 통합 메모리 아키텍처를 최대한 활용할 수 있게 되면서, 체감 속도가 상당히 개선되었다.
M3 Pro 이상의 칩에서 Gemma 4 수준의 중형 모델(12B27B 파라미터)을 실행하면 초당 2030 토큰 정도의 생성 속도가 가능하다. 일상적인 코딩 어시스턴트, 문서 요약, 이메일 초안 작성 같은 용도로는 충분히 실용적인 수준이다. 응답이 1~2초 안에 시작되고, 짧은 답변은 거의 즉시 완성된다.
그러나 한계도 명확하다. 통합 메모리가 36GB인 M3 Pro에서 30B 파라미터 이상의 대형 모델을 실행하면 시스템 전체가 눈에 띄게 느려진다. LLM이 메모리의 대부분을 점유하기 때문에, 브라우저에서 탭 수십 개를 열어놓고 IDE까지 동시에 돌리면서 로컬 LLM을 쾌적하게 사용하는 것은 여전히 현실적이지 않다. 또한 MLX가 지원하는 모델 형식이 아직 제한적이어서, 모든 오픈모델이 즉시 MLX로 실행 가능한 것은 아니라는 점도 고려해야 한다.
AMD Lemonade: NPU의 실질적 가치
AMD Lemonade가 NPU를 활용한다는 것은 기술적으로 흥미로운 접근이지만, 현재 NPU의 성능은 GPU에 비해 상당히 제한적이다. Ryzen AI 시리즈에 탑재된 NPU는 주로 소규모 모델(7B 이하 파라미터)에서 효과적이며, 대형 모델에서는 여전히 GPU가 주력 연산 장치다. NPU만으로 대형 모델을 실행하는 것은 현재 세대 하드웨어에서는 비현실적이다.
그렇다면 NPU의 진짜 가치는 어디에 있는가? 전력 효율이다. 배터리로 동작하는 노트북에서 LLM을 실행할 때, NPU는 GPU 대비 현저히 낮은 전력 소모를 보인다. 회의 중에 노트북을 열고 로컬 AI 어시스턴트를 돌리는 시나리오에서, GPU를 풀가동하면 배터리가 30분 만에 바닥나지만 NPU를 활용하면 2~3시간은 버틸 수 있다. 또한 GPU+NPU를 동시에 사용하면 작은 모델은 NPU에서, 큰 모델은 GPU에서 실행하는 식의 워크로드 분산도 가능하다. 하지만 “NPU가 있으니까 로컬 AI가 실용적이다”라고 단정하기엔 아직 이른 단계다.
DRAM 가격: 로컬 AI의 물리적 장벽
같은 주간에 하드웨어 리뷰어 Jeff Geerling의 “DRAM 가격 폭등이 취미용 SBC 시장을 죽이고 있다”는 분석이 Hacker News에서 605점을 기록했다. 이 타이밍은 우연이 아니다. 로컬 AI가 현실화되려면 대용량 메모리가 필수인데, 바로 그 메모리의 가격이 폭등하고 있기 때문이다.
숫자로 보면 현실이 선명해진다. LLM을 로컬에서 실행하려면 모델 가중치를 전부 메모리에 올려야 한다. 30B 파라미터 모델을 4비트 양자화해도 약 16GB가 필요하고, 70B 모델이면 3540GB가 필요하다. 운영체제와 다른 애플리케이션이 사용하는 메모리를 고려하면, 64GB는 “최소 쾌적 수준”이고 128GB 이상이 “편안한 수준”이다. 그런데 64GB 메모리를 장착한 워크스테이션은 2025년 대비 2030% 비싸졌다. Mac Studio의 192GB 통합 메모리 모델은 여전히 한화 600만 원을 넘는다.
“로컬 AI는 클라우드 API 비용을 아껴준다”는 주장은 하드웨어 초기 투자 비용을 고려하면 그리 단순한 계산이 아니다. Claude API를 월 10만 원씩 사용하는 개발자가 600만 원짜리 Mac Studio를 로컬 AI용으로 구매한다면, 손익분기점까지 5년이 걸린다. 물론 프라이버시나 오프라인 사용 같은 비금전적 가치가 있지만, 순수 비용 관점에서는 클라우드 API가 여전히 합리적인 선택지인 경우가 많다.
클로즈드 모델 내부의 역학 변화
로컬 AI와 오픈모델의 현실을 논하면서 놓치면 안 되는 것이 클로즈드 모델 시장 내부에서 일어나고 있는 역학 변화다. Bloomberg 보도에 따르면 Anthropic의 인기가 급등하고 있는 반면, OpenAI의 2차 시장 수요는 하락 추세에 있다. 이 현상은 오픈모델의 압박만으로 설명되지 않는다. 클로즈드 모델 사이에서도 “실행력”과 “개발자 경험”의 차이로 승부가 갈리고 있다는 의미다.
Claude가 코딩 에이전트와 장문 분석에서 두드러진 강점을 보이면서, 특히 소프트웨어 개발 기업과 전문 서비스 기업의 고객 이동이 가속화되고 있다는 분석이 나온다. Claude Code와 같은 도구가 개발자의 실제 워크플로에 깊이 통합되면서, “성능표의 숫자”가 아니라 “실무에서의 체감 가치”가 모델 선택의 기준이 되고 있다. Forbes의 “OpenAI Graveyard” 기사는 이 맥락에서 읽어야 한다 — 발표는 화려하지만 실제 제품으로 이어지지 않는 것들이 쌓이면, 개발자와 기업 고객의 신뢰는 서서히 하지만 확실하게 떨어진다.
현실 진단은 이렇다. 로컬 AI는 가능하다. M3 Pro 이상의 Mac, 또는 Ryzen AI 탑재 고사양 PC를 가진 개발자라면 이미 실용적인 수준에 도달했다. 하지만 “모든 사람의 로컬”은 아직 아니다. 메모리 가격, 모델 크기, 전력 소모 — 이 세 가지 제약이 동시에 해결되지 않으면 로컬 AI는 얼리 어답터와 기술 전문가의 도구로 남는다. 대다수의 사용자에게 AI는 앞으로도 상당 기간 클라우드를 통해 제공될 것이다.
4. 누가 이기는가 — 세 가지 시나리오
오픈모델 전쟁의 최종 결말을 정확하게 예측하는 것은 불가능하다. 변수가 너무 많고, 기술 발전 속도가 예측을 무력화할 수 있기 때문이다. 하지만 가능한 시나리오를 구조화하는 것은 가능하다. 그리고 시나리오별로 대비하는 것이 리더가 해야 할 일이다.
시나리오 1: Google이 이긴다 — 플랫폼 지배
Gemma 생태계가 사실상의 업계 표준이 된다. 개발자 대부분이 Gemma 모델을 기반으로 제품을 만들고, 파인튜닝과 서빙을 위해 자연스럽게 Google Cloud와 TPU로 수렴한다. Gemma 호환 도구와 라이브러리가 가장 풍부해지면서 네트워크 효과가 작동하고, 후발 오픈모델은 “Gemma와의 호환성”을 강조해야 하는 처지가 된다.
이 시나리오에서 OpenAI와 Anthropic은 “프리미엄 니치”로 밀린다 — 절대적으로 최고의 성능이 필요한 기업 고객, 규제 준수가 중요한 금융/의료 기관만 상대하는 시장으로. 이 시나리오가 실현되려면 Gemma의 성능이 클로즈드 모델과의 격차를 극적으로 줄여야 한다. 현재로서는 격차가 존재하지만, Apache 2.0 라이선스의 진짜 힘은 “충분히 좋은” 모델이 “최고의” 모델을 이긴 역사가 반복적으로 있다는 데 있다. 리눅스가 유닉스를 이겼고, MySQL이 오라클의 시장 점유율을 갉아먹었다. “무료이면서 충분히 좋은” 것의 파괴력은 역사가 증명한다.
시나리오 2: 분산 — 아무도 이기지 못한다
오픈모델이 commodity화되면서 어느 한 회사도 모델 레이어를 지배하지 못한다. Gemma, Qwen, Llama, Mistral이 모두 “충분히 좋은” 수준에 도달하고, 개발자는 용도와 상황에 따라 모델을 자유롭게 갈아끼운다. 번역에는 Qwen이 강하고, 코딩에는 Gemma가 강하고, 추론에는 Llama가 강한 식으로 모델별 특화가 이루어지면서, 단일 모델의 지배는 일어나지 않는다.
이 시나리오에서 가치는 모델이 아니라 한 단계 위의 레이어로 이동한다 — Agent Harness, skill 레이어, 오케스트레이션 프레임워크가 핵심 가치가 된다. 모델은 commodity가 되고, “어떤 모델을 어떤 태스크에 어떻게 조합하고 제어하는가”가 차별화 요소가 된다. 이것은 이전 에세이에서 다룬 “Skill as a Product” 개념과 정확히 맞닿는다. 모델이 무료가 되면, 모델 위에 쌓는 기술과 경험이 곧 제품이 된다. 기업의 AI 역량은 “어떤 모델을 쓰는가”가 아니라 “모델을 어떻게 활용하는가”로 결정되는 세상이다.
개인적으로는 이 시나리오가 가장 가능성이 높다고 본다. 기술 산업의 역사에서, 특정 레이어가 commodity화되면 가치는 항상 그 위의 레이어로 이동했다. 하드웨어가 commodity화되자 운영체제가 가치를 가졌고, 운영체제가 commodity화되자 애플리케이션이 가치를 가졌고, 애플리케이션이 commodity화되자 플랫폼과 데이터가 가치를 가졌다. AI 모델도 같은 경로를 밟을 가능성이 높다.
시나리오 3: 클로즈드 모델의 반격 — 성능 격차 유지
OpenAI와 Anthropic이 “오픈모델로는 도달할 수 없는” 성능 격차를 유지하거나, 더 나아가 격차를 벌린다. Slack에서 유출된 Claude Mythos(Gigazine 보도)가 그 신호탄이 될 수 있다. 차세대 클로즈드 모델이 에이전트 태스크에서의 자율성, 복잡한 다단계 추론, 장기 기억과 맥락 유지에서 오픈모델과 확연한 차이를 보인다면, 기업 고객은 여전히 프리미엄 API 요금을 기꺼이 지불할 것이다.
이 시나리오에서 오픈모델은 “교육용, 프로토타입용, 비용에 극도로 민감한 사례”에 머물고, 실제 비즈니스 크리티컬한 워크로드 — 고객 대면 서비스, 의사결정 보조, 복잡한 자동화 — 는 클로즈드 모델이 차지한다. 이것은 “리눅스가 서버를 지배했지만 데스크톱은 여전히 윈도우와 맥OS”인 것과 비슷한 구도다. 오픈과 클로즈드가 다른 영역에서 공존하는 시나리오다.
이 시나리오의 핵심 변수는 “성능 격차가 유지되느냐”다. 오픈모델의 발전 속도가 놀라울 정도로 빠르기 때문에, 클로즈드 모델이 격차를 유지하려면 지속적으로 막대한 연구 투자를 쏟아부어야 한다. 이 투자를 뒷받침할 수 있는 매출 구조가 있는 회사만이 이 레이스에서 살아남을 수 있다.
세 시나리오 중 어떤 것이 현실화되든, 한 가지는 분명하다. 오픈모델 전쟁이 시작된 이상, AI 모델의 가격은 장기적으로 제로에 수렴한다. 가치는 모델 자체가 아니라 모델을 활용하는 방법 — 인프라, 도구, 워크플로, 축적된 경험 — 으로 이동한다. 기업이 지금 준비해야 할 것은 “어떤 모델을 선택할 것인가”가 아니라 “모델 위에 무엇을 쌓을 것인가”다.
Google이 Gemma 4를 Apache 2.0으로 풀었을 때, 많은 사람이 감사했다. 하지만 전쟁에서 무료 무기를 나눠주는 쪽은 전장을 선택한 쪽이다. 그리고 지금, 전장은 이미 정해졌다.
참고문헌
- Google Gemma 4 release — DeepMind blog (HN 1,242점)
- AMD Lemonade — GitHub repository (HN 469점)
- Alibaba Qwen 3.6-Plus — “Towards real world agents” (HN 462점)
- Ollama 0.19 MLX support announcement
- “DRAM pricing is killing the hobbyist SBC market” — Jeff Geerling (HN 605점)
- “OpenAI demand sinks on secondary market as Anthropic runs hot” — Bloomberg (HN 137점)
- “The OpenAI graveyard” — Forbes (HN 239점)
- Claude Mythos leak — Gigazine report
- Microsoft MAI model releases — TechCrunch