オープンモデル戦争 2026 — Google、AMD、Alibabaが無料で公開する理由
オープンモデル戦争 2026 — Google、AMD、Alibabaが無料で公開する理由
「GoogleがGemma 4をApache 2.0で公開した。これは慈善ではない。戦争だ。」
2026年3月最終週から4月第1週にかけて、AI業界で異例の事態が起きた。わずか1週間の間に、グローバルビッグテック3社が同時に自社の最新AIモデルをopen sourceで公開したのだ。Google DeepMindがGemma 4をApache 2.0ライセンスで公開し(Hacker News 1,242ポイント)、同じ週にAMDがGPUとNPUを同時に活用するローカルLLMサーバーLemonadeを完全open sourceでリリースした(HN 469ポイント)。Alibabaは「towards real world agents」という挑発的なサブタイトルを掲げてQwen 3.6-Plusを公開した(HN 462ポイント)。
それだけではない。Ollama 0.19がApple MLXネイティブ対応を発表し、Macでのローカル AI実行環境が根本的に改善された。Microsoftは MAI-Voice-1、MAI-Transcribe-1、MAI-Image-2の3つのモデルを同時にリリースし、「我々もこの戦争に参戦する」というシグナルを発した。
一方、クローズドモデル陣営では亀裂が見え始めていた。Bloombergは「Anthropic人気急上昇 vs OpenAI二次市場の需要低下」という見出しの記事を掲載し、Forbesは「The OpenAI Graveyard ― 発表だけして実現されなかった製品コレクション」という辛辣な記事でOpenAIの実行力に正面から疑問を投げかけた(HN 239ポイント)。オープンモデルの攻勢とクローズドモデルの動揺が、同じ週に同時に可視化されたのだ。
1週間でこれだけのことが起きた。偶然ではない。オープンモデルは慈善ではなく戦略だ。そしてこの戦略がAI産業の構造を根本から変えつつある。本稿では、なぜこれらの企業が数十億ドルを投じて開発したモデルを無料で公開するのか、その戦略的動機を分析し、オープンモデル戦争がどこに向かうのかを3つのシナリオで展望する。
1. 2026年4月第1週に何が起きたのか
タイムラインを整理すると、この1週間の密度がいかに異常だったかが鮮明に浮かび上がる。通常、ビッグテック企業の主要AIモデル発表は数週間から数ヶ月の間隔を置いて行われる。ところが今回は、異なる大陸にある複数の企業がほぼ同時に動いた。
Google Gemma 4 ― DeepMindが発表した次世代オープンモデルだ。最も目を引くのはライセンスである。Apache 2.0。これは単なる「研究用公開」ではない。商業利用、改変、再配布がすべて許可される。スタートアップがこのモデルを自社製品に統合し、その製品を有料で販売してもGoogleに1円も支払う必要がない。fine-tuningも自由で、派生モデルを作って別途配布することも可能だ。
Hacker Newsで1,242ポイントを記録し、この週最大の話題となった。開発者コミュニティの反応は二極化していた。一方では「これが本当に無料?」という純粋な驚きが上がり、他方では「Googleがどんな意図でこんなことを?」という警戒の声が上がった。特に「Googleが開発者エコシステムを自社クラウドに囲い込もうとしているのでは」という分析がかなりの支持を集めた。結論から言えば、その分析は正しい。
AMD Lemonade ― AMDが公開したローカルLLM inference サーバーだ。核心的な差別化ポイントは、GPUだけでなくNPU(Neural Processing Unit)まで同時に活用する点にある。NVIDIAがCUDAというソフトウェアエコシステムでGPU inferenceの市場を事実上独占している状況で、AMDはまったく異なるアプローチを選んだ。ソフトウェアを完全なopen source(GitHub公開)でリリースし、AMDハードウェア固有の強みであるGPU+NPUハイブリッドinferenceを前面に押し出した。HN 469ポイント。AMDがソフトウェアを無料で公開すべき理由は明確だ ― この会社の収益源はソフトウェアではなくハードウェアだからだ。
Alibaba Qwen 3.6-Plus ― 「towards real world agents」というスローガンが印象的だ。単なるベンチマーク性能競争ではなく、実際のエージェントタスクにおける実用的な活用を前面に打ち出した点で、従来のオープンモデルリリースとは一線を画す。中国企業が開発したAIモデルがHacker Newsで462ポイントを記録したこと自体が示唆的だ。わずか2年前まで、中国AIモデルに対する欧米開発者の関心は微々たるものだった。DeepSeek R1が2025年初頭にその認識を変え始め、今Qwen 3.6-Plusはその流れの延長線上にある。中国のオープンAIモデルは、もはや「好奇心の対象」ではなく「実際の選択肢」になったのだ。
Ollama 0.19 ― Apple MLXバックエンドのネイティブ対応を追加した。以前のバージョンまでOllamaはllama.cppをベースにMacでLLMを実行していたが、今回のアップデートでApple独自の機械学習フレームワークであるMLXを直接活用できるようになった。MacユーザーがローカルでLLMを実行する際にApple SiliconのMetal GPUをネイティブに活用できるようになり、inference速度が大幅に改善されたという報告がコミュニティから相次いだ。ローカルAIの「使いやすさの壁」が一段下がった瞬間だ。
Microsoft MAI 3種 ― MAI-Voice-1(音声合成)、MAI-Transcribe-1(音声認識)、MAI-Image-2(画像生成)を同時にリリースした。テキストベースのLLMではなく音声と画像領域のモデルである点が注目に値する。Microsoftが一度に3つのモデルをリリースしたのは、「我々もオープンモデルレースで遅れを取らない」という強力なシグナルだ。当然ながら、Azureエコシステムとの緊密な統合が核心的な価値提案である。
そしてまさにこの週に、BloombergとForbesがクローズドモデル陣営の亀裂を同時に報じた。Bloombergによれば、OpenAI株式の二次市場での需要が目に見えて低下しており、逆にAnthropicに対する投資家の関心は急上昇している(HN 137ポイント)。Forbesはさらに踏み込み、OpenAIが発表しながら実際には出荷しなかった製品や機能を集めて「The OpenAI Graveyard」というタイトルの記事を掲載した(HN 239ポイント)。オープンモデルの攻勢が激化するタイミングでクローズドモデル陣営のフロントランナーが揺らいでいるというシグナルが、同じ週に現れたのだ。これは偶然の一致ではなく、同じ構造的な力が生み出した結果である。
2. なぜ無料で公開するのか ― 3つの戦略的動機
「なぜ数十億ドルを投じて作ったモデルを無料で公開するのか?」テック業界の外から見れば理解し難い行動だ。しかしこの問いに対する答えを理解すれば、AI産業の構造が見えてくる。答えは企業ごとに異なる。だが一つの共通点がある。3社ともモデル自体から直接収益を上げていない。モデル周辺のエコシステムで稼いでいるのだ。
Googleの戦略:プラットフォームを押さえるための無料の餌
GoogleがGemma 4をApache 2.0で公開した時、最も直接的に恩恵を受けるのはスタートアップと開発者だ。無料で最新AIモデルを使えるのだから。しかしよく考えてみると、その開発者たちがGemma 4で製品を作る時、どこで学習させてどこでサービングするだろうか? 相当数がGoogle Cloud PlatformとTPUを選ぶだろう。GemmaモデルはTPUに最適化されており、Google CloudのVertex AIとの統合が最もスムーズだからだ。
Apache 2.0ライセンスはモデルの商業利用を完全に自由にする。これはOpenAIとAnthropicの有料APIモデルと正面衝突する戦略だ。「月に数百万円のAPI費用を払ってGPTやClaudeを使うのか、それとも無料のGemmaをGoogle Cloud上で自前運用するのか?」この問いを前に、コストに敏感なスタートアップは後者を選ぶインセンティブが大きい。
Googleの計算は明確だ。モデルを無料で公開して開発者エコシステムを獲得し、そのエコシステムがGoogle Cloud上で稼働するようにする。これは歴史的にGoogleが繰り返してきた戦略だ。Androidが無料だった理由とまったく同じである。Androidを無料で公開してスマートフォン市場を制し、その上でGoogleサービス(検索、広告、Play Store)の売上を作った。Chromeブラウザも同様だ。無料で配布してWeb標準を制し、検索広告の売上を守った。Gemma 4はこの戦略のAI時代版だ。モデルは無料、クラウドは有料。餌は大きく美しいほどよい。
AMDの戦略:ハードウェアを売るためのソフトウェア無料化
AMD Lemonadeがopen sourceである理由はより直感的だ。現在、AI inferenceと学習の市場でNVIDIAがCUDAというソフトウェアエコシステムで圧倒的な支配力を行使している。開発者がCUDAに慣れているから ― コードがCUDAに依存しているから ― AMD GPUへの移行が起きない。ハードウェア性能が同等でもソフトウェア互換性のためにNVIDIAを選ぶ状況が繰り返されている。AMDの対応は? ソフトウェアの移行障壁をまるごと取り払ってしまうことだ。
Lemonadeを完全open sourceで公開し、GPUだけでなくNPUまで活用する差別化されたinferenceパイプラインを提供する。開発者に「我々のソフトウェアを使うのにいかなるコストもかからない、そしてNVIDIAではできないGPU+NPUハイブリッドinferenceができる」と提案しているのだ。AMDにとってソフトウェアはコストセンターではなく、ハードウェア売上を牽引するための戦略的投資だ。Lemonadeがうまく動くほど、AMD Ryzen AIプロセッサとRadeon GPUの魅力が高まる。
この戦略はテック産業で古くからあるパターンだ。Red HatがLinuxを無料で配布しながら企業向けサポート契約で収益を上げたこと、Sun MicrosystemsがJavaを無料で公開しながらサーバーハードウェアを売ったことと同じ構造だ。「補完財をcommodity化すれば、コア製品の需要が増える」という経済学の原理の正確な適用である。
Alibabaの戦略:後発者の唯一の武器
Alibabaの状況はGoogleやAMDとは根本的に異なる。最大の違いは地政学だ。中国企業がアメリカとヨーロッパ市場でAIサービスを直接販売するのは、規制上ほぼ不可能である。クラウドサービス契約? 政府調達? 企業向けAIソリューション? すべて地政学的障壁に阻まれている。アメリカの対中国技術規制は強化の方向にあり、ヨーロッパもデータ主権の問題から中国企業のサービスを警戒している。
この環境下でAlibabaがグローバルAI市場で影響力を確保できる唯一のルートがopen sourceだ。Qwenをopen sourceで公開すれば、世界中の開発者が直接ダウンロードして使う。規制当局がこれを阻止する手段は事実上ない。コードとウェイトはGitHubとHugging Faceを通じて世界中に拡散する。この過程でAlibabaの技術力に対する評価が蓄積され、東南アジアや中東など地政学的障壁が相対的に低い市場でAlibaba Cloudの競争力が向上する。また、open sourceモデルが広く使われればAlibabaのAI技術エコシステム(学習インフラ、inference最適化ツール、開発プラットフォーム)への需要も共に増加する。
DeepSeek R1が2025年初頭に示したように、open sourceは中国AI企業が規制を迂回しながらグローバルな影響力を行使できる最も合法的かつ効果的な方法だ。Qwen 3.6-Plusの「towards real world agents」というポジショニングは、単なるベンチマーク競争を超えて、実際のビジネス活用事例での価値を証明するという意志の表明である。
3社の戦略的文脈は異なるが、構造は同一だ。モデルは餌であり、真の収益はモデルの上に積み上がるエコシステム ― クラウドインフラ、ハードウェア販売、開発ツール ― から生まれる。モデルを無料で公開するのは損失ではなく、より大きな市場を獲るための先行投資だ。
3. ローカルAI ― 理想と現実の狭間で
オープンモデルの爆発的増加は「ローカルAI」ブームと深く連動している。クラウドに依存せず、自分のノートPCで、自分のワークステーションでLLMを実行する ― プライバシー、コスト削減、オフライン利用という3つの約束を秘めた魅力的なビジョンだ。しかし理想と現実の間には無視できない溝がある。
Ollama MLX:MacでのローカルAI体験
Ollama 0.19のApple MLX対応は、Macユーザーにとって実質的に重要なマイルストーンだ。これまでOllamaはllama.cppベースで動作しており、Apple Siliconの性能を100%引き出せない限界があった。MLXネイティブ対応によってApple Siliconの統合メモリアーキテクチャを最大限活用できるようになり、体感速度がかなり改善された。
M3 Pro以上のチップでGemma 4クラスの中型モデル(12B〜27Bパラメータ)を実行すると、毎秒20〜30トークン程度の生成速度が出せる。日常的なコーディングアシスタント、文書要約、メール下書き作成といった用途には十分実用的なレベルだ。レスポンスは1〜2秒以内に始まり、短い回答はほぼ即座に完成する。
しかし限界も明確だ。統合メモリが36GBのM3 Proで30Bパラメータ以上の大型モデルを実行すると、システム全体が目に見えて遅くなる。LLMがメモリの大部分を占有するため、ブラウザでタブを数十個開きながらIDEまで同時に走らせつつローカルLLMを快適に使うのは、依然として現実的ではない。また、MLXが対応するモデル形式がまだ限定的であり、すべてのオープンモデルが即座にMLXで実行できるわけではないという点も考慮すべきだ。
AMD Lemonade:NPUの実質的な価値
AMD LemonadeがNPUを活用するのは技術的に興味深いアプローチだが、現時点でNPUの性能はGPUに比べてかなり限定的だ。Ryzen AIシリーズに搭載されたNPUは主に小規模モデル(7Bパラメータ以下)で効果的であり、大型モデルでは依然としてGPUが主力の演算装置となる。NPUだけで大型モデルを実行するのは、現世代のハードウェアでは非現実的だ。
それではNPUの真の価値はどこにあるのか? 電力効率だ。バッテリー駆動のノートPCでLLMを実行する場合、NPUはGPU比で顕著に低い消費電力を示す。会議中にノートPCを開いてローカルAIアシスタントを動かすシナリオでは、GPUをフル稼働させればバッテリーが30分で尽きるが、NPUを活用すれば2〜3時間は持つ。また、GPU+NPUを同時に使えば、小さいモデルはNPUで、大きいモデルはGPUで実行するといったワークロードの分散も可能になる。ただし「NPUがあるからローカルAIは実用的だ」と断じるには、まだ時期尚早だ。
DRAM価格:ローカルAIの物理的障壁
同じ週に、ハードウェアレビュアーJeff Geerlingの「DRAM価格高騰がホビイスト向けSBC市場を殺している」という分析がHacker Newsで605ポイントを記録した。このタイミングは偶然ではない。ローカルAIが現実のものになるには大容量メモリが不可欠だが、まさにそのメモリの価格が高騰しているからだ。
数字で見れば現実が鮮明になる。LLMをローカルで実行するには、モデルのウェイトをすべてメモリに載せなければならない。30Bパラメータモデルを4ビット量子化しても約16GBが必要で、70Bモデルなら35〜40GBが必要だ。OSや他のアプリケーションが使用するメモリを考慮すると、64GBが「最低限の快適水準」で、128GB以上が「余裕のある水準」だ。ところが64GBメモリを搭載したワークステーションは2025年比で20〜30%値上がりしている。Mac Studioの192GB統合メモリモデルは依然として日本円で約70万円を超える。
「ローカルAIはクラウドAPI費用を節約できる」という主張は、ハードウェアの初期投資コストを考慮すると、それほど単純な計算ではない。Claude APIを月1万円ずつ使う開発者が70万円のMac StudioをローカルAI用に購入すれば、損益分岐点まで約6年かかる。もちろんプライバシーやオフライン利用といった非金銭的な価値はあるが、純粋にコストの観点ではクラウドAPIが依然として合理的な選択肢である場合が多い。
クローズドモデル内部の力学変化
ローカルAIとオープンモデルの現実を論じる際に見落としてはならないのが、クローズドモデル市場内部で起きている力学変化だ。Bloomberg報道によれば、Anthropicの人気が急上昇している一方で、OpenAIの二次市場での需要は下降トレンドにある。この現象はオープンモデルの圧力だけでは説明がつかない。クローズドモデル同士でも「実行力」と「開発者体験」の差で勝負がつきつつあるという意味だ。
Claudeがコーディングエージェントと長文分析で際立った強みを見せ、特にソフトウェア開発企業や専門サービス企業からの顧客移行が加速しているという分析が出ている。Claude Codeのようなツールが開発者の実際のワークフローに深く統合されることで、「性能表の数値」ではなく「実務での体感価値」がモデル選択の基準になりつつある。Forbesの「OpenAI Graveyard」記事はこの文脈で読むべきだ ― 発表は華やかだが実際の製品に結びつかないものが積み重なると、開発者や企業顧客の信頼はゆっくりと、しかし確実に低下する。
現実の診断はこうだ。ローカルAIは可能だ。M3 Pro以上のMac、またはRyzen AI搭載のハイスペックPCを持つ開発者なら、すでに実用的な水準に到達している。しかし「すべての人のローカル」にはまだ至っていない。メモリ価格、モデルサイズ、消費電力 ― この3つの制約が同時に解消されない限り、ローカルAIはアーリーアダプターと技術専門家のツールにとどまる。大多数のユーザーにとって、AIは今後もかなりの期間クラウドを通じて提供されるだろう。
4. 誰が勝つのか ― 3つのシナリオ
オープンモデル戦争の最終的な結末を正確に予測することは不可能だ。変数が多すぎるし、技術の進歩速度が予測を無力化しうるからだ。だが、あり得るシナリオを構造化することは可能だ。そしてシナリオごとに備えるのが、リーダーがなすべき仕事だ。
シナリオ1:Googleが勝つ ― プラットフォーム支配
Gemmaエコシステムが事実上の業界標準となる。開発者の大半がGemmaモデルをベースに製品を作り、fine-tuningとサービングのために自然とGoogle CloudとTPUに収斂する。Gemma互換のツールやライブラリが最も充実し、ネットワーク効果が働き、後発のオープンモデルは「Gemmaとの互換性」をアピールしなければならない立場に追い込まれる。
このシナリオでは、OpenAIとAnthropicは「プレミアムニッチ」に追いやられる ― 絶対的に最高の性能が必要な企業顧客、規制遵守が重要な金融・医療機関だけを相手にする市場へと。このシナリオが実現するには、Gemmaの性能がクローズドモデルとの差を劇的に縮める必要がある。現時点では差は存在するが、Apache 2.0ライセンスの真の力は「十分に良い」モデルが「最高の」モデルに勝った歴史が繰り返されてきたところにある。LinuxがUNIXに勝ち、MySQLがOracleのシェアを侵食した。「無料で十分に良い」ものの破壊力は、歴史が証明している。
シナリオ2:分散 ― 誰も勝てない
オープンモデルがcommodity化し、どの一社もモデルレイヤーを支配できない。Gemma、Qwen、Llama、Mistralがすべて「十分に良い」水準に到達し、開発者は用途と状況に応じてモデルを自由に差し替える。翻訳にはQwenが強く、コーディングにはGemmaが強く、推論にはLlamaが強いという形でモデルごとの特化が進み、単一モデルの支配は起きない。
このシナリオでは、価値はモデルではなく一段上のレイヤーに移動する ― Agent Harness、skillレイヤー、オーケストレーションフレームワークが核心的な価値となる。モデルはcommodityとなり、「どのモデルをどのタスクにどう組み合わせて制御するか」が差別化要素になる。これは以前のエッセイで論じた「Skill as a Product」のコンセプトとまさに合致する。モデルが無料になれば、モデルの上に積み上げる技術と経験がすなわち製品になる。企業のAI能力は「どのモデルを使うか」ではなく「モデルをどう活用するか」で決まる世界だ。
個人的には、このシナリオが最も可能性が高いと見ている。テック産業の歴史において、特定のレイヤーがcommodity化すると、価値は常にその上のレイヤーに移動してきた。ハードウェアがcommodity化するとOSが価値を持ち、OSがcommodity化するとアプリケーションが価値を持ち、アプリケーションがcommodity化するとプラットフォームとデータが価値を持った。AIモデルも同じ道筋をたどる可能性が高い。
シナリオ3:クローズドモデルの反撃 ― 性能格差の維持
OpenAIとAnthropicが「オープンモデルでは到達できない」性能格差を維持、あるいはさらに拡大する。Slackで流出したClaude Mythos(Gigazine報道)がその狼煙となる可能性がある。次世代クローズドモデルがエージェントタスクにおける自律性、複雑な多段階推論、長期記憶とコンテキスト維持でオープンモデルと明確な差を示すなら、企業顧客は依然としてプレミアムAPI料金を喜んで支払うだろう。
このシナリオでは、オープンモデルは「教育用、プロトタイプ用、コストに極度に敏感なケース」にとどまり、実際のビジネスクリティカルなワークロード ― 顧客対面サービス、意思決定支援、複雑な自動化 ― はクローズドモデルが占める。これは「Linuxがサーバーを支配したがデスクトップは依然としてWindowsとmacOS」という構図に似ている。オープンとクローズドが異なる領域で共存するシナリオだ。
このシナリオの鍵となる変数は「性能格差が維持されるかどうか」だ。オープンモデルの進歩速度は驚異的であり、クローズドモデルが格差を維持するには継続的かつ莫大な研究投資を注ぎ込む必要がある。この投資を支えうる売上構造を持つ企業だけが、このレースで生き残れる。
3つのシナリオのどれが現実化するにせよ、一つだけ確かなことがある。オープンモデル戦争が始まった以上、AIモデルの価格は長期的にゼロに収斂する。価値はモデル自体ではなく、モデルを活用する方法 ― インフラ、ツール、ワークフロー、蓄積された経験 ― へと移行する。企業が今準備すべきは「どのモデルを選ぶか」ではなく「モデルの上に何を積み上げるか」だ。
GoogleがGemma 4をApache 2.0で公開した時、多くの人が感謝した。だが戦争において無料の武器を配る側は、戦場を選んだ側だ。そして今、戦場はすでに定まっている。
参考文献
- Google Gemma 4 release — DeepMind blog (HN 1,242ポイント)
- AMD Lemonade — GitHub repository (HN 469ポイント)
- Alibaba Qwen 3.6-Plus — “Towards real world agents” (HN 462ポイント)
- Ollama 0.19 MLX support announcement
- “DRAM pricing is killing the hobbyist SBC market” — Jeff Geerling (HN 605ポイント)
- “OpenAI demand sinks on secondary market as Anthropic runs hot” — Bloomberg (HN 137ポイント)
- “The OpenAI graveyard” — Forbes (HN 239ポイント)
- Claude Mythos leak — Gigazine report
- Microsoft MAI model releases — TechCrunch