投稿者: | 2026年4月22日

アリババのQwenチームは、 Qwen3.6–35B-A3Bと呼ばれる新しいオープンウェイトMoEモデルをひっそりと公開しました。これは合計350億のパラメータを持ちますが、順方向パスごとにアクティブなパラメータはわずか30億です。ダウンロードは無料です。16GBのMac Miniで動作します。そして、ほとんど誰も口にしていないことですが、SWE-bench Verifiedでは73.4%のスコアを記録しています。

Googleの同等のオープンウェイトMoEであるGemma 4 26B A4Bは、同じベンチマークで52.0%のスコアを獲得している。

21ポイントもの差だ。エージェント型コーディングにおいて最も重要なベンチマークにおいて、より小型のモデルが勝利したのだ。

意外なことに、Gemma 4 26B A4B はトークンあたり 40 億個のパラメータをアクティブ化します。Qwen3.6–35B-A3B は30 億個をアクティブ化します。トークンあたりの計算量が少ないモデルの方が、コーディングベンチマークで圧倒的な性能を発揮しているのです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です