Qwen3.6-35B-A3Bとは何か Alibabaが打ち出すagentic coding重視モデル

Alibaba Cloudが2026年4月17日、オープンソースAIモデル Qwen3.6-35B-A3B を公開しました。今回の発表で特に注目されるのは、総350億パラメータという規模を持ちながら、実際に推論時に使うのは30億パラメータに絞るMoE構成を採用している点です。効率を保ちつつ、エージェント型コーディングやマルチモーダル処理で高い性能を狙うモデルとして位置付けられています。
何が発表されたか
公開されたQwen3.6-35B-A3Bは、Qwen3.6-Plusの発表に続く形で登場したオープンソースモデルです。Alibabaはこのモデルについて、前世代のQwen3.5-35B-A3Bを大きく上回る性能を持ち、より大きな密モデルとも競合可能だと説明しています。特に強みとして挙げられているのが、ツール呼び出しや複数段階の処理を伴う agentic coding です。
重要なポイント
まず、このモデルは MoE型 であることが大きな特徴です。総パラメータ数は350億ですが、アクティブなのは30億で、計算資源を抑えながら高性能を実現しようとしています。
次に、記事内のベンチマークでは、SWE-bench系やTerminal-Bench 2.0、QwenWebBenchなど、コーディングやエージェント関連の指標が多数示されています。Alibabaの説明では、Qwen3.5-35B-A3Bから大幅に改善し、一部の比較対象に対して強い結果を出しています。なお、これらの数値は同社記事内で提示された評価結果であり、外部独立検証ではない点は踏まえて読む必要があります。
また、Qwen3.6-35B-A3Bは マルチモーダル にも対応しています。画像理解、文書理解、OCR、空間認識、動画理解などのベンチマークが掲載されており、単なるコード生成専用モデルではなく、より汎用的な利用を視野に入れた設計であることが分かります。
これはなぜ注目されるのか
今回の発表が注目される理由は、オープンモデルでありながら、実務的なコーディング支援ユースケースをかなり強く意識しているためです。記事では、Qwen Studioでの利用に加え、Hugging FaceやModelScopeでの重み公開、Model Studio APIでの提供が案内されています。さらに、OpenAI仕様互換APIやAnthropic互換APIに対応し、OpenClaw、Qwen Code、Claude Codeとの接続例まで示されています。つまり、研究用途だけでなく、既存開発フローへの組み込みまで見据えた公開だといえます。
まとめ
Qwen3.6-35B-A3Bは、効率の高いMoE構成を採用しつつ、agentic codingとマルチモーダル性能の両立を狙ったオープンソースモデルです。Alibabaはこれを「高性能で実用的な開発支援モデル」として打ち出しており、API互換性や各種ツール連携も含め、開発現場で試しやすい形に整えています。今後、外部ベンチマークや実運用での評価がどこまで追随するかが、次の注目点になりそうです。
出典: Alibaba Cloud Community
元記事: https://www.alibabacloud.com/blog/qwen3-6-35b-a3b-agentic-coding-power-now-open-to-all_603043
2026年4月20日 1:10 AM カテゴリー: AI, オープンソースモデル