引用ジャングル」カテゴリーアーカイブ

Qwen 3.5 27bとgemma4 31bは、通常のコンシューマー向けハードウェアに適合し、機能的に優れたコードを書くことができる新製品です。歴史的にこのサイズのモデルはコーディング能力が優れていませんでしたが、イン… 続きを読む »

一般ユーザーのハードウェアに適合するローカルモデルは、現在のクラウドホスト型SOTAモデルと同等の性能を発揮しません(定義上当然のことですが)。しかし、64GBの統合メモリシステムなど、一般ユーザー向けのハードウェアであ… 続きを読む »

コンシューマー向けハードウェアでしか動作しないローカルLLMは、どれも適切なコーディングを行う能力を備えていません。 現時点では、64GBのVRAMを搭載したローカルモデルをClaudeやCodexと組み合わせることは不… 続きを読む »

18コアGPU、64GB RAM搭載のMBP上で、27/40ビット最適化されたqwen3.5 llmを搭載したopenclaudeをローカルで使用し、ファンをフル回転させてGPU使用率を最大まで上げて数時間マシンを酷使し… 続きを読む »

Qwen 3.5 122bは、コーディングとツール呼び出しの両方において非常に優れています。 NVIDIA-Nemotron-3-Super-120B-A12Bもチェックしてみるといいかもしれません。同じクラスの製品です… 続きを読む »

開発対象のプラットフォームや言語をしっかり理解していれば、120Bのローカルモデルでも十分なコーディングアシスタントとして活用できると思います。私は現在、Qwen3.5 122b a10bのQ4_K_XLクオンツを使用し… 続きを読む »

3.5 122B-a10b モデル、またはそれに近いクラスを実行できるようになったとき、私のアプリケーションは、本当に驚くほど高性能になりました。(すべてのモデルを小さいサイズで試しました。)より大きなモデルクラスに到達… 続きを読む »

7bモデルは、単一ファイルに限定された、完全に仕様が明確なタスクを処理できます。 13bモデルは、2~3個のファイル(CLI、OpenAPI仕様、ログファイルなど)間の関連性を関連付けることができ、ほとんどの場合、整形式… 続きを読む »

Googleが新しいオープンソースモデルファミリー「Gemma 4」をリリースしました。 これら4つのモデルは、思考能力とマルチモーダルな機能を備えています。小型モデルはE2BとE4Bの2つ、大型モデルは26B-A4Bと… 続きを読む »

ローカルLLMの一般的な欠点は速度で、クロードや他のAIに比べて応答がかなり遅いことです。探索段階であれば問題ないかもしれませんが、動作が遅いことは覚悟しておいてください。 もう一つの問題は、コンテキストウィンドウのサイ… 続きを読む »