Gemma4 31bの方が少しリードしていると思うと話しました。Qwen 3.5 27bは、以前は王者だったGPT-OSS-120Bとglm 4.6vを上回っています。 ローカルLLMがコーディングに適さなくなる閾値はど… 続きを読む »
投稿者「qqjjmas01」のアーカイブ
64GBの統合メモリなんて忘れてください。RTX 6000 Pro 96GBでも最先端モデルのAPIには到底及びません。でも、でも、でも、今日gemma4 Q8を試してみたら、本当に素晴らしいです。いくつかのエージェント… 続きを読む »
AIが登場する以前と同じように、計画とアーキテクチャ設計は続けるべきです。私は何時間もかけて計画を立てますが、ローカルAIはタスクに応じて10~30分でそれをコーディングします。その後、レビューと反復を繰り返します。コン… 続きを読む »
Qwen 3.5 27bとgemma4 31bは、通常のコンシューマー向けハードウェアに適合し、機能的に優れたコードを書くことができる新製品です。歴史的にこのサイズのモデルはコーディング能力が優れていませんでしたが、イン… 続きを読む »
一般ユーザーのハードウェアに適合するローカルモデルは、現在のクラウドホスト型SOTAモデルと同等の性能を発揮しません(定義上当然のことですが)。しかし、64GBの統合メモリシステムなど、一般ユーザー向けのハードウェアであ… 続きを読む »
コンシューマー向けハードウェアでしか動作しないローカルLLMは、どれも適切なコーディングを行う能力を備えていません。 現時点では、64GBのVRAMを搭載したローカルモデルをClaudeやCodexと組み合わせることは不… 続きを読む »
18コアGPU、64GB RAM搭載のMBP上で、27/40ビット最適化されたqwen3.5 llmを搭載したopenclaudeをローカルで使用し、ファンをフル回転させてGPU使用率を最大まで上げて数時間マシンを酷使し… 続きを読む »
Qwen 3.5 122bは、コーディングとツール呼び出しの両方において非常に優れています。 NVIDIA-Nemotron-3-Super-120B-A12Bもチェックしてみるといいかもしれません。同じクラスの製品です… 続きを読む »
開発対象のプラットフォームや言語をしっかり理解していれば、120Bのローカルモデルでも十分なコーディングアシスタントとして活用できると思います。私は現在、Qwen3.5 122b a10bのQ4_K_XLクオンツを使用し… 続きを読む »
3.5 122B-a10b モデル、またはそれに近いクラスを実行できるようになったとき、私のアプリケーションは、本当に驚くほど高性能になりました。(すべてのモデルを小さいサイズで試しました。)より大きなモデルクラスに到達… 続きを読む »