投稿者「qqjjmas01」のアーカイブ

7bモデルは、単一ファイルに限定された、完全に仕様が明確なタスクを処理できます。 13bモデルは、2~3個のファイル(CLI、OpenAPI仕様、ログファイルなど)間の関連性を関連付けることができ、ほとんどの場合、整形式… 続きを読む »

Googleが新しいオープンソースモデルファミリー「Gemma 4」をリリースしました。 これら4つのモデルは、思考能力とマルチモーダルな機能を備えています。小型モデルはE2BとE4Bの2つ、大型モデルは26B-A4Bと… 続きを読む »

ローカルLLMの一般的な欠点は速度で、クロードや他のAIに比べて応答がかなり遅いことです。探索段階であれば問題ないかもしれませんが、動作が遅いことは覚悟しておいてください。 もう一つの問題は、コンテキストウィンドウのサイ… 続きを読む »

私は128GBのRAMを搭載したM5 Max Macbook Proを使用していますが、本格的な作業にはやはりクラウドモデルを好んで使います。Qwen3.5は私のマシンでも十分動作しますが、80tpsでもクラウド最先端モ… 続きを読む »

(AIのプロに聞く「ローカルでAI動かすのに、必要なスペックって?」 | ギズモード・ジャパンから)

30万円を切る価格で32GBという大容量VRAMが使えるプロフェッショナル向けGPUです。ライバルたちはVRAM容量1GBあたりの価格が1万円を軽く超えていくのに対して、Radeon™ AI PRO R97… 続きを読む »

うんざりするような過程を経て婚姻関係を正式に解消するよりも、心のなかだけで相手に見切りをつける「静かな離婚」が増加しているという。また、恋人やパートナーがいても、他のパートナーとオープンに関係を持つ「エシカル・ノン・モノ… 続きを読む »

8.2Bパラメータのモデルが、たった1.1GBに収まっている。FP16なら16GBになるところです。93%の圧縮率。しかもベンチマークではLlama 3.1 8B(FP16で16GB)を上回り、Mistral 3 8Bに… 続きを読む »

米Anthropicの解釈可能性(Interpretability)チームは、言語モデルの内部構造を解析し、AI内部に「喜び」「怒り」「絶望」など171種類の感情概念に対応する神経活性パターンが存在することを確認した。同… 続きを読む »

ワークフローで70B以上のモデルに対する完全量子化推論、複数のモデルの同時実行、またはRAGと大きなコンテキストウィンドウの組み合わせを行う場合は、128GBが真価を発揮します。主に7B~13Bのモデルを実行する場合は、… 続きを読む »