引用ジャングル」カテゴリーアーカイブ

私は128GBのRAMを搭載したM5 Max Macbook Proを使用していますが、本格的な作業にはやはりクラウドモデルを好んで使います。Qwen3.5は私のマシンでも十分動作しますが、80tpsでもクラウド最先端モ… 続きを読む »

(AIのプロに聞く「ローカルでAI動かすのに、必要なスペックって?」 | ギズモード・ジャパンから)

30万円を切る価格で32GBという大容量VRAMが使えるプロフェッショナル向けGPUです。ライバルたちはVRAM容量1GBあたりの価格が1万円を軽く超えていくのに対して、Radeon™ AI PRO R97… 続きを読む »

うんざりするような過程を経て婚姻関係を正式に解消するよりも、心のなかだけで相手に見切りをつける「静かな離婚」が増加しているという。また、恋人やパートナーがいても、他のパートナーとオープンに関係を持つ「エシカル・ノン・モノ… 続きを読む »

8.2Bパラメータのモデルが、たった1.1GBに収まっている。FP16なら16GBになるところです。93%の圧縮率。しかもベンチマークではLlama 3.1 8B(FP16で16GB)を上回り、Mistral 3 8Bに… 続きを読む »

米Anthropicの解釈可能性(Interpretability)チームは、言語モデルの内部構造を解析し、AI内部に「喜び」「怒り」「絶望」など171種類の感情概念に対応する神経活性パターンが存在することを確認した。同… 続きを読む »

ワークフローで70B以上のモデルに対する完全量子化推論、複数のモデルの同時実行、またはRAGと大きなコンテキストウィンドウの組み合わせを行う場合は、128GBが真価を発揮します。主に7B~13Bのモデルを実行する場合は、… 続きを読む »

7GBから13GBモデルを毎日、設定不要で使いたいなら、最低でも24GBのMac Mini M4 Proを購入しましょう。16GB版でも動作しますが、数ヶ月で容量不足に陥ります。予算に余裕があれば、64GB構成が最も長期… 続きを読む »

Mac Mini M4は、高負荷のLLM推論時でもほとんど音が聞こえません。一方、ほとんどのAMD製ミニPCは、CPUとiGPUにフル負荷がかかると、小型のヘアドライヤーのような音がします。 ローカルAI向けMac Mi… 続きを読む »

MS-S1 Maxは、70BモデルをQ4量子化でメモリに保持しても、OSやその他のタスクのためのバッファが残ります。TechRadarの2026年3月のレビューでは、「これまでテストした中で最高のAI向けミニワークステー… 続きを読む »