「Google効果」によって、人々がオンラインで情報が常にアクセス可能であると期待すると、情報そのものを記憶する可能性は低くなり、情報を見つける場所を記憶する可能性が高くなることが示された後、私たちは記憶を検索エンジンに… 続きを読む »
「引用ジャングル」カテゴリーアーカイブ
Gemma 4は2026年4月2日にリリースされました。そして、Hugging FaceのCTOであるジュリアン・ショーモンド氏は、文字通りの炎の絵文字を添えて「速報」と投稿しました。地球上のあらゆるオープンモデルをホス… 続きを読む »
Visual Studio CodeはOllamaと直接統合されたため、コードをクラウドに送信することなく、エディタ内でローカルにAIを実行できます。 Visual Studio Code では、 Copilot Cha… 続きを読む »
「数字は気にしたことない。結局は他人軸で、自分でどうにもできない」 「継続は自分軸でできる。メンタルの強さは自分軸が大事です」 藤本美貴「メンタルの強さは自分軸が大事」 「令和のご意見番」への転機は“配信活動”(スポニチ… 続きを読む »
システムプロンプトは「あなたはクロードです…」で始まるため、ローカルモデルは自分がクロードだと認識します。 Ollamaでローカルに実行されるClaude Code: r/LocalLLM
クロードコードはクロードとは別のものです。クロードコード自体はモデルにコンテキストを提供し、そのコンテキストはおそらく「あなたはクロードコードです」といった内容です。したがって、qwenをクロードコードでラップすると、そ… 続きを読む »
「Gemma 4のコーディングベンチマークは、かろうじて機能するレベル(Codeforces ELO 110)から、競技プログラマーのエキスパートレベル(ELO 2150)へと飛躍的に向上しました。LiveCodeBen… 続きを読む »
Gemma4 31bの方が少しリードしていると思うと話しました。Qwen 3.5 27bは、以前は王者だったGPT-OSS-120Bとglm 4.6vを上回っています。 ローカルLLMがコーディングに適さなくなる閾値はど… 続きを読む »
64GBの統合メモリなんて忘れてください。RTX 6000 Pro 96GBでも最先端モデルのAPIには到底及びません。でも、でも、でも、今日gemma4 Q8を試してみたら、本当に素晴らしいです。いくつかのエージェント… 続きを読む »
AIが登場する以前と同じように、計画とアーキテクチャ設計は続けるべきです。私は何時間もかけて計画を立てますが、ローカルAIはタスクに応じて10~30分でそれをコーディングします。その後、レビューと反復を繰り返します。コン… 続きを読む »