投稿者: | 2026年4月19日

Ollamaを使えば、ローカルのオープンソースモデルを使ってClaude Codeを無料で実行できます。

Ollamaをインストールし、qwen3-coderやgpt-oss:20bなどのモデルを取得し、Claude Codeをローカルエンドポイントに向けます。

API利用料やデータ送信は一切不要です。

快適に使用するには、最低でも32GBのRAMが必要です。出力品質は、クロード氏自身のモデルと比べて明らかに劣ります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です