Ollamaを使ってClaude Codeを無料で実行する
0ドル。永久に。すべてはあなたのマシン上でローカルに実行されます。APIキーは不要、サブスクリプションも不要、使用量制限もありません。
ollama.comにアクセスしてインストーラーをダウンロードしてください。Mac、Windows、Linuxのいずれでも約30秒で完了します。
ターミナルを開いて、以下を実行してください。
ollama pull qwen3-coder
これは、128Kのコンテキストウィンドウを持つ30Bのパラメータモデルを取得します。現時点では、コーディング作業において最も強力な無料オプションです。
お使いの機器に適合するモデルはどれですか?
– 16GB以上のRAM :qwen3-coderが最適です
– 8~16GB RAM :devstral-2-small(24B)を使用すれば十分です。
– 8GB以下:granite3.3:8b(8B)は動作しますが、違いを感じるでしょう
Apple Silicon搭載モデルであれば、統合メモリアーキテクチャにより、24B以上のモデルも難なく処理できます。
ollama serve
これをターミナルタブで実行したままにしておいてください。
起動前に2つの環境変数を設定してください。
export ANTHROPIC_BASE_URL=http://localhost:11434/v1
export ANTHROPIC_MODEL=qwen3-coder
それから、claudeを普段通りに走らせてください。
Anthropicのサーバーにアクセスする代わりに、ローカルモデルと通信します。
これらのオープンソースモデルは、執筆、調査、要約、およびより簡単な作業には十分適しています。
しかし、本格的な技術作業となると…私はやりません。モデルからファイルを編集したと言われたことがありますが、実際には何も変更されていませんでした。
また、ウェブ検索機能は失われます(BraveやTavily MCPサーバーを使用すれば再び利用できます)。プロンプトのキャッシュ機能がないため、ターンごとにコンテキスト全体が再処理されます。これらのモデルとOpusの性能差は、難しい問題では非常に顕著です。