投稿者: | 2026年4月6日

Ollamaを使ってClaude Codeを無料で実行する
0ドル。永久に。

すべてはあなたのマシン上でローカルに実行されます。APIキーは不要、サブスクリプションも不要、使用量制限もありません。

ollama.comにアクセスしてインストーラーをダウンロードしてください。Mac、Windows、Linuxのいずれでも約30秒で完了します。

ターミナルを開いて、以下を実行してください。

ollama pull qwen3-coder

これは、128Kのコンテキストウィンドウを持つ30Bのパラメータモデルを取得します。現時点では、コーディング作業において最も強力な無料オプションです。

お使いの機器に適合するモデルはどれですか?

– 16GB以上のRAM :qwen3-coderが最適です

– 8~16GB RAM :devstral-2-small(24B)を使用すれば十分です。

– 8GB以下:granite3.3:8b(8B)は動作しますが、違いを感じるでしょう

Apple Silicon搭載モデルであれば、統合メモリアーキテクチャにより、24B以上のモデルも難なく処理できます。

ollama serve

これをターミナルタブで実行したままにしておいてください。

起動前に2つの環境変数を設定してください。

export ANTHROPIC_BASE_URL=http://localhost:11434/v1

export ANTHROPIC_MODEL=qwen3-coder

それから、claudeを普段通りに走らせてください。

Anthropicのサーバーにアクセスする代わりに、ローカルモデルと通信します。

これらのオープンソースモデルは、執筆、調査、要約、およびより簡単な作業には十分適しています。

しかし、本格的な技術作業となると…私はやりません。モデルからファイルを編集したと言われたことがありますが、実際には何も変更されていませんでした。

また、ウェブ検索機能は失われます(BraveやTavily MCPサーバーを使用すれば再び利用できます)。プロンプトのキャッシュ機能がないため、ターンごとにコンテキスト全体が再処理されます。これらのモデルとOpusの性能差は、難しい問題では非常に顕著です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です