「AI/ClaudeCode/実行環境構築」の版間の差分
提供: 初心者エンジニアの簡易メモ
(ページの作成:「==環境について== 5種類ぐらいある *Anthropic公式API(標準) *Ollama *OpenAI互換API *Docker環境 *CI / GitHub Actions ===Anthropic公式API(標準...」) |
(→環境について) |
||
| 行32: | 行32: | ||
claude --model my-model | claude --model my-model | ||
| + | </pre> | ||
| + | |||
| + | ==vscodeからclaudecode実行== | ||
| + | vscodeで、terminalを開いて、ollamaであれば、 | ||
| + | 以下をコードを実行する。 | ||
| + | <pre> | ||
| + | export ANTHROPIC_BASE_URL=http://localhost:11434 | ||
| + | export ANTHROPIC_AUTH_TOKEN=ollama | ||
| + | |||
| + | claude --model gpt-oss:120b | ||
</pre> | </pre> | ||
2026年3月9日 (月) 07:17時点における版
環境について
5種類ぐらいある
- Anthropic公式API(標準)
- Ollama
- OpenAI互換API
- Docker環境
- CI / GitHub Actions
Anthropic公式API(標準)
一番普通の使い方です。
export ANTHROPIC_API_KEY=sk-xxxxx claude
Ollama
ローカルLLMを Anthropic互換APIとして使う方法。
export ANTHROPIC_BASE_URL=http://localhost:11434 export ANTHROPIC_AUTH_TOKEN=ollama claude --model gpt-oss:120b
OpenAI互換API
Claude Codeは OpenAI互換サーバーでも動きます。
LM Studioなど
export ANTHROPIC_BASE_URL=http://localhost:8000 export ANTHROPIC_AUTH_TOKEN=dummy claude --model my-model
vscodeからclaudecode実行
vscodeで、terminalを開いて、ollamaであれば、 以下をコードを実行する。
export ANTHROPIC_BASE_URL=http://localhost:11434 export ANTHROPIC_AUTH_TOKEN=ollama claude --model gpt-oss:120b
