Skip to content

はじめてのOllama

ローカルLLM実行ツールOllamaを使います。

手順

https://docs.ollama.com/quickstart

  • Ollamaをインストールします:
curl -fsSL https://ollama.com/install.sh | sh
  • Ollamaを開始します:
# 外部からのアクセスを許可する際はOLLAMA_HOSTなどの環境変数を設定してください。
ollama serve > ollama.log 2>&1 &
  • モデルをpullします:
ollama pull llama3
  • 対話モードを開始します:
ollama run llama3

Claude Codeを使う

cf. https://docs.ollama.com/integrations/claude-code