Skip to content

はじめてのOllama

ローカルLLM実行ツールOllamaを使います。

手順

https://docs.ollama.com/quickstart

  • Ollamaをインストールします:
curl -fsSL https://ollama.com/install.sh | sh
  • Ollamaを開始します:
ollama serve > ollama.log 2>&1 &
  • モデルをpullします:
ollama pull llama3
  • 対話モードを開始します:
ollama run llama3