はじめてのOllama
ローカルLLM実行ツールOllamaを使います。
手順
https://docs.ollama.com/quickstart
- Ollamaをインストールします:
curl -fsSL https://ollama.com/install.sh | sh
- Ollamaを開始します:
ollama serve > ollama.log 2>&1 &
- モデルをpullします:
ollama pull llama3
- 対話モードを開始します:
ollama run llama3