- Published on
「Ollama」のインストール・使い方
1488文字3分で読めます–––
閲覧数
- Authors
- Name
- 章 有坂
- short bio
- オープンソースソフトウェアのトレンドを追いかけてます。
Ollamaは、大規模な言語モデル(LLaMA 2やMistralなど)をローカルマシン上で利用するためのライトウェイトで拡張可能なフレームワークです。Ollamaは、モデルの作成、実行、管理のためのシンプルなAPIを提供し、さまざまなアプリケーションで簡単に使用できる事前構築されたモデルのライブラリも提供しています(参考)。
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。
インストール・導入方法
OllamaはWindows(WSL2経由)、Linux、およびDockerで利用できます。
- Windows: 現在、WindowsではWSL2を通じてOllamaをインストールできます。
- Linux & WSL2: LinuxまたはWSL2でOllamaをインストールするには、以下のコマンドを実行します:
curl https://ollama.ai/install.sh | sh
- Docker: Dockerを使用してOllamaをインストールするには、公式のOllama DockerイメージをDocker Hubから取得します。
使い方
Ollamaは多くの機能を提供しています。以下にいくつかの主要なコマンドとその使用例を示します:
- モデルの実行:
ollama run llama2
を実行してLlama 2モデルを起動します。 - モデルのインポート: モデルをインポートするには、
Modelfile
という名前のファイルを作成し、その中にFROM
命令とインポートしたいモデルへのローカルパスを記述します。その後、ollama create example -f Modelfile
とollama run example
を実行します。 - プロンプトのカスタマイズ: Ollamaライブラリのモデルは、プロンプトでカスタマイズできます。例えば、
llama2
モデルをカスタマイズするには、ollama pull llama2
を実行してモデルを取得し、その後、プロンプトのテンパレチャーやシステムメッセージを設定します。 - モデルの作成:
ollama create mymodel -f ./Modelfile
を実行して新しいモデルを作成します。 - モデルの削除:
ollama rm llama2
を実行してモデルを削除します。 - モデルのコピー:
ollama cp llama2 my-llama2
を実行してモデルをコピーします。 - マルチライン入力: マルチラインの入力を提供するには、
ollama run llama2
を実行してモデルを起動し、その後、複数行のテキストを入力します。 - マルチモーダルモデル: 画像を含むテキストを提供するには、
ollama run llama2
を実行してモデルを起動し、その後、画像のパスを含むテキストを入力します。 - 引数としてプロンプトを渡す:
ollama run llama2 "Summarize this file: $(cat README.md)"
を実行して、ファイルの要約を求めるプロンプトを引数として渡します。
これらは一部の例であり、Ollamaの全ての機能を網羅しているわけではありません。詳細な情報や他の使用例については、Ollamaの公式ドキュメントを参照してください。
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。