/a/オープンソース
Published on

「Ollama」のインストール・使い方

1488文字3分で読めます–––
閲覧数
Authors
  • avatar
    Name
    章 有坂
    short bio
    オープンソースソフトウェアのトレンドを追いかけてます。

Ollamaは、大規模な言語モデル(LLaMA 2やMistralなど)をローカルマシン上で利用するためのライトウェイトで拡張可能なフレームワークです。Ollamaは、モデルの作成、実行、管理のためのシンプルなAPIを提供し、さまざまなアプリケーションで簡単に使用できる事前構築されたモデルのライブラリも提供しています(参考)

※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。

インストール・導入方法

OllamaはWindows(WSL2経由)、Linux、およびDockerで利用できます。

  • Windows: 現在、WindowsではWSL2を通じてOllamaをインストールできます。
  • Linux & WSL2: LinuxまたはWSL2でOllamaをインストールするには、以下のコマンドを実行します:
curl https://ollama.ai/install.sh | sh
  • Docker: Dockerを使用してOllamaをインストールするには、公式のOllama DockerイメージをDocker Hubから取得します。

使い方

Ollamaは多くの機能を提供しています。以下にいくつかの主要なコマンドとその使用例を示します:

  • モデルの実行: ollama run llama2 を実行してLlama 2モデルを起動します。
  • モデルのインポート: モデルをインポートするには、Modelfileという名前のファイルを作成し、その中にFROM命令とインポートしたいモデルへのローカルパスを記述します。その後、ollama create example -f Modelfileollama run example を実行します。
  • プロンプトのカスタマイズ: Ollamaライブラリのモデルは、プロンプトでカスタマイズできます。例えば、llama2モデルをカスタマイズするには、ollama pull llama2を実行してモデルを取得し、その後、プロンプトのテンパレチャーやシステムメッセージを設定します。
  • モデルの作成: ollama create mymodel -f ./Modelfile を実行して新しいモデルを作成します。
  • モデルの削除: ollama rm llama2 を実行してモデルを削除します。
  • モデルのコピー: ollama cp llama2 my-llama2 を実行してモデルをコピーします。
  • マルチライン入力: マルチラインの入力を提供するには、ollama run llama2 を実行してモデルを起動し、その後、複数行のテキストを入力します。
  • マルチモーダルモデル: 画像を含むテキストを提供するには、ollama run llama2 を実行してモデルを起動し、その後、画像のパスを含むテキストを入力します。
  • 引数としてプロンプトを渡す: ollama run llama2 "Summarize this file: $(cat README.md)" を実行して、ファイルの要約を求めるプロンプトを引数として渡します。

これらは一部の例であり、Ollamaの全ての機能を網羅しているわけではありません。詳細な情報や他の使用例については、Ollamaの公式ドキュメントを参照してください。

※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。
avatar

章 有坂

オープンソースソフトウェアのプロ / ベテランのソフトウェア技術者 / Github専門家
オープンソースソフトウェアが好きな編集部が、GithubやGitlabなどの新着リポジトリやトレンドのプロジェクトを分かりやすく紹介。