/a/オープンソース
Published on

「vllm」のインストール・使い方

667文字2分で読めます–––
閲覧数
Authors
  • avatar
    Name
    章 有坂
    short bio
    オープンソースソフトウェアのトレンドを追いかけてます。

vllmは、大規模言語モデル(LLM)の推論とサービングに対する高速で使いやすいライブラリです。このプロジェクトは、注意力のキーと値メモリの効率的な管理を可能にするPagedAttentionと、並列サンプリング、ビームサーチなどの様々なデコーディングアルゴリズムを使用した高スループットのサービングを提供します。vLLMは、Hugging Faceの多くのモデルをシームレスにサポートしており、Aquila & Aquila2、LLaMA & LLaMA-2などのアーキテクチャを含みますSource 0

※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。

インストール・導入方法

vLLMはPythonパッケージとして提供されており、PyPIから簡単にインストールできます。以下のコマンドを実行してインストールできます:

pip install vllm

使い方

vLLMの具体的な使用方法は公式ドキュメントに記述されていますが、一般的な使用方法は以下の通りです:

  1. 必要なモデルをダウンロードします。
  2. モデルをロードし、必要な設定を行います。
  3. テキストの入力をモデルに渡し、出力を取得します。

具体的なコード例や使用例は、プロジェクトのGitHubページや公式ドキュメントを参照してくださいSource 0

※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。
avatar

章 有坂

オープンソースソフトウェアのプロ / ベテランのソフトウェア技術者 / Github専門家
オープンソースソフトウェアが好きな編集部が、GithubやGitlabなどの新着リポジトリやトレンドのプロジェクトを分かりやすく紹介。