- Published on
「vllm」のインストール・使い方
667文字2分で読めます–––
閲覧数
- Authors
- Name
- 章 有坂
- short bio
- オープンソースソフトウェアのトレンドを追いかけてます。
vllmは、大規模言語モデル(LLM)の推論とサービングに対する高速で使いやすいライブラリです。このプロジェクトは、注意力のキーと値メモリの効率的な管理を可能にするPagedAttentionと、並列サンプリング、ビームサーチなどの様々なデコーディングアルゴリズムを使用した高スループットのサービングを提供します。vLLMは、Hugging Faceの多くのモデルをシームレスにサポートしており、Aquila & Aquila2、LLaMA & LLaMA-2などのアーキテクチャを含みますSource 0。
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。
インストール・導入方法
vLLMはPythonパッケージとして提供されており、PyPIから簡単にインストールできます。以下のコマンドを実行してインストールできます:
pip install vllm
使い方
vLLMの具体的な使用方法は公式ドキュメントに記述されていますが、一般的な使用方法は以下の通りです:
- 必要なモデルをダウンロードします。
- モデルをロードし、必要な設定を行います。
- テキストの入力をモデルに渡し、出力を取得します。
具体的なコード例や使用例は、プロジェクトのGitHubページや公式ドキュメントを参照してくださいSource 0。
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。