- Published on
「Grounded-Segment-Anything」のインストール・使い方
1918文字4分で読めます–––
閲覧数
- Authors
- Name
- 章 有坂
- short bio
- オープンソースソフトウェアのトレンドを追いかけてます。
Grounded-Segment-Anythingは、テキスト入力を使用して任意の物体を検出し、セグメント化するためのオープンソースプロジェクトです。このプロジェクトは、異なるモデルの強みを組み合わせて、複雑な問題を解決するための強力なパイプラインを構築することを目指しています。また、各部分は別々に使用したり、組み合わせて使用したりすることができ、異なる同等でしょうが異なるモデル(例えば、Grounding DINOをGLIPや他の検出器に置き換えたり、Stable-DiffusionをControlNetやGLIGENに置き換えたり、ChatGPTと組み合わせたりする)に置き換えることができますSource 0。
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。
インストール・導入方法
プロジェクトを実行するためのインストール手順は以下の通りです:
- 必要なモデルチェックポイントをダウンロードします:
cd Grounded-Segment-Anything
wget https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth
grounded_sam_demo.py
を実行します:
export CUDA_VISIBLE_DEVICES=0
python grounded_sam_demo.py \
--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \
--grounded_checkpoint groundingdino_swint_ogc.pth \
--sam_checkpoint sam_vit_h_4b8939.pth \
--input_image assets/demo1.jpg \
--output_dir "outputs" \
--box_threshold 0.3 \
--text_threshold 0.25 \
--text_prompt "bear" \
--device "cuda"
上記のコマンドは、assets/demo1.jpg
という名前の入力画像を使用して、"bear"
というテキストプロンプトでGrounded-SAMを実行します。結果は./outputs
ディレクトリに保存されますSource 0。
使い方
このプロジェクトは、テキストプロンプトを使用して画像から特定の物体を検出し、セグメント化することを目的としています。以下に、その使用例を示します:
- 必要なモデルチェックポイントをダウンロードします:
cd Grounded-Segment-Anything
wget https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth
grounded_sam_demo.py
を実行します:
export CUDA_VISIBLE_DEVICES=0
python grounded_sam_demo.py \
--config GroundingDINO/groundingdino/config/GroundingDINO_SwinT_OGC.py \
--grounded_checkpoint groundingdino_swint_ogc.pth \
--sam_checkpoint sam_vit_h_4b8939.pth \
--input_image assets/demo1.jpg \
--output_dir "outputs" \
※ NordVPNにこちらから新規登録すると、最大73%オフの割引になります。