banner
hughie

hughie

热爱技术的小菜鸟, 记录一下所学所感

SALT-基於SAM的通用標註工具

前言#

本文簡單記錄介紹一下 SALT 的使用情況。

SALT 是基於 Meta 最近發布的 Segment-Anything 模型來標記圖像並以 COCO 格式保存標註數據的通用標註工具。


正文#

一、SALT 介紹#

SALT 基於Segment-Anything模型實現標記圖像並以 COCO 格式保存標註數據,得益於 SAM 的強大分割能力,可以幫助標註者更輕鬆精確的標註想要的任何實體。

二、SALT 安裝#

  • 安裝 sam (環境要求 python>=3.8, pytorch>=1.7 以及torchvision>=0.8)
git clone https://github.com/facebookresearch/segment-anything.git
cd segment-anything && pip install -e .

安裝好後,下載默認模型參數:vit-h,放置到自定義位置。

  • 安裝 salt
git clone https://github.com/anuragxel/salt.git
cd salt
  • 轉換數據集

準備好待標註的數據集dataset,將圖片放入dataset/images,並新建文件夾dataset/embeddings

運行命令:

python helpers/extract_embeddings.py --checkpoint-path “自定義的sam模型參數文件路徑” --dataset-path “待標註的數據集路徑”
  • 轉換模型

運行命令:

python helpers/generate_onnx.py --checkpoint-path “自定義的sam模型參數文件路徑” --onnx-models-path “自定義轉換的onnx模型文件路徑”  --dataset-path “待標註的數據集路徑”
  • 開始標註
python segment_anything_annotator.py --onnx-models-path “自定義轉換的onnx模型文件路徑” --dataset-path “待標註的數據集路徑” --categories “需要標註的對象列表,比如cat,dog” 

三、SALT 使用#

標註家具
8-salt1

標註人物

8-salt2

8-salt3

四、總結#

安裝使用上沒有難度,需要本地有塊 6G 以上顯存的顯卡。

標註效果比手動標註更精確更快速,可以實現點擊標註,框選標註等。

題外話:Meta 發布了相當多有價值的項目,包括 SAM,DINOv2 和 "洩露" 的 LLaMa 語言模型等等,還有深度學習研究必備的 Pytorch。


最後#

參考文章:

官方項目

Segment-Anything 通用分割模型


聲明#

本文僅作為個人學習記錄。

本文與hblog保持同步。

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。