banner
hughie

hughie

热爱技术的小菜鸟, 记录一下所学所感

SALT- SAMに基づく汎用タグ付けツール

前言#

​ 本文简单记录介绍一下 SALT 的使用情况。

​ SALT 是基于 Meta 最近发布的 Segment-Anything 模型来标记图像并以 COCO 格式保存标注数据的通用标注工具。


正文#

一、SALT 介绍#

SALT 基于Segment-Anything模型实现标记图像并以 COCO 格式保存标注数据,得益于 SAM 的强大分割能力,可以帮助标注者更轻松精确的标注想要的任何实体。

二、SALT 安装#

  • 安装 sam (环境要求 python>=3.8, pytorch>=1.7 以及torchvision>=0.8)
git clone https://github.com/facebookresearch/segment-anything.git
cd segment-anything && pip install -e .

安装好后,下载默认模型参数:vit-h,放置到自定义位置。

  • 安装 salt
git clone https://github.com/anuragxel/salt.git
cd salt
  • 转换数据集

准备好待标注的数据集dataset,将图片放入dataset/images,并新建文件夹dataset/embeddings

运行命令:

python helpers/extract_embeddings.py --checkpoint-path “自定义的sam模型参数文件路径” --dataset-path “待标注的数据集路径”
  • 转换模型

运行命令:

python helpers/generate_onnx.py --checkpoint-path “自定义的sam模型参数文件路径” --onnx-models-path “自定义转换的onnx模型文件路径”  --dataset-path “待标注的数据集路径”
  • 开始标注
python segment_anything_annotator.py --onnx-models-path “自定义转换的onnx模型文件路径” --dataset-path “待标注的数据集路径” --categories “需要标注的对象列表,比如cat,dog” 

三、SALT 使用#

标注家具
8-salt1

标注人物

8-salt2

8-salt3

四、总结#

安装使用上没有难度,需要本地有块 6G 以上显存的显卡。

标注效果比手动标注更精确更快速,可以实现点击标注,框选标注等。

题外话:Meta 发布了相当多有价值的项目,包括 SAM,DINOv2 和 "泄露" 的 LLaMa 语言模型等等,还有深度学习研究必备的 Pytorch。


最后#

参考文章:

官方项目

Segment-Anything 通用分割模型


声明#

本文仅作为个人学习记录。

本文与hblog保持同步。

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。