前言#
本文简单记录介绍一下 SALT 的使用情况。
SALT 是基于 Meta 最近发布的 Segment-Anything 模型来标记图像并以 COCO 格式保存标注数据的通用标注工具。
正文#
一、SALT 介绍#
SALT 基于Segment-Anything模型实现标记图像并以 COCO 格式保存标注数据,得益于 SAM 的强大分割能力,可以帮助标注者更轻松精确的标注想要的任何实体。
二、SALT 安装#
- 安装 sam (环境要求
python>=3.8
,pytorch>=1.7
以及torchvision>=0.8
)
git clone https://github.com/facebookresearch/segment-anything.git
cd segment-anything && pip install -e .
安装好后,下载默认模型参数:vit-h,放置到自定义位置。
- 安装 salt
git clone https://github.com/anuragxel/salt.git
cd salt
- 转换数据集
准备好待标注的数据集dataset
,将图片放入dataset/images
,并新建文件夹dataset/embeddings
;
运行命令:
python helpers/extract_embeddings.py --checkpoint-path “自定义的sam模型参数文件路径” --dataset-path “待标注的数据集路径”
- 转换模型
运行命令:
python helpers/generate_onnx.py --checkpoint-path “自定义的sam模型参数文件路径” --onnx-models-path “自定义转换的onnx模型文件路径” --dataset-path “待标注的数据集路径”
- 开始标注
python segment_anything_annotator.py --onnx-models-path “自定义转换的onnx模型文件路径” --dataset-path “待标注的数据集路径” --categories “需要标注的对象列表,比如cat,dog”
三、SALT 使用#
标注家具
标注人物
四、总结#
安装使用上没有难度,需要本地有块 6G 以上显存的显卡。
标注效果比手动标注更精确更快速,可以实现点击标注,框选标注等。
题外话:Meta 发布了相当多有价值的项目,包括 SAM,DINOv2 和 "泄露" 的 LLaMa 语言模型等等,还有深度学习研究必备的 Pytorch。
最后#
参考文章:
声明#
本文仅作为个人学习记录。
本文与hblog保持同步。