banner
hughie

hughie

热爱技术的小菜鸟, 记录一下所学所感

SALT-基于SAM的通用标注工具

前言#

​ 本文简单记录介绍一下 SALT 的使用情况。

​ SALT 是基于 Meta 最近发布的 Segment-Anything 模型来标记图像并以 COCO 格式保存标注数据的通用标注工具。


正文#

一、SALT 介绍#

SALT 基于Segment-Anything模型实现标记图像并以 COCO 格式保存标注数据,得益于 SAM 的强大分割能力,可以帮助标注者更轻松精确的标注想要的任何实体。

二、SALT 安装#

  • 安装 sam (环境要求 python>=3.8, pytorch>=1.7 以及torchvision>=0.8)
git clone https://github.com/facebookresearch/segment-anything.git
cd segment-anything && pip install -e .

安装好后,下载默认模型参数:vit-h,放置到自定义位置。

  • 安装 salt
git clone https://github.com/anuragxel/salt.git
cd salt
  • 转换数据集

准备好待标注的数据集dataset,将图片放入dataset/images,并新建文件夹dataset/embeddings

运行命令:

python helpers/extract_embeddings.py --checkpoint-path “自定义的sam模型参数文件路径” --dataset-path “待标注的数据集路径”
  • 转换模型

运行命令:

python helpers/generate_onnx.py --checkpoint-path “自定义的sam模型参数文件路径” --onnx-models-path “自定义转换的onnx模型文件路径”  --dataset-path “待标注的数据集路径”
  • 开始标注
python segment_anything_annotator.py --onnx-models-path “自定义转换的onnx模型文件路径” --dataset-path “待标注的数据集路径” --categories “需要标注的对象列表,比如cat,dog” 

三、SALT 使用#

标注家具
8-salt1

标注人物

8-salt2

8-salt3

四、总结#

安装使用上没有难度,需要本地有块 6G 以上显存的显卡。

标注效果比手动标注更精确更快速,可以实现点击标注,框选标注等。

题外话:Meta 发布了相当多有价值的项目,包括 SAM,DINOv2 和 "泄露" 的 LLaMa 语言模型等等,还有深度学习研究必备的 Pytorch。


最后#

参考文章:

官方项目

Segment-Anything 通用分割模型


声明#

本文仅作为个人学习记录。

本文与hblog保持同步。

加载中...
此文章数据所有权由区块链加密技术和智能合约保障仅归创作者所有。