Label软件调研和使用
Label软件调研和使用
注释 2D 人体姿势的任务涉及在图像中识别和标记人体上的关键点。
首先进行一个人体数据集格式的调研
有几个人体数据集比如coco17点,coco-wholebody133点,Halpe136点,然后对应每种数据集格式有不同的model权重,和不同的config文件,即用什么估计,估计出来几个点,然后经过我的调研,17个点就足以描述项目了,腰部的旋转就是脖子和腰部的夹角角度嘛,所以我现在要找一个做coco数据集标注的软件,其实市面上大多数还是coco数据集的,然后只不过一开始我觉得骨架不一致给吓倒了。
PoseAnnotation(真难用)
https://github.com/MiraPurkrabek/PoseAnnotator
该工具主要针对 COCO 样式的注释实现,因此需要其文件结构。每个数据集应有 3 个子文件夹 annotations、val2017 和可选的 train2017
但我们为我们的用例创建了一些自定义姿势格式。如果您使用 option --pose-format coco_with_thumbs ,则可以查看此类自定义格式的示例。
1 | # install |
| 快捷键Shortcut | Description |
|---|---|
u |
Next unannotated pose |
m |
Save the current annotation progress and move to the next one |
n |
Save the current annotation progress and move to the previous one |
,/. |
Jump by 10 backward/forward. |
x |
Random annotation. Useful for random quality check. |
v |
Change the visibility of the currently selected keypoint (works only while holding the mouse button) |
d |
Delete the currently selected keypoint (works only while holding the mouse button) |
a |
Add a new kypoint, if any is missing |
z |
Undo the previous step (works only untill save) |
r |
Reset the pose to the original (in the last save) |
g |
Generate a new pose |
l |
Flip L/R of the pose |
o / p |
Zoom the image in and out pose |
q |
Quit the program (with save) |
1 | export annot='cd $pose_annotation_tool && python main.py' |
1 | annot seq1` or `annot seq2 |
human-pose-annotation-tool(针对的是深度图)
trainYOLO(吊你老母,还要收费,我做一个也要收费,妈的)
ViTPose(前任真神)
ClickPose(今世新好,记得切cuda!)
我们提出了第一个神经交互式关键点检测框架 Click-Pose,这是一个端到端基线,重要的是,它显著减轻了域外注释(例如,在 Human-Art 上)中的模型偏差,用于在给定图像的情况下注释多人 2D 关键点。与手动校正的最先进的模型注释 (ViTPose) 相比,所需时间减少了 83%。
工作流程 :🤖模型定位所有关键点 -> 👨 用户纠正几个错误的关键点 -> 🤖 模型优化其他关键点
1 | 先切cuda!!!!!!!!!!! |
- Compiling CUDA operators
1 | cd models/clickpose/ops |
Labelme(全能但是不使用)
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 This is a 部落格 of outbreak_sen!


