博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
DensePose: Dense Human Pose Estimation In The Wild(理解)
阅读量:6705 次
发布时间:2019-06-25

本文共 1135 字,大约阅读时间需要 3 分钟。

0 - 背景

  Facebook AI Research(FAIR)开源了一项将2D的RGB图像的所有人体像素实时映射到3D模型的技术(DensePose)。支持户外和穿着宽松衣服的对象识别,支持多人同时识别,并且实时性良好。

  本研究的目的是通过建立从人体的2D图像到基于表面的3D表征的密集对应(dense correspondence)来进一步推进机器对图像的理解。该任务涉及到其他一些问题,如物体检测、姿态估计、作为特例或前提的部位和实例分割。在图形处理、增强现实或者人机交互等不只需要平面关键特征位置标记的问题中,这一任务的解决将能够实现很多应用,并还能助力实现通用型的基于3D的物体理解。

1 - 贡献

  • 通过收集SMPL模型和COCO数据集中的人体外观之间的密对应对应而为该任务引入第一个人工收集的真实数据集(利用3D表面信息的全新标注流程实现)
  • 通过在任何图像像素对人体表面坐标进行回归,我们使用所得到的数据集训练了可以得到自然环境中密集对应的基于CNN的系统(全卷积网络、mask R-CNN、级联)
  • 我们探索了利用我们构建的真实信息的不同方法,我们使用了在每个训练样本中随机选择的图像像素子集上定义的稀疏监督信号来训练一个教师网络(“teacher”),可以修补图像其余区域的监督信号

       

 

2 - 思路

  采用一种全面的监督学习方法并收集了人体的图像与详细准确的参数表面模型之间的真实对应数据。

2.1 - 标注数据集

  对于一般的姿态识别(骨骼追踪),能够识别出一二十个点便可以构成一个人体姿态,但如果要构造出一个平滑的3D模型,则需要更多的关键点,DensePose需要336个(24个部位,每个部位14个点)。

  同时要求注释者在标记的时候要标出被衣物掩盖住的部位,比如宽松的裙子。

            

  上述工作进行之后,研究人员对每一个展开部位区域进行采样,会获得6个不同视角的标记图,提供二维坐标图使标记者更直观的判断哪个标记是正确的。

       

  最后将平面重新组合成3D模型,进行最后一步校准。这样下来,可以以高效准确的方式获得准确标记的数据集。各部位错误率如下,可以看到在躯干、背部和臀部存在较大误差。

        

2.2 - 模型

2.2.1 - Fully-convolutional dense pose regression

2.2.2 - Region-based Dense Pose Regression

        

        

2.3 - 效果

3 - 参考资料

 

转载于:https://www.cnblogs.com/CZiFan/p/9886258.html

你可能感兴趣的文章
Android学习笔记(四十):Preference的使用
查看>>
postgresql 修改字段名称
查看>>
c语言中的位移位操作
查看>>
atitit.为什么 java开发要比php开发速度慢??
查看>>
Visual Studio 2010 将网站直接发布到远程站点
查看>>
BZOJ 1396&&2865 识别子串[后缀自动机 线段树]
查看>>
Android Framework 记录之一
查看>>
java集合框架05——ArrayList和LinkedList的区别
查看>>
Kubernetes如何支持有状态服务的部署?
查看>>
vue学习笔记1-基本知识
查看>>
C#开发step步骤条控件
查看>>
text-align 属性,输入框数字向右靠
查看>>
算法笔记_069:Floyd算法简单介绍(Java)
查看>>
dubbo常见错误
查看>>
java-信息安全(十四)-初探SSL
查看>>
1497 取余运算
查看>>
ElasticSearch 应用场景
查看>>
关于haproxy负载均衡的算法整理
查看>>
CentOS 6.x安装配置MongoDB 3.4.x
查看>>
微信小程序,创业新选择
查看>>