易学智能

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2607|回复: 5

刷新三项COCO纪录!姿态估计模型HRNet开源了

[复制链接]

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
发表于 2019-3-1 11:31:49 | 显示全部楼层 |阅读模式
中科大和微软亚洲研究院,发布了新的人体姿态估计模型,刷新了三项COCO纪录,还中选了CVPR 2019
这个名叫HRNet的神经网络,拥有与众不同的并联结构,可以随时保持高分辨率表征,不只靠从低分辨率表征里,恢复高分辨率表征。
如此一来,姿势识别的效果明显提升:
在COCO数据集的关键点检测姿态估计多人姿态估计这三项任务里,HRNet都超越了所有前辈。

更加优秀的是,团队已经把模型开源了。
结构不一样
HRNet,是高分辨率网络 (High-Resolution Net) 的缩写。
团队希望,在表征学习 (Representative Learning) 的整个过程中,都能保持高分辨率表征。
所以,他们为模型设计了并联结构,把不同分辨率的子网络,用新的方式连在一起:

并联
对比一下,前辈们连接各种分辨率,常常是用简单的串联,不论由高到低,还是由低到高:

串联
那么,仔细观察一下HRNet的并联网络。
它从一个高分辨率的子网络开始,慢慢加入分辨率由高到低的子网络。
特别之处在于,它不是依赖一个单独的、由低到高的上采样 (Upsampling) 步骤,粗暴地把低层、高层表征聚合到一起;
而是在整个过程中,不停地融合 (Fusion) 各种不同尺度的表征。

交换单元
这里,团队用了交换单元 (Exchange Units) ,穿梭在不同的子网络之间:让每一个子网络,都能从其他子网络生产的表征里,获得信息。
这样不断进行下去,就能得到丰富的高分辨率表征了。
横扫各大数据集
团队先在COCO数据集的val2017验证集上,对比了HRNet和一众前辈的关键点检测表现。
结果是,在两种输入分辨率上,大模型HRNet-W48和小模型HRNet-W32,都刷新了COCO纪录。
其中,大模型在384 x 288的输入分辨率上,拿到了76.3的AP分。

然后,团队又在COCO的test-dev2017测试集上,为HRNet和其他选手举办了姿态估计比赛。
结果,大模型和小模型,也都刷新了COCO纪录。大模型的AP分达到了77.0

另外,在多人姿态估计任务上,HRNet又超越了前辈们在COCO数据集上的成绩。
那么,其他数据集能难倒它么?
MPII验证集、PoseTrackImageNet验证集上,HRNet的表现都好过所有同台的对手。

详细的成绩表,请从文底传送门前往。
开源啦
刷榜活动圆满结束。
团队把这个振奋人心的模型开了源,是用PyTorch实现的。
除了估计姿势,这个方法也可以做语义分割,人脸对齐,物体检测,等等等等。

所以,你也去试一试吧。

回复

使用道具 举报

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
 楼主| 发表于 2019-3-5 23:39:06 | 显示全部楼层
非常好的算法
回复

使用道具 举报

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
 楼主| 发表于 2019-3-5 23:39:11 | 显示全部楼层
而且还开源了
回复

使用道具 举报

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
 楼主| 发表于 2019-3-5 23:39:15 | 显示全部楼层
值得follow
回复

使用道具 举报

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
 楼主| 发表于 2019-3-5 23:39:24 | 显示全部楼层
今天好像出了一个新的类似作品
回复

使用道具 举报

665

主题

1234

帖子

6683

积分

xdtech

Rank: 5Rank: 5

积分
6683
 楼主| 发表于 2019-3-5 23:39:31 | 显示全部楼层
这块,发展很快
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|易学智能

GMT+8, 2024-12-22 11:52 , Processed in 0.028385 second(s), 20 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表