IBM-MIT推出百万规模视频动作理解数据集
极客时间编辑部
讲述:杜力大小:938.30K时长:02:00
在过去一年中,视频理解相关的领域涌现了大量的新模型、新方法,与之相伴的,业内也出现了多个新的大规模的视频理解数据集。
近期,MIT-IBM 沃森人工智能实验室就推出了一个全新的百万规模的视频理解数据集 Moments-in-Time。虽然其规模没有之前的 YouTube-8M 数据集大,但应该是目前多样性、差异性最高的数据集了。
该数据集的任务仍然为视频分类任务,不过其更专注于对“动作”的分类。此处的动作是指广义的动作或动态,其执行者不一定是人,也可以是物体或者动物,这也是该数据集与现有数据集最大的区分。
据介绍,该数据集主要拥有以下特征:
共有 100 万个视频,保证数据集的大小和丰富程度很高,足以训练较复杂的视频分类模型;
每个视频的长度相同,均为 3s,这样方便实验时进行处理,也使得数据集的尺寸不至于过大;
每个视频有一个动作标签(后续版本可能拓展为多标签),此处的动作仅为动词,比如“opening”就是一个标签,与之不同的是,其他数据集经常采用动名词组的形式,如”opening the door”;
动作主体可以是人、动物、物体乃至自然现象;
数据集的类内差异和类间差异均很大;
存在部分或完全依赖于声音信息的动作,如 clapping(拍手)等。
因为一个动作类别可以由多种动作主体完成,因而从视觉上看的差异性相当的大,所以动作的概念一向是相当抽象的,也因此,如此大数据量及多样性的数据集的采集是具备相当高的难度的。
总体而言,这个新的数据集很有趣且充满挑战的,与此前的多个主要关注人类动作的数据集在设定上有较大的差异。针对这个数据集,模型方面应该会更注重于对动作概念的理解以及对较大的类内差异性的处理。有兴趣的开发者,可以期待之后针对该数据集的算法。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论