多目标检测新突破!创新奇智斩获国际权威测评MOT Challenge冠军
近日,创新奇智(AInnovation)在 国际最权威的多目标 跟踪挑战赛MOT(Multiple Object Tracking) Challenge, 荣获MOT17Det 多 目标检测任务第1名的佳绩,以明显优势领先斯坦福大学、腾讯优图、商汤科技、海康威视等几十支强劲的国际企业和科研机构。
本次大赛中,创新奇智夺冠的AInnoDetV2多目标检测算法已应用于创新奇智的工业视觉平台ManuVision。该平台融合多种先进的AI算法,针对工业制造过程中的定位、检测、测量、识别等功能场景,批量支持服装纺织、机动车装配等多个细分应用领域。
自去年以来,创新奇智在计算机视觉领域屡获佳绩,不仅短时间内刷新人脸检测竞赛WIDER FACE、物体检测竞赛 PASCAL VOC、图像分割竞赛Cityscapes、多目标跟踪竞赛MOT Challenge等多个世界顶级计算机视觉大赛的全球排行榜,更在IDC 2019 1H 计算机视觉应用市场份额报告中名列前茅,仅次于商汤、旷视、云从、依图、海康威视,充分彰显了创新奇智技术算法创新和商业化落地实力。
来源于:https://motchallenge.net/results/MOT17Det/
关于MOT Challenge
Multiple Object Tracking (MOT) Challenge 是国际多目标跟踪领域最权威的测评平台,由阿德莱德大学、苏黎世联邦理工学院以及达姆施塔特工业大学联合创办,是世界各大AI研究机构及企业较量CV技术实力的地方,迄今参赛者包括NEC 北美研究院、斯坦福大学、纽约州立大学、苏黎世联邦理工学院、悉尼大学、伦敦玛丽皇后大学、马克斯普朗克研究所、海康威视、商汤科技、腾讯优图等世界知名高校和研究所。
该平台旨在评测多行人对象在复杂场景下同时进行检测及跟踪的算法性能,主要包含 MOT 15、MOT 16、MOT 17 三个测评集。其中,MOT 17Det数据集主要针对多行人的目标检测,具有 场景复杂多样、人员遮挡、光照变化、图片模糊 等检测难点。创新奇智在这次比赛中击败了众多知名公司和研究机构,以绝对优势获得冠军。
创新奇智 的AInnoDetV2算法
创新奇智夺冠的AInnoDetV2多目标检测算法以著名的Cascade R-CNN网络作为基础检测器,采用Resnext101_32X8d作为骨干网络,使用它来提取多维度特征图,颈部网络则采用一个自研的特征金字塔网络(PC Attention FPN),用来生成更加丰富的多尺度卷积特征,后面接两个子网:一个负责分类,一个负责目标框的回归工作。
Cascade R-CNN
看看AInnoDetV2算法在MOT 17Det数据集上的表现:
AInnoDetV2算法在多行人复杂场景下做到无漏检、置信度高
多 目标检测在工业领域的应用
多目标检测是计算机视觉领域的重要任务,有着众多的应用场景。创新奇智瞄准潜力巨大的工业视觉市场,打造融合多种领先算法的工业视觉平台ManuVision,围绕定位、检测、测量、识别等功能场景,提供集光(学)、机(械)、电(气)、软(件)、算(法)于一体的自动化整体解决方案,应用于3C装配、机动车装配、服装纺织、冶金铸造、无损探伤、磁性材料等多个细分领域。
创新奇智在工业视觉领域的突出表现获得CCTV在内的多家知名媒体报道,并在钛媒体2019 T-Edge全球创新评选中荣获"年度前沿科技产品"大奖。
创新奇智聚焦AI在制造、零售、金融等领域的商业化落地。未来,创新奇智将探索包括多目标检测在内的计算机视觉技术在更多细分场景的应用落地,助力产业智能化。
关于参赛团队
创新奇智本次MOT竞赛夺冠队伍由 张发恩、吴佳洪、杨志铮、曹浩天、汤寅航、宋剑飞、艾国、范馨予、路建飞和徐博 组成。其中团队Leader张发恩现任创新奇智CTO、创新工场人工智能工程院首席架构师和宁波诺丁汉大学荣誉教授,他在人工智能工业界和学术界成绩不菲,曾任职Microsoft、Google和百度,持有多项国内外人工智能算法专利和发表过数篇人工智能顶级会议论文。队伍中其他成员也都有着深厚的人工智能教育背景和从业经历。
作者暂无likerid, 赞赏暂由本网站代持,当作者有likerid后会全部转账给作者(我们会尽力而为)。Tips: Until now, everytime you want to store your article, we will help you store it in Filecoin network. In the future, you can store it in Filecoin network using your own filecoin.
Support author:
Author's Filecoin address:
Or you can use Likecoin to support author: