密歇根大学研发新软件 提升无人驾驶汽车的计算机视觉能力

  • 时间:
  • 浏览:0
  • 来源:极速分分时时彩

核心提示:据外媒报道,在进行探测“极度虚假”视频的项目中,密歇根大学(University of Michigan)的工程师研发出一种软件,可利用视频片段提高计算机追踪物体的能力,后来 计算机的物体追踪能力平均提高了11%。

(图片来源:密歇根大学官网)

盖世汽车讯 据外媒报道,在进行探测“极度虚假”视频的项目中,密歇根大学(University of Michigan)的工程师研发出一种软件,可利用视频片段提高计算机追踪物体的能力,后来 计算机的物体追踪能力平均提高了11%。该软件名为BubbleNets,可为人类选者 出最好的视频帧,以便进行人工注射。除了不能帮助训练算法识别出被篡改的视频片段,该软件还不能提升无人驾驶汽车、无人机、监控和家庭机器人等新兴领域内的计算机视觉能力。

目前分析视频片段的软件都须要依靠人工在视频中标记物体,如标记人、动物和车辆。后来,“视频物体分割”算法将通过视频,跟踪此类物体的边界。

如今的先进“高度学习”线程池池池须要人类只标出单个视频帧,而通常呈现给人类的视频帧都不 视频的第一帧,在很少的清况 下,该视频帧会是最佳选者 。后来 截至目前,也越来越自动化的土办法选出更好的视频帧。

后来 ,当美国国防部研究计划局(DARPA)要求不能自动选出更好的视频帧,密歇根大学研究团队对此表示很怀疑,认为无法实现,机会该软件都告诉我大伙儿须要跟踪的是哪几种,为什么会么会么不能推荐视频帧呢?

后来 ,依靠高度学习技术,密歇根大学研究人员发现不要再选者 出最佳的机会有注释的视频帧,算法就须要做到一种 点。大伙儿所面临的挑战是创造足够多的“训练”数据,让算法不能从絮状的例子中得出我本人的结论。

研究人员研究了100个视频,此类视频中每一帧都机会有注释。机会研究人员提问:“每个视频中哪一帧的注释最好”,大伙儿只会得到100个训练数据。相反,利用“BubbleNets”软件,研究人员须要一次比较另另一一3个视频帧,该软件须要预测,机会选者 某一帧进行人工注释,须要让视频分割出理 软件更贴近物体的边界,从而可为大伙儿提供近74.10万对视频帧,以训练该算法。

不难 确切地说明BubbleNets在机会有注释的视频帧中在寻找哪几种,后来 测试显示该软件更喜欢的视频帧是:

1、  都不 一阵一阵靠近视频开头或结尾的视频帧;

2、  看起来与视频中很多帧例如于的视频帧;

3、  显示了物体清晰图像的视频帧。

目前,BubbleNets机会应用于DARPA的多大学媒体取证项目,DARPA为了识别虚假的宣传视频,须要在经过篡改的视频上训练其我本人的算法。BubbleNets可帮助很多软件自动从视频上删除物体,以创建培训数据。

后来 ,BubbleNets也可用于很多机器人和计算机视觉任务。例如于,未来的家居机器人须要了解房子的布局和物品,该机器人须要不能向主人展示一系列中有 未注释物体的视频帧。

无人驾驶汽车和无人机等配备的计算机视觉算法须要在无人工输入的清况 下运行,在此类清况 下,该软件会从视频片段中筛选出不认识的物体,后来 当该软件发现有间题的视频片段时,可为人类选者 最佳视频帧,以帮助解释间题。