卡内基·梅隆大学的研究员研发出一种系统,可以分析出视频中的物体动作。这个系统来自研究论文《视频监控下的自动动作识别》,其主要内容就是:通过技术把视频分割成一定的块,然后电脑确定物体的运动过程并对每块视频中的动作加上某个提前设定好的含义,比如“捡起”、“埋”等。
这样当摄像头中出现变化时,电脑首先鉴别出视频中是什么物体,比如“人”、“四肢爬行动物”、“袋状物体”等,然后分析动作变化来与研究人员提前定义好的动作名字相匹配,比如“拖动”、“跑”、“扔”等。最后计算机会把这些信息以语言的形式输出给监控者,比如:视频中“一个人在拖动袋子,然后挖了一个坑,然后把袋子埋了起来。”
在论文中,研究人员称该系统是为本周早些时候和情报、防御、安全议题相关的 International Conference on Semantic Technologies (国际语义分析技术大会)准备的,这还只是整个项目中的一小部分。和美国军方的Mind’s Eye战场分析机器人一样,该项目也是由DARPA(国防部高级研究计划局)出资赞助的。他们的最终目标,是让机器也能像人一样侦查周围的动作,如果将这套系统安装在Mind’s Eye上的话,未来机器人便可以通过摄像头观察周围的环境,然后像人一样报告现场在发生了哪些事。再加上远程控制、夜视、望远镜等功能的辅助,机器人就要比人类强大多了。
既然是军方的技术,自然离我们还很远。但不妨假象一下,如果这些动作识别系统投入商用或民用,未来你在大街上的每一个动作都有可能被别人知道。这样纵然能够监控街头犯罪的发生,比如人们有肢体冲突、抢夺、或举枪的姿势等。但更可怕的是,你乱扔个垃圾或者吐口痰,都有可能被记录在案。如果社会真的变成那样的话,那可就不太好办了。
至于还有哪些应用场景,大家可在文章下留言讨论。