Nvidia自驾车研发 CNN深度神经网络加速训练

  Nvidia现在不只靠GPU抢占AI与VR/AR市场,近来也积极投入无人汽车的研究,最近Nvidia更首次揭露了耗费9个月所完成自动驾驶汽车研发的最新成果。

  Nvidia借助了深度学习神经网络CNN与机器学习框架Torch7训练自驾车,让无人汽车在短时间内就具备有跟其他自驾车一样的自驾功能,这项成果最近也首次在美国康乃尔大学的电脑科学类研究网站上公开发表。

  Nvidia在去年发起的一项Dave-2自驾车项目中,分别使用了来自2016年出产的Lincoln MKZ与2013年系列的Ford Focus共两款车辆进行自动驾驶的模拟与道路实测。Nvidia在这2辆车内都分别装有3组,还有一个可储存资料用的SSD硬盘,并都使用Nvidia Drive PX做为车载电脑系统的核心。

  而从Nvidia自驾车研究小组所共同撰写发表的论文内容来看,截至今年3月底,Nvidia仅用了将近72个小时搜集的环境数据资料,持续做为汽车的机器学习训练后,已成功能让汽车自动安全行驶在高速公路或一般道路。而之所以能用较少的资料作训练,就可让汽车自动开上路,甚至不需要人为介入操控,Nvidia解释,背后的关键正是利用了卷积神经网络(Convolutional Neural Network,CNN),来建立一套可用于无人汽车训练的深度学习神经网络模型。

  CNN是一种前馈式神经网络(Feed-Forward Neural Network),其特色是可以直接输入原始来源的图像,而避免对图形进行复杂的前处理过程,例如特征提取和资料重建等。CNN因为采用局部连接(Sparse Connectivity)的神经网络形式,并通过权值共享(Shared Weights)的方式来减少神经元的连接数量,因而比起传统全连接的神经网络,可以用较少的参数,更快速的完成学习训练过程。CNN过去在图像处理一直获得很好的发挥效果,也常使用于语音分析和图像识别的相关研究,现在也被运用于无人汽车的学习训练用途。

  Nvidia自驾车研发团队这次一共建构了深度多达9层的CNN神经网络架构,并连结了将近2,700万条神经元,以及使用了25万个参数,才打造出可用于自动驾驶车训练的深度学习预测模型。

  当以无人汽车进行深度学习训练时,会先通过将相机捕捉到的道路环境影像直接输入至CNN神经网络模型内,并经过模拟计算后,再将产生出的运算结果,拿来和实际人类驾驶的操控行为,例如方向盘转动角度等,进行两相比较后,再重新不断修正演算法模型,来提高CNN预测的准确度。而至今,这些用来做为CNN模拟训练而使用的环境影像时数,如果换算成距离的线英哩。

  除此之外,Nvidia还借助了另一个开源机器学习框架Torch7,来提高汽车行驶判断的能力,以便能将从相机搜集到的周围道路资讯,包括来往车辆、交通标志,以及各种障碍物等,经过机器学习演算法计算后,来决定接下来的行驶策略,是要变更行驶路线或是调整车速快慢等。

  根据Nvidia的说明,这辆自驾车经过道路实测后,初期已能在美国纽泽西高速公路上完成9成以上的自动化驾驶,甚至少数路段更达到全程自动化行驶,即使是在不同气候环境条件下,如雨天等,汽车也能正常行驶。

  除了成立无人汽车研究团队来开发自驾车外,Nvidia最近也宣布将参与协助打造首辆赛车用的无人汽车计划,该赛车完成后将参加Formula E电动方程式即将在2016至2017年赛季首次举办的Roborace自动驾驶汽车大赛,并挑战要在1小时内连续跑完数十圈以上的赛道。

  而从Nvidia目前所公布关于这辆赛车的架构设计图,也显示出这辆无人赛车之后也将采用Nvidia新一代自动驾驶平台Drive PX2,做为汽车电脑系统核心。这场专业无人车赛的最后决胜关键,将决定于哪支队伍可以运用机器学习,甚至借助深度学习的类神经演算法,以发挥出更准确的驾驶判断能力。(ITHome)

内容转自网络,版权归原作者所有,如有侵权请及时联系,转载请以链接形式标明本文地址
本文地址:http://techknzz.com/?ai/3950.html