2021年9月3日-5日,由中国汽车技术研究中心有限公司、中国汽车工程学会、中国汽车工业协会、中国汽车报社联合主办,天津经济技术开发区管理委员会特别支持,日本汽车工业协会、德国汽车工业协会联合协办的第十七届中国汽车产业发展(泰达)国际论坛(以下简称泰达汽车论坛)在天津市滨海新区召开。本届论坛围绕“融合•创新•绿色”的年度主题,聚焦行业热点话题展开研讨。
在9月5日 “主题演讲:迈向高级别自动驾驶应用的管理与实践”中,苏州安智汽车零部件有限公司创始人郭健发表了题为“回归汽车-高级别自动驾驶该有的样子”的演讲。
苏州安智汽车零部件有限公司创始人 郭健
以下为演讲实录:
非常感谢各位嘉宾、各位领导,今天我非常容幸受邀在这个平台论坛向各位领导、嘉宾汇报一下安智汽车六年以来所做的智能网联方面的成果,还希望各位嘉宾和领导多多指导和支持。
今天演讲题目是回归汽车高级别自动驾驶该有的样子。我们放在自动驾驶这一块也是紧扣王所长第一阶段的演讲,我们让自动驾驶更高级,我们首先想人是怎么开车的,车的表现是什么。我们回归到汽车的属性下,然后去考虑人的开车,然后传感器的设计,然后控制的设计等等。
我们认为如果要走到更高级别的自动驾驶,回归汽车是它的第一步。我们首先讲一下安智汽车是一个什么样的公司,我们安智汽车是成立于2015年1月份,整个经历了六年研发,我们作出全站自研的驾驶员辅助系统,涵盖毫米波雷达,也涵盖了视觉,在算法有感知、决策、执行整套算法。
我们安智汽车在六年研发以来,我们一直做到现在,整个已经完成了第一代77毫米波雷达和多控摄像头雷达,具备全站成熟L2驾驶员辅助系统。我们现在所做的工作,从技术路线上讲,我们在2021年之前的工作,我们叫研脑合一。就是我们做的驾驶员辅助系统,从技术路线上来讲,也是软硬件集成的产品,然后里面全站感知决策执行代码还有硬件高度配合,能够给整车厂提供一个整套的解决方案。但是2021年之后,大家看到随着5G的发展,随着智能网联整个国家的推进,我们就开始讲睛神分裂,睛是眼睛的睛,神是大脑。
2021年之后逐步往上走,我们硬件传感器更逼真模拟人的眼睛感知,我们更好去模拟人的眼睛,从产品策略上。往上走只是预控制器,我们的脑子要随着整车厂走,随着行业走,如何搭建一个更好的脑子。我们在2021年之前是眼脑合一,2021年变成睛神分裂,我们模拟驾驶员眼睛观察路况,我们贴近行业做整车测试,我们整个产品策略也是这样。
讲讲我自己背景,我是在吉大汽车学院学习,跟随管欣教授参与汽车仿真模拟开发,然后到了博世,参与了很多全球平台的开发,并且学会了很多东西,在这个地方也是非常感谢我的前一个东家。
我们在这六年的研发,也获得了很多的行业内外的认可,我们也是获得中央电视台专访,就卡脖子技术进行演讲,得到行业内外的认可。
回归今天演讲主题,我们总是在各种各样的媒体宣讲自动驾驶概念。自动驾驶是不是一个真的无人驾驶,如果要突破我们的真正的无人驾驶,我们需要很多难以预测的工况,我们公司研发测试基地是在苏州,那个地方一到这个时间开始卖大闸蟹,很多人骑着三轮车,我们的视觉和雷达对于小三轮车识别非常不好,会出现这样那样的问题。实现这种真正的无人驾驶还要首先对工况识别做到非常多的便利,并且整车算法复杂度要大幅度提高,尤其测试里程和法规一定要跟上。
在测试里程这一块,传统驾驶员辅助系统我们都是采用人工的标定,人工标定整个速度是很慢的,前面很多领导讲,给自动驾驶去喂食,我们让它成长提速,给食物营养速度远远跟不上,如何做更好的包括测试里程的工况标定,比如深度学习也是我们需要考虑的。自动驾驶要真正实现无人驾驶需要很长的距离。有意无意广告宣传,会给消费者造成很多误解。
作为我们智能网联行业,我们也逐渐的往上走。包括我们从前面出现很多这样那样的工况,包括最近隧道之中出现的幽灵公交车,包括很多人开着某品牌电动车到一个墓地,出现很多行人作为幽灵出现。当然这是他们在对于很多系统做一些误解,这体现了在感知层我们要做到真正无人驾驶需要做很多事情,整个行业包括自己的公司技术也在逐渐做突破。
比如说隧道之中出现公交车,还有毫米波雷达识别的有关问题,我们逐步由现在毫米波雷达逐步升级到4D成效,我们要给予控制算法更多的道路环境的信息,从原来的2D变成4D,把物体高度信息和点位做出来,这样给整个驾驶员辅助系统更好的感知基础,这样才支持更高级别和更高品质。
包括我们的视觉系统,刚才大家也看到广汽研究院的吴院长讲到,我们从200万像素变成800万像素,在更高像素之中做到更好深度学习算法,还要兼顾到低成本的芯片,这是讲感知层的技术演进。
到了控制层的技术演进,大家也都知道,其实传统的L1、L2级驾驶员辅助系统,我们更多是简单的工况结合,我们进行很简单的PID控制,这样的控制没有完全考虑驾驶员的前视预留行为。比如驾驶员在画龙的行为,我们最开始学车的时候,驾驶员喜欢调高座位看着比较近的地方,这样整个造成车的控制是随时进行调整,这样就会造成画龙。
随着芯片运力的增加,在我们车辆周边传感器信息完备,我们可以采用更高级的控制算法,比如模型预测控制来更好的模拟驾驶员开车,从而避免前面消失的前车,比如车突然消失了,前面有货车避免碰撞,还有恶劣天气避免行人的误判。
我们的底盘电控系统,回到汽车本身,要做一个更加冗余度更高的线控底盘,来保证自动驾驶发展。
我们回归汽车本身,我们认为回归汽车从下面三个表象来逐步进行阐述。第一我们讲传感器,我们眼睛如果支持更高级别,我们首先要理解清楚自动驾驶的场景是什么,在这种场景下,我们传感器如何去设计更好模拟我们的驾驶员对于工况的观测机制,另外就是脑袋和手,我们脑袋和手就包括控制决策功能和执行制动器的设计,就像前面张总讲的,舒适性的制动让人感受更舒服,让驾驶员反馈更为透明,更为踏实。
第三个我们讲规矩,因为大家都知道我们驾驶员辅助系统还是全自动的驾驶,必须按照车规级的要求进行开发量产,里面包含功能安全和开发模式,我们从三个方面进行阐述。其实我们在传感器的设计这块,做了很多方面的需求对接,包括跟整车厂进行很多需求对接,包括结合我们的逐渐往上更高级别的自动驾驶的需求。
首先我们认为,什么是一个合格的高级别的驾驶员辅助系统传感器,我们认为叫做拟人化,我们不必要的去追求更高级别的精度,比如很多人说,有的激光传感器精度可以达到厘米级甚至毫米级,我们的人眼是一个构造非常完美的感官器官,但是这个感官器官相对于我们的大脑,我们的人眼是一个非常低配传感器,我们就能够抓起水杯和开车,因为没有必要把精度控制到毫米级,这种高精度的传感器,一定意义上变成稍微虚假的技术进步。降低了我们去做自动驾驶的门槛,反而对技术进步并不好,我们在整个做驾驶员辅助系统传感器层面,我们认为智能驾驶传感器是整个感知的核心,要精确模拟人的感知,延伸人的感知欲,避免人在各种恶劣天气下的不足,我们一直坚定发展视觉和毫米波雷达两个感知层的技术路线。
感知传感器对于感知范围也有考虑,现在认为在纵向的传感器的设置里面,200多米的距离已经完全可以覆盖掉局部路径规划的需求,然后尤其要注意在工况策略判断的时候,芯片主要运算在什么样的范围域,60米到70米,是我们人重点关注的区域。
横向的观察域,所有车道左侧有两个,右侧有两个就足以,左右两车道是注意力高度集中的。感知域判断下开发毫米波雷达,以毫米波雷达为例,毫米波雷达是在有冰雪、冰层、雷达下进行视频检测,在黑河做的传感器受恶劣天气的影响,包括前后三度到四度的视频校准,同时也进行回归的设计。
在感知层方法里面,我们对于物体的高度属性,做了大规模的识别,这样大大降低触发率,对于井盖是百分之百识别率,对于行人识别率达到81%,对于毫米波雷达前面一个车能达到80%识别率,这样更好为决策提供道路信息,我们也进行大量的开发,然后可以在恶劣天气下作出非常好道路模型的建立。我们做更高级别的品质,做自由滚动的防加塞控制系统,刚开始的车速是比较快,到最后是轻轻滑动,然后轻点一下刹车,跟一些红绿灯工况感觉效果非常好。我们还模拟驾驶员的超车机制,比如说在公交车站,我们的视觉发现是一个公交车,我们超过公交车的时候,前面也没有车,我们会降低车速,会避免一些鬼探头的出现,也作出防御超车的机制,视觉系统做了车道偏离报警等等功能,并且在旁边有一个大车,可能靠的比较近,做车道保持的时候,向适当没有车的方向偏一下,让驾驶员感觉心里非常踏实和安全。
在做决策控制的时候,做预控制器,逐步推进室内摄像头方向,靠外部的摄像头很难知道驾驶员的疲劳,到底怎么做,到底驾驶员意图是什么,驾驶员百分之百踩油门了,这个时候AEB是不起作用的,把责任给AEB驾驶员,因为驾驶员就想百分之百撞向前面的车,我们注意视频对于驾驶员的分析,比如情绪有没有愤怒,有没有高兴,对预控制器进行研发,也对决策控制做了非常好的联合控制。
我们脱胎于汽车行业背景,实行V字型开发模式,支持整个产品的开发。在产品开发之中,也是做了大量的严苛的测试,包括机械环境这一块做了35项大的测试,整体历经四个多月,包括高温、高湿测试,我们产品也是逐步的在进行量产爬坡。
高级别的自动驾驶,是一个多学科、多行业的融合,也是需要大家一起努力,在这里我也是感谢各位嘉宾和各位领导对于公司多年来的支持和关心,谢谢大家!
获取更多评论