日前知情人士表示,英飞凌(Infineon Technologies AG)去年曾就收购意法半导体(STMicroelectronics NV)举行早期会谈,若该并购成功完成,英飞凌将一跃成为欧洲半导体巨头。不过法国政府反对这项并购。
英飞凌是欧洲一家芯片厂商,成立于1999年,在汽车半导体领域有着丰富的经验。在其发布的2018年业务报告中,自动驾驶业务已经占公司总业务的42%。其对于2017年自动驾驶半导体业务市场占有率的排名为,NXP、英飞凌、瑞萨、TI、意法半导体、博世、安森美、罗姆集团、东芝、ADI。
那么为什么自认为是业内排行老二,还有收购老五呢?除了半导体领域要不断通过保持垄断地位才能持续有竞争力以外,还有没有别的原因?
英飞凌在自动驾驶领域的业务,已经远远大于其它IPC、PMM、CCS业务,在自动驾驶领域其主要的业务是雷达、微处理器、数据传输以及电源管理等部分,基于机器视觉的ADAS芯片还没有。
意法半导体在芯片领域也是巨头,在汽车领域有鼎鼎大名的STM系列微处理器,逻辑IC,以及信息娱乐处理单元。在自动驾驶时代,更是联合Mobileye研发生产了EyeQ系列ADAS芯片。
英飞凌跟意法半导体之间有很多重合的业务,而在自动驾驶领域,其欠缺的就是ADAS视觉处理芯片的能力,此次传出英飞凌有意向收购意法半导体,会否是想要弥补视觉处理芯片方面的短板?
视觉处理芯片是自动驾驶芯片阵列中重要的一环,由于可以同雷达等传感器形成互补,基于深度学习的视觉识别处理,在道路、交通标志、障碍物、行人等识别中重要性愈发凸显。
因此各大厂商也都在争相占领高地,NVIDIA和Mobileye目前是市场翘楚,占据了较大的份额,二者在汽车芯片领域,都是新生。其它传统汽车芯片厂商,正在迎头赶上。
而在即将到来的ADAS普及浪潮中,视觉ADAS方案由于价格低廉,技术成熟,产业链完善,必然会成为OEM首先选择的对象。那么方案商有哪些ADAS主处理芯片的选择呢?OEM又意下如何呢?
高处不胜寒
Mobileye联合意法半导体推出的EyeQ系列的视觉处理芯片,在自动驾驶CV领域,声名卓著,其中EyeQ4于2016年发布,在其官网上这样显示,EyeQ ® 4是目前市场上最先进的专用视觉计算SoC。
除了能够应付雷达和LIDAR的数据外,还可支持8个摄像头传感器,每秒处理2.5万亿次操作,而功耗仅为3-5瓦。EyeQ4有一组工作在1GHZ的工业级四核MIPS处理器,多个专用的向量微码处理器(VMP),用来应对ADAS相关的图像处理任务。
EyeQ系列的芯片是由Mobileye和ST意法半导体联合生产的,在意法半导体的2017年报中,也提到了双方将继续联合协作,研制2020年将要推出的EyeQ5。
英伟达2016年推出DRIVE™PX2(Autocruise和Autochauffeur,Autochauffeur相当于前者性能X2+ Pascal 架构的独立 GPU),Autochauffeur配置两个SoCs(片上系统)Tegra Parker (Cpu Cores是4个Denver和8个Cortex A57)和两个分离式的Pascal GPU(单精度计算能力达到8TFlops),支持12路200万像素摄像头每秒60帧的拍摄图像的摄像头数据。
这种可扩展的构架可以配置从运行10瓦特的被动冷却的移动处理器,到用两个移动处理器,以及两个分离式GPU可达到每秒24万亿次深度学习的操作。多个Drive PX 2 平台的并行使用可以实现完全的自主驾驶。
2016年NVIDIA发布Xavier,它是一款完整的片上系统 (SoC),集成了被称为 Volta 的全新 GPU 架构、定制 8 核 CPU 架构以及新的计算机视觉加速器,采用 16nm FinFET 加工技术进行制造。
该处理器提供 20 TOPS(万亿次运算/秒)的高性能,而功耗仅为 20 瓦。充当自动驾驶汽车大脑的 Xavier 在设计上符合 ISO 26262 道路车辆功能安全规定等严格的汽车标准。
NVIDIA和mobileye在ADAS视觉处理中,无疑是最有话语权的,前者代表着算力,后者代表着量产经验,但市场可能暂时不会选择二者。
原因也很简单,前者算力虽高,但价格和功耗都不低,在ADAS领域综合的性价比并没有优势,在消费者市场还属于教育阶段的时候,以一个高价智能驾驶配置入局,结局不会太好。
而Mobileye则相对封闭,且有成熟的从芯片到解决方案的完整链条,价格也不低,对于OEM和Tier1占主导地位的汽车市场,需要在供应链上有充足的可选项,因此Mobileye不会是唯一选项,OEM和Tier1乐见更多的选项出现。
此时,传统汽车电子芯片领域的玩家,就出现了。
既得利益者
NXP(恩智浦)推出的第二代视觉处理器系列S32V234,旨在支持图像处理的计算密集型应用,并提供了一个ISP、强大的3D GPU、双APEX-2视觉加速器和安全性,以及支持SafeAssure™。
有运行频率高达1GHz的64位Arm® Cortex®-A53四核,以及频率高达133 MHz的M4内核。S32V234带两个MIPI CSI2接口,4个通道用于摄像机输入(支持1080像素@ 30 fps),支持2x1或1x2百万像素@ 30 fps和4x2百万像素图像输入。
S32V234具有S32 Design Studio IDE for Vision支持的完整支持平台,包括编译器、调试器、Vision SDK、Linux BSP和图形工具,还有MATLAB的恩智浦视觉工具箱是面向S32V234处理器附送的集成开发环境。
S32V234适用于ADAS、NCAP前视摄像头、异物检测和识别、环视、机器学习和传感器融合应用。S32V234专为汽车级可靠性、功能安全和安全措施而设计,以支持汽车和工业自动化。可支持前视摄像头、智能后视摄像头、环视等的一些自动驾驶应用。符合ISO26262以及ASIL的相关标准。
瑞萨(Renesas)2017年4月11日宣布推出针对NCAP前置摄像头的R-Car V3M SoC ,配有双核800MHz的ARM CA53 (ARMv8),以及单颗ARM CR7 (ARMv7),串口可输入单通道4路视频,单路视频传输速度可达1.5Gbps。
V3M的硬件加速器使CNN能够以超低功耗水平执行,该加速器可实现越来越多的道路检测或对象分类等功能在汽车自动驾驶应用中。V3M SoC以及包括瑞萨开源e²工作室IDE集成开发环境(IDE)在内的支持软件和工具。
2018年2月28日推出全新的R-Car V3H片上系统(SoC),其计算机视觉性能比其前身R-Car V3M SoC高出五倍,使用了双图像信号处理器(ISP),四颗1.0-GHz的Cortex ® -A53 MPCore的™内核,双锁步800 MHz的Cortex ® -R7核心,同时CNN的专用IP加速了深度学习。
该SoC将会用于批量生产的L3级和L4级自动驾驶汽车,V3H SoC样品将于Q4上市,量产计划于2019年第三季度开始。
瑞萨的V3M和V3H使用不同的加速器实现了一流的性能计算机视觉异构平台:多功能管道引擎(IMP)和计算机视觉引擎(CVE),辅以DMA来控制内存传输。此外,两个SoC都带有卷积神经网络(CNN)的集成IP。
这使得R-Car V3M和V3H适用于计算机视觉算法,如物体检测和分类,深度神经网络和卷积神经网络。此外,对于上述硬件加速器,V3H具有用于密集光流,密集立体视差和对象分类的专用IP。
德州仪器(TI)针对ADAS前视视觉识别推出的是TDAx SOC系列芯片,包括TDA3x、TDA2x、TDA2Px,这些处理器都包含有双核Arm Cortex-A15MPU,以及双核Arm Cortex M4,C66x DSP。
TDA系列芯片分不同型号,可支持1-3路摄像头,像素也从1.3-2.5MP,存储带宽从4.0-10.7 GB/s。芯片可达到从 ASIL-B 到 ASIL-D 安全级别。
德州仪器(TI) 提供针对 Arm,DSP 和 EVE 协处理器的完整开发工具集,其中包括 C 语言编译器、一个可简化编程和调度的 DSP 汇编优化器和一个针对源代码执行可视性的调试接口。
亚德诺(ADI)推出的ADSP-BF60x系列芯片,是专门针对ADAS视觉处理的,可以囊括LDW、FCW、TSR、HBA、PD函数五项功能,且系统的总体成本降低了30%。
BF60x是基于双核Blackfin,单核的工作频率最高可达500 MHz,采用ADI公司/Intel微信号架构(MSA)。每个内核包含2个16位乘法器、2个40位累加器、2个40位ALU、4个视频ALU和1个40位移位器。计算单元处理来自寄存器文件的8位、16位或32位数据。
流水线视觉处理器(PVP)提供硬件来处理信号和图像算法,从而预处理和协处理先进汽车辅助驾驶(ADAS)或其它视频处理应用 中的视频帧。其中BF608的PVP可支持VGA, VGA为每帧640 x 480像素,每秒30帧。
BF609可支持HD,HD为每帧1280 x 960像素,每秒30帧。ADSP-BF60x在105°C环境温度下的功耗不足1.3 W,具有同级产品的最低功耗。
以上,是传统汽车芯片领域的玩家,他们都有着在传统视觉处理领域的解决方案,在自动驾驶浪潮席卷而来的时候,他们并没有着急跟风。而是基于原有的芯片基础,进行功能上的适配,满足ADAS的需求。
这些芯片解决方案,基本可以覆盖汽车前视的预警功能需求,且在价格、功耗、量产经验上,都占优势。因此,在未来汽车普及ADAS功能的过程中,他们可能才是真正的食利者。
这些厂商,对于推出符合更高级别自动驾驶算力要求的视觉处理芯片的时间点,都更为保守。甚少谈L4、L5自动驾驶,更多的集中在L3以下的需求,芯片性能也在满足百万像素级图像、视频处理,主频多是1GHz左右的Arm® Cortex®-A53,辅以完整的开发工具,方便用户上手。
传统厂商在自动驾驶浪潮中的集体低调甚至缄默,是源于对市场以及OEM需求的熟稔于心。没有谁,比他们更清楚气候冷暖了。
蛋糕觊觎者
高通(Qualcomm)推出的面向汽车的处理器820,配备有定制 64 位 Kryo 四核处理器,Qualcomm® Adreno™ 530 GPU,Qualcomm® Hexagon™ 680 DSP,可支持多达 8 个摄像头传感器同时输入。
由于拥有多个异构计算引擎,Zeroth™ 机器智能平台使骁龙 820 车用处理器可提供设备认知技术和神经网络处理能力。
820定位于车用处理器,因此包含了汽车通讯、信息娱乐、显示、感知等多种能力,由于在消费市场拥有大量的出货,820一经推出,就得到了众多主机厂的青睐。
赛灵思(Xilinx)推出的Zynq-7000 / Zynq UltraScale+ MPSoC可用于前视摄像头数据的处理,ARM A9 或 A53 用于目标分类和连接车辆网络,PL 用于连接传感器、预处理图像/数据和软件算法的硬件加速。
(XA) Zynq™-7000 SoC 非常适合高级驾驶员辅助系统 (ADAS) 的高计算要求,采用了28nm 工艺,使用了ARM 双核 Cortex-A9 MPCore,频率超过667MHz,可在可编程逻辑 (PL) 中实现额外的硬件加速器。
XA Zynq® UltraScale+™ MPSoC 系列完全通过 ISO26262 ASIL-C 级认证,符合 AEC-Q100 测试规范。该产品在单个器件中高度集成一个特性丰富的、基于 64 位四核 ARM® Cortex™-A53 及双核 Cortex-R5 的处理系统 (PS) 和 Xilinx 可编程逻辑 (PL) UltraScale 架构。与 Zynq-7000 SoC 相比,系统级性能功耗比提升 5 倍。
安霸(Ambarella)在2018年的ces展上,发布了计算机视觉芯片CV1,芯片是基于CVflow架构,CV1能够对分辨率高达4K的视频进行计算机视觉处理,其重要的应用领域之一就是ADAS。为了造出这款芯片,VisLab和安霸通力合作,结合了双方在深度学习和高清图像处理、低功耗方面的经验。
2018年3月28日,安霸公布了升级版的CV2视觉芯片,CVflow的优势在于可以提高每个处理单元的性能。CV2的深度神经网络性能是CV1的20倍。它能够提供深度神经网络和立体视觉处理,瞄向的是ADAS和自动驾驶汽车市场。二者都是4K级的立体视觉处理器。
与通用CPU和GPU相比,CVflow™采用了一种根本不同的方法,包括使用高级算法描述编程的灵活CV硬件引擎。这使得芯片的架构能够以非常低的功耗和不限制的灵活性将性能扩展到每秒数万亿次操作,公司同时提供了行业标准工具(如Caffe和TensorFlow)对其CNN网络进行有效映射,以在基于CVflow™的芯片上运行。
Altera作为排名第二的FPGA厂商,被英特尔收购,英特尔® FPGA 可提供理想的解决方案,满足系统对灵活 IO 和高数据速率的要求。FPGA 可收集多个传感器(接口类型、数据速率等各不相同)的数据,并将它们转化成统一格式(例如 MIPI CSI-2)以输出至计算要素,并进一步传输至 AD 系统。
被英特尔纳入麾下以后,针对自动驾驶的FPGA解决方案,并没有大力的推广,这可能是收购了Mobileye后,在汽车芯片领域的发展步伐有所放缓。但作为一项被业内广泛使用的技术,FPGA未来在自动驾驶中还会充当重要的角色。因此英特尔的FPGA,也是一支不能忽视的力量。
以上这些厂商,在汽车芯片领域,算是新来者。赛灵思在加大投入,开始重视汽车市场,安霸借着原有汽车市场的一些经验,也在意图更多CV市场份额。高通从传统消费者市场闯进来,自知阅历不足,意图收购NXP来一统江湖。但临煮熟的鸭子,飞了,往后的路还要靠自己走。
自动驾驶视觉处理芯片的赛跑,才刚刚开始,领头羊、传统势力、新入局者各自的节奏都不一样的,但市场一致——我们目力所及的汽车,ADAS还远未普及。谁能掌握真正的话语权,在于占领足够大的市场,而这些故事,将会在接下来的5-10年完成。
2024-12-23
2024-12-25
2024-12-23
2024-12-24
2024-12-25
2024-12-26
2024-12-26
评论
加载更多