400-035-6699
当前位置: 首页 » 技术支持 » 博文资讯 »

自动驾驶背后的5G密码:揭秘为何它不可或缺

自动驾驶,这个近年来备受关注的科技名词,指的是汽车能够自行完成驾驶任务。不过,自动驾驶并非一蹴而就,而是分为六个等级。
首先,Level 0是人工驾驶,没有任何驾驶辅助系统,只是通过提醒来帮助驾驶员。Level 1则增加了辅助驾驶功能,例如定速巡航和自适应巡航控制,但驾驶员仍需保持对车辆的控制。
Level 2是部分自动驾驶,可以自动化车速和转向控制,但驾驶员需要始终监控车辆。Level 3是有条件自动驾驶,驾驶员可以解放双手,但在必要时仍需进行干预。
Level 4是高级自动驾驶,驾驶员可以解放双眼,在一些预定义的场景下无需介入。而Level 5则是全自动驾驶,不需要驾驶员,车辆可以完全自主行驶。
自动驾驶的实现离不开三大关键因素:传感器、数据融合和100%安全性决策。
传感器是自动驾驶的“眼睛”,包括摄像头、雷达和激光雷达。摄像头可以识别行人、车辆、道路和交通标志;雷达可以探测和测距,用于盲点检测、防碰撞等;激光雷达则可以提供三维图像,帮助车辆识别周围环境。
数据融合是将不同传感器数据整合在一起,从而实现更好的决策。例如,摄像头和雷达可以互补,提高识别准确率。
然而,仅凭本地传感系统难以实现100%安全性。例如,在复杂道路环境下,雷达、摄像头和激光雷达等本地传感系统受限于视距和环境等因素,无法完全保证安全。
为此,C-V2X技术应运而生。C-V2X(Cellular Vehicle-to-Everything)是一种通信技术,可以让车辆与周围环境进行实时通信。通过C-V2X,车辆可以获取来自其他车辆、道路基础设施和行人的信息,从而提高自动驾驶的安全性。
例如,在十字路口,自动驾驶汽车可以通过C-V2X与左侧高速驶来的大卡车进行通信,提前得知其位置。此外,C-V2X还可以帮助自动驾驶汽车识别指示牌和红绿灯,即使是在雨、雪、雾等恶劣天气条件下。
总之,C-V2X技术的应用,使得自动驾驶汽车在复杂道路环境下更加安全可靠。在未来,随着技术的不断进步,自动驾驶汽车将走进我们的生活,为人们带来更加便捷、舒适的出行体验。

什么叫自动驾驶?

自动驾驶背后的5G密码:揭秘为何它不可或缺

自动驾驶分为6个等级:

Level 0:人工驾驶,无驾驶辅助系统,仅提醒。

Level 1:辅助人工驾驶,可实现单一的车速或转向控制自动化,仍由人工驾驶(如定速巡航、ACC)。

Level 2:部分自动驾驶,可实现车速和转向控制自动化,驾驶员必须始终保持监控(如车道中线保持)。

Level 3:有条件自动驾驶,可解放双手(hands off),驾驶员监控系统并在必要时进行干预。

Level 4:高级自动驾驶,可解放双眼(eyes off),在一些预定义的场景下无需驾驶员介入。

Level 5:全自动驾驶,完全自动化,不需要驾驶员(driverless)。

自动驾驶基本原理

关于自动驾驶的基本原理,需了解三大关键词:传感器、数据融合(Data Fusion)、100%安全性决策。

传感器

自动驾驶需要的传感器系统主要有三种类型:摄像头、雷达和激光雷达。

摄像头

摄像头是自动驾驶必备的传感器,包括前视、后视和360度摄像系统,后视和360度摄像头主要提供360度外部环境呈现,前视摄像头主要用于识别行人、车辆、道路、交通标志等。

雷达(RADAR)

自动驾驶需要多个雷达传感器,其功能是无线探测和测距,主要用于盲点检测、防碰撞、自动泊车、制动辅助、紧急制动和自动距离控制等应用。目前的雷达系统主要基于24GHz和77GHz,相较于24GHz,77GHz在测量距离和速度时具有更高的精度,以及更高的角分辨率,且还具备天线尺寸小、干扰小等优点。

激光雷达(LiDAR)

LiDAR,即Light Detection And Ranging的缩写,它是一种基于激光的系统,除发射器(激光器)外,系统还具备高灵敏度的接收器。LiDAR主要用于测量静止和移动物体的距离,并通过处理提供所检测物体的三维图像。

LiDAR应用于自动驾驶所面临的挑战是,如何克服在雨雪、雾、温度等环境影响下识别较远距离的物体,同时,这玩意成本太高,目前不适合汽车领域的大规模部署。

数据融合(Data Fusion)

数据融合就是将不同传感器(如雷达、摄像头和激光雷达)数据进行智能化合成,实现不同信息源的互补性、冗余性和合作性,从而做出更好、更安全的决策。比如摄像头具有分辨颜色(识别指示牌和路标)的优势,可易受恶劣天气环境和光线的影响,但雷达在测距、穿透雨雾等有优势,两者互补融合可作出更精确、更可靠的评估和判断。

100%安全性决策

一旦出现交通事故,重则导致人身伤亡,因此,自动驾驶对技术安全的要求相当苛刻,需实现接近100%的安全性。

简而言之,自动驾驶就是通过传感器收集全面的环境信息,再对信息融合处理,并作出接近100%安全性决策。

目前多数人所谈的自动驾驶,都是基于汽车本地端的传感器、数据融合来实现决策的。

但是,你有没有想过,这种单凭本地端实现的方式存在一些局限性。

当汽车横穿十字路口时,自动驾驶能预知从左侧高速驶来的大卡车吗?

由于易受雨、雪、雾、强光等环境影响,摄像头能始终准确识别指示牌和红绿灯吗?

再举一个例子。

当自动驾驶在高速路上以130公里/小时行驶时,摄像机/雷达融合无法安全地检测到前方超过120米距离外的停车,这将触发超过5米每平方秒的紧急制动,这是无法接受的。

总之,道路环境异常复杂,雷达、摄像头和激光雷达等本地传感系统受限于视距、环境等因素影响,要实现100%安全性,自动驾驶需要弥补本地传感器所欠缺的感知能力。

简单的理解,本地传感系统让汽车实现了“眼观六路”,但自动驾驶还需要“耳听八方”。

这就需要C-V2X闪亮登场。

传输资源分配【传输规划咨询】

数据融合相关文章