几家主要的汽车制造商和技术公司正在积极寻求完全自动驾驶或自动驾驶汽车的开发和销售。安全、完全自动驾驶汽车的乌托邦愿景将我们召唤到一个未来,通勤者可以在运输途中自由放松、阅读甚至睡觉,并且从危险情况中大大降低卷入严重交通事故的可能性今天的。
虽然这是梦想,但自动驾驶汽车的现状离这个目标还很远。该领域的专家预测,开发和部署该技术以支持全自动交通的广泛使用将需要数十年的时间。
为了了解自动驾驶系统的要求,我们从人类驾驶员为控制当前一代机动车辆的运行而提供的输入开始。这些是:
为了实现全自动驾驶的目标,技术必须发展到可以将所有这四个输入的控制委托给车辆中的传感器和计算系统的程度。
要了解与全自动驾驶目标相关的自动驾驶汽车技术的当前状态,参考定义从完全由驾驶员控制的车辆到完全自动驾驶架构的过渡步骤的尺度是有帮助的。这是下一节的主题。
汽车工程师协会(SAE) 定义了六个级别的驾驶自动化,涵盖从没有任何自动化到没有人类驾驶员的全自动车辆的范围。这些级别是:
这是起点,描述了机动车辆自发明以来的运行方式。在 0 级,驾驶员负责车辆操作的所有方面,包括到达预定目的地,同时确保车辆、乘员和车外一切的安全。0 级车辆可能包含安全功能,例如前方碰撞警告和自动紧急制动。这些功能被认为是 0 级,因为它们不会持续控制车辆。
1 级驾驶自动化系统可以持续执行转向控制或加速/减速控制,但不能同时执行这两种功能。使用 1 级驾驶辅助时,驾驶员必须持续执行除单一自动功能之外的所有驾驶功能。1 级转向控制称为车道保持辅助(LKA)。1 级加速/减速控制称为自适应巡航控制(ACC)。使用 1 级驾驶员辅助功能时,驾驶员需要保持持续警觉并准备好完全控制。
2 级驾驶自动化系统通过同时执行转向控制和加速/减速控制建立在 1 级的能力之上。与 1 级一样,驾驶员必须始终保持警觉并准备好完全控制。
3 级驾驶自动化系统可以持续执行所有驾驶任务。如果自动驾驶系统需要人工干预,则必须始终有驾驶员在场并准备好进行控制。2 级和 3 级之间的主要区别在于,在 3 级中,驾驶员不需要持续监控自动驾驶系统的性能或保持对车外情况的了解。相反,人类驾驶员必须随时准备响应来自自动驾驶系统的干预请求。
4 级自动驾驶系统可以在一段时间内执行所有驾驶任务,还能够自动对意外情况做出反应,从而最大限度地降低对车辆、其乘员和车外其他人的风险。这种风险最小化过程称为驱动任务回退,并且它可能涉及导致避免风险和恢复正常驾驶或执行其他操作的行为,例如将车辆停在安全位置。人类驾驶员可以响应驾驶任务回退或在其他时间(如果需要)接管车辆的控制权。然而,与较低的驾驶自动化水平不同,4 级车辆中的任何人都不需要在车辆运行时随时准备接管车辆的控制权。具有 4 级自动化的车辆也不需要包括人类驾驶员的操作控制。4 级驾驶自动化的主要用例是在出租车和公共交通系统等应用中,车辆的运行受限于特定的地理区域和一组已知的道路。
在 5 级车辆中,所有驾驶任务始终由自动驾驶系统执行。不需要允许人类驾驶员操作车辆的控制输入——所有车辆乘员都是乘客。5 级驾驶系统必须能够在所有道路类型、一天中的任何时间和所有天气条件下操作车辆,在这种情况下,负责任且通常熟练的人类驾驶员将能够安全驾驶。车辆的乘客执行的唯一与驾驶相关的任务是选择目的地。
2022 年,道路上的大多数车辆都处于 0 级。许多较新的车型都包含 1 级和 2 级自动化功能。世界各国几乎没有批准运行的 3 级系统。已获得监管批准的 3 级系统通常仅限于特定的操作条件,例如在高速公路上交通繁忙的情况下行驶。
与许多传统计算应用程序(例如智能手机和网络服务器)相比,自动驾驶汽车的性能要求的一个重要区别是,自动驾驶汽车非常有可能伤害和杀死车辆乘员和车外其他人。这是下一节的主题。
人类驾驶员必须感知车辆的状态并不断评估周围环境,跟踪静止和移动的障碍物。收集这些信息的主要方法是通过视觉。
有能力的驾驶员使用视力监控车辆仪表,主要是车速表,并扫描周围环境以执行车道保持,与其他车辆保持适当的间距,遵守交通标志和信号,并避开路面上或附近的任何障碍物。
人类驾驶员在较小程度上依赖其他感官,包括使用听觉来检测信号,例如汽车喇叭和铁路道口。触觉也开始发挥作用,例如,当在高速公路表面安装防撞条以警告即将到来的十字路口时。当注意力不集中的驾驶员偏离道路并落在路肩上时,触觉也可以提供帮助,而路肩通常具有与路面明显不同的纹理。
视觉、听觉和触觉是人类驾驶员在驾驶时使用的唯一输入。从某种角度来看,这表明这些感官提供的信息输入使人类驾驶员每天能够行驶数十亿英里,而且基本上是成功的。从不同的角度来看,在感知和执行对危险情况的适当反应的过程中显然仍然存在重大差距,交通事故中每天发生的数千人死亡就是明证。
为了被驾驶大众所接受,自动驾驶系统不能仅仅像人类驾驶员一样安全——就每英里行驶的交通事故率而言,它们必须明显优于人类。这种高水平的性能将是必要的,因为许多人类驾驶员在确信该系统优于他们自己(也许是想象的)高水平驾驶技能之前,不愿意将控制权交给自动化系统。
自动驾驶传感器必须准确测量车辆本身的状态以及车辆附近所有重要物体的位置和速度(速度和运动方向的组合)。以下部分描述了当前几代自动驾驶汽车设计中使用的主要传感器类型。
自动驾驶汽车必须持续保持对其状态的感知,包括其位置、运动方向和速度。车辆位置信息用于车道保持等低级驾驶任务,以及开发通往目的地的路线等高级功能。
低级位置测量可以从激光雷达数据或摄像机图像中获取信息,这些图像提供的信息包括车辆相对于车道标记线的位置。该信息具有高分辨率(意味着精度以厘米为单位)并以高速率更新(可能每秒数十次甚至数百次),从而使驱动系统能够对不断变化的条件做出平稳和连续的响应。
全球定位系统 (GPS) 传感器提供的信息更新频率较低(可能每秒几次),并且精度可能低得多,位置误差为数米。GPS 接收器提供的信息非常适合用于路线规划,但它可能会提供过于粗略的测量结果,并且更新频率太低而无法用于将车辆保持在车道中央。
GPS 接收器具有显着的性能限制,因为它们依赖于卫星信号的连续接收来实现其操作。在车辆的天空能见度受损的情况下,例如在树木茂密的道路上、市中心的城市峡谷或隧道中,GPS 接收器可能根本无法工作。
车辆的车速表通常根据轮胎转速提供准确的车速测量值。有时,由于轮胎打滑,车速表测量值可能无法准确表示车速,这可能是由于道路上存在泥土或冰。作为车速表的备份,GPS 在接收到必要的卫星信号时提供对车速的准确测量。在这种情况下,车速表读数与 GPS 测量的速度之间的差异可能表明轮胎打滑,这是不安全的情况。
现代车辆通常包含加速度计形式的惯性传感器,在某些情况下还包含陀螺仪。加速度计测量沿单个运动轴的加速度或速度变化率。当车辆加速时,人类将加速度感知为将他们推回座椅的力,以及在激进转弯期间将他们推向侧面的力。
机动车辆通常包含两个加速度计:一个用于测量沿前后运动轴的加速度和减速度,另一个用于测量沿左右运动轴的加速度。测量横向加速度的加速度计测量转弯的惯性效应。陀螺仪可以直接测量车辆的转弯率。
加速度计可以以非常高的速率提供测量值,并用于诸如在检测到碰撞后几毫秒内展开安全气囊等目的。车辆中的加速度计和陀螺仪跟踪其方向和速度,使其能够准确了解其与周围环境的关系。
GPS、速度计和惯性传感器提供对车辆状态的估计。为了安全驾驶并到达请求的目的地,自动驾驶系统还必须感知周围的环境。执行此功能的传感器是以下部分的主题。
一些自动驾驶系统采用一系列摄像机作为外部环境的主要传感器。这些车辆中使用的摄像机具有消费级数码摄像机用户熟悉的功能,包括手持设备和智能手机中的摄像机。自动驾驶汽车摄像机是一种中等高分辨率的设备,通常为 1,920x1,080 像素。一辆车可能有几个摄像头,它们位于其周边,具有重叠的视野。
多个摄像头的使用突显了自动驾驶汽车相对于人类驾驶汽车的一项改进:自动驾驶汽车中使用的视觉系统能够同时且连续地监控车辆周围各个方向的活动。相比之下,人类驾驶员一次只能朝一个方向看,在更大的视野范围内有一些有限的周边视觉。人类驾驶车辆中内部和外部后视镜的存在有助于减轻人类视觉的这种固有限制,尽管通常存在大量盲点,人类驾驶员必须认识到并将其纳入他们的态势感知中。
在自动驾驶系统中使用摄像机的最大挑战是,这些设备输出的视频图像不能直接用于执行驾驶任务。必须进行大量处理以识别图像中的重要特征,结合这些特征来识别单个对象,然后了解对象在做什么并做出适当的反应。我们将在本章后面的感知环境部分讨论自动驾驶系统中视频图像的处理。
自动驾驶系统中摄像机的一个限制是它们提供了摄像机所看到场景的平面二维图像。如果没有大量的进一步处理,就无法判断由任何单个像素表示的场景部分是靠近车辆(因此可能是需要立即做出反应的障碍物)还是远处且无关紧要的东西到驾驶任务。
无线电检测和测距(雷达)技术为这个问题的一部分提供了解决方案。雷达系统重复地向环境中发送电磁能脉冲,并这些信号从附近物体反射回来的回声。
雷达系统可以检测物体并测量每个物体的方向以及到这些物体的距离。它还可以测量物体相对于搭载雷达系统的车辆的速度。当作为 ACC 的一部分使用时,雷达系统可以跟踪前方数百英尺的车辆并保持安全的跟随距离。
然而,雷达系统有一些明显的局限性。与摄像机相比,典型的汽车雷达系统感知的场景要模糊得多,分辨率也较低。雷达系统也容易受到噪声测量的影响,这会降低对它们提供的信息质量的信心。
尽管存在这些限制,但雷达传感器在摄像机经常出现故障的情况下(例如在大雨、大雪和浓雾中)的性能不会下降。
一些自动驾驶汽车开发商不使用摄像机,而是选择依靠激光雷达系统来确定车辆位置和方向并检测车辆附近的物体。光探测和测距(激光雷达)传感器使用激光扫描车辆周围区域,并从表面和物体接收到的反射中收集数据。
激光雷达设备的每次测量都代表从激光雷达激光照明器到将部分激光能量反射回激光雷达传感器的表面的距离。激光雷达处理软件已知每个样本时激光束相对于车辆的方向。通过测量从发射激光脉冲到回波到达激光雷达传感器的时间(称为脉冲的飞行时间)来计算到反射点和反射点的距离。脉冲的往返距离等于脉冲的飞行时间乘以光穿过大气层的速度。
通过在车辆周围所有方向上快速连续地收集测量值,开发了一组称为点云的三维点。该点云表示从激光雷达传感器到周围表面的距离,包括路面、建筑物、车辆、树木和其他类型的物体。
声音导航和测距(声纳)执行与雷达和激光雷达系统直观相似的功能,不同之处在于声纳系统发出声音脉冲而不是电磁波。
声纳系统通常在比雷达和激光雷达系统短得多的范围内运行,主要用于检测近距离情况下的障碍物,例如在其他车辆之间停车时或检测高速公路上相邻车道上的车辆何时以令人不适的方式接近。
由于传感器收集有关车辆及其周围环境的原始信息,因此传感器输出信息不能立即用于执行有效的车 辆控制。必须执行几个处理阶段才能将原始传感器测量值转换为可用于自动驾驶的可操作信息。以下部分描述了在依赖摄像机作为主要传感器的自动驾驶汽车中将传感器数据转换为驾驶决策所需的处理步骤。我们从使用卷积神经网络处理来自摄像机的图像开始。
在使用摄像机感知环境的现代自动驾驶汽车系统中,用于从摄像机捕获的视频图像中提取决策质量信息的领先技术是卷积神经网络。
卷积神经网络 (CNN)是一种特殊类型的人工神经网络,它对原始图像数据执行一种称为卷积的过滤形式,以提取对检测和识别图像中的对象有用的信息。
摄像机捕获的图像是矩形像素网格。每个像素的颜色由一组红色、绿色和蓝色强度表示。这些强度中的每一个都是一个 8 位整数,范围从 0 到 255。强度为 0 表示像素的颜色中不存在相应的颜色,而 255 表示该颜色的最大强度。一个像素的颜色由三个红色、绿色和蓝色值表示,缩写为RGB。下表列出了 RGB 颜色的一些示例:
CNN 接收摄像机捕获的 RGB 图像作为其输入,作为三个独立的 8 位像素颜色二维阵列,每个阵列用于红色、蓝色和绿色。我们将这些称为图像的三个颜色平面。
然后 CNN 对每个颜色平面执行卷积滤波。卷积过滤器由通常很小的矩形数字网格组成,可能是 2 行乘 2 列。卷积操作从每个颜色平面的左上角开始。在数学上,卷积是通过将每个像素位置的颜色强度乘以卷积滤波器中相应位置的数字,然后对滤波器中所有元素的这些操作的乘积求和来执行的。该操作的结果是卷积输出的一个元素。我们将很快通过一个示例来帮助阐明这个过程。
卷积继续通过将过滤器向右移动 1 个或多个像素,然后对覆盖在过滤器新位置的图像像素重复乘法和求和操作。这会在顶行的第二个位置产生卷积输出。这个过程一直持续到图像的第一行,然后过滤器移回左边缘并向下移动 1 个或更多像素,并在图像的第二行重复该过程。这种移动过滤器、将过滤器元素乘以过滤器位置处的像素颜色强度以及对结果求和的序列在整个图像中继续进行。
我们现在将提供一个简单的示例来演示 CNN 的工作原理。假设我们有一个 5x5 像素的图像和一个 2x2 像素的卷积滤波器。我们将只查看三个颜色平面之一,尽管在实际滤镜中,将在所有三个颜色平面上分别执行相同的操作。
每次需要进行此类移动时,我们将过滤器向右移动 1 个像素,向下移动 1 个像素。卷积滤波器每次重新定位时移动的距离(以像素为单位)称为步幅。为简单起见,示例中的所有像素和卷积滤波器元素都将表示为一位整数。下表包含我们的示例颜色平面数据:
我们将使用 1 的步幅,这意味着滤波器输出的每个顺序评估将向右移动 1 个像素,然后在到达图像的右边缘时向下移动 1 个像素并返回到左边缘。
颜色平面强度与滤波器系数的逐个元素相乘,然后将这些结果中的每一个相加的结果是我们的输出数组C1,1的一个元素,我们将其放置在第 1 行第 1 列中我们的输出数组,如下表所示:
对于顶行的每个评估,我们继续向右移动 1 个像素。因为我们的过滤器是 2 像素宽,而图像是 5 像素宽,所以我们只能将过滤器放置在 4 个位置,而不会从图像上运行过滤器。这就是过滤器输出数组有 4 行 4 列的原因。
在图像的第一行完成后,我们将过滤器带回图像的左边缘并将其向下移动 1 个像素以计算第 2 行第 1 列中的元素 (C2,1)。这个过程在整个图像中重复,直到它在右下角结束。对于我们的 5x5 图像,卷积操作的完整输出如下表所示:
CNN 训练由重复试验组成,这些试验向神经网络呈现一组输入数据以及在呈现该数据时应该产生的“正确”输出。训练过程会调整 CNN 卷积滤波器中的权重,以提高其在每次迭代中正确响应给定输入的能力。
举一个具体的例子,考虑让车辆在车道内保持正确居中的问题。要训练 CNN 执行此任务,一般程序是记录来自车辆摄像头的一系列视频片段以及自主系统必须尝试复制的适当转向命令作为其输出。
训练数据集必须提供足够的多样性,以确保 CNN 学习的行为涵盖其预期操作条件的全部范围。这意味着训练数据应该包括直线道路和具有各种曲线的道路。数据还应包括白天和夜间驾驶,以及可能遇到的其他条件,例如不同类型的天气。
在训练期间,每个训练示例都作为视频图像以及正确的转向响应呈现给网络。随着 CNN 学习如何正确响应不同的输入,它会调整其卷积滤波器中的系数,以识别对执行所需任务有用的图像特征。
在自动驾驶中特别有用的一种图像特征是边缘检测。边缘检测涉及定位将图像的不同部分彼此分开的分界线。例如,道路上绘制的线条总是与路面颜色截然不同,以使驾驶员(包括人类和自动驾驶者)高度可见。
CNN 训练过程中最有趣、甚至令人着迷的属性是,通过简单地将路面的视频帧连同所需输出的准确示例呈现给 CNN,CNN 将发现有用的图像属性(例如边缘)和自动构建经过专门调整以识别有用特征的卷积过滤器。
由于 CNN 过滤器在整个图像中重复应用,因此过滤器可以检测图像中可能出现的任何对象。这是自动驾驶的一个重要特征,因为无法预测视频图像中可能出现重要物体的位置。
CNN 的实际应用可能包含多个卷积滤波器,每个滤波器都包含不同的系数集。这些过滤器中的每一个都在训练过程中进行了调整,以寻找不同类型的相关特征,这些特征可以在网络的后期阶段进行处理,以执行更高级别的功能,例如识别停车标志、交通信号灯和行人。
一个完整的 CNN 设计包含一个或多个卷积阶段,每个阶段都按本节所述进行操作。初始卷积阶段执行过滤以检测边缘等简单特征,而后期阶段结合这些特征来识别更复杂的对象,例如停车标志。
为了在不同的条件下可靠地检测一个特征,例如停车标志,训练数据必须包含从附近和远处看到的停车标志图像,以及从正面和侧面看停车标志的图像。角度,都在各种照明和天气条件下。
在 CNN 结构中,在每个卷积阶段计算的数据元素通过一个激活函数来产生该阶段的最终输出。尽管可以为此目的使用多种类型的函数,但常见的激活函数是 Rectified Linear Unit 函数,缩写为 RELU。
RELU 激活函数是一个非常简单的公式:给定卷积操作的输出值表,例如我们上面的卷积结果表,检查每个元素。如果元素小于 0,则将其替换为 0。这就是它的全部内容。我们的简单示例表不包含任何否定元素,因此应用 RELU 不会改变它。在实际应用中,RELU 激活函数提供了重要的好处,包括与其他常见激活函数相比提高了训练速度。
CNN 架构中使用的另一种阶段是池化阶段。高分辨率图像包含大量像素。为了将内存消耗和处理要求保持在可实现的范围内,有必要减少流经网络的数据量,同时保留导致正确识别图像中对象的特征。做到这一点的一种方法是一种称为池化的技术。池化将输入表中的多个元素组合成输出表中的单个元素。例如,可以组合卷积结果表的每个 2x2 像素子集,以将该子集的输出大小减小为单个数值。
有几种方法可以将子集中的像素组合成单个值。一种明显的可能性是计算平均值。对于表格左上角的 2x2 像素区域,平均值为 (31 + 112 + 96 + 83) / 4 = 80.5)。虽然平均提供了一种包含区域中所有像素效果的表示,但尚未证明这是一种在 CNN 中提供最佳性能的池化方法。相反,在许多情况下,简单地选择区域内的最大值作为池结果已被证明可以提供良好的性能。在此示例中,所选区域的最大值为 112。
这种技术称为最大池化。该表显示了将区域大小为 2x2 的最大池化应用于我们的卷积结果表的结果:
要将视频图像的二维结构和处理视频数据的卷积层转换为适合输入到传统人工神经网络 (ANN)的形式,需要将数据重新排列为维度格式。
与前面描述的其他数算一样,这是一个简单的过程。从二维结构到一维向量的转换称为展平。在扁平化层中,二维结构中的系数被简单地顺序转换为一个向量,作为传统 ANN 的输入。
在卷积、池化和扁平化阶段之后,CNN 实现一个或多个 ANN 层,每个层形成一个隐藏的神经元层。这些隐藏层通常是完全连接的神经元集。隐藏层之后是输出层,它呈现网络的最终输出以用于进一步处理。
当足够丰富的训练数据集与能够学习和保留必要知识的适当大小的 CNN 结构相结合时,就有可能将代表各种驾驶情况的大量信息编码到 CNN 和 ANN 系数中.
在适合上路的自动驾驶汽车设计中,CNN 设计和训练过程的结果是一个系统,该系统可以识别和识别驾驶员日常遇到的各种驾驶情况中遇到的物体类型。这是一项极其复杂的任务,计算技术和软件能力(无论是在网络结构中还是在训练过程中)可能需要数年时间才能在目标检测和识别任务中始终超越人类驾驶员。
下图展示了一个基本的(第 1 阶段,如上所述)CNN 架构,该架构已被证明能够引导自动驾驶系统(在某种程度上)保持在弯曲道路上的车道中心:
您可能想知道特定应用程序的 CNN 开发人员如何选择架构特征,例如层的类型和数量以及定义网络的其他参数。在许多情况下,对于实现 CNN 应用程序的总体目标,层类型和其他网络参数(例如卷积滤波器尺寸)的设置的最佳组合是什么并不清楚。
层的类型和维度以及描述神经网络的相关参数称为超参数。超参数是神经网络的高级设计特征,它定义了其结构的某些部分。超参数不同于神经连接上的加权因子,后者在训练过程中自动定义。
为特定应用程序配置神经网络的超参数值的选择可以被认为是一个搜索过程。神经网络设计的架构师可以使用软件工具来测试由不同序列的神经网络层类型以及与每一层相关的不同参数值组成的各种网络架构,例如卷积滤波器的维度或神经网络中的神经元数量。全连接层。这个搜索过程包括每个网络配置的训练阶段,然后是一个测试阶段,以评估训练网络的性能。在测试阶段表现最佳的网络设计将被保留,以在设计过程向前推进时进行进一步评估。
在开发了描述车辆状态和与驾驶车辆相关的所有对象的数据集之后,自动驾驶系统必须做出一系列决策,接下来将进行讨论。
使用在传感器数据处理的感知阶段提供的信息,自动驾驶系统决定它在每个时刻将执行的动作,以继续安全的车辆运行,同时朝着请求的目的地前进。它必须支持的基本功能包括车道保持、遵守道路规则、避免与其他物体碰撞以及规划车辆路径。这些是以下部分的主题。
车道保持任务要求车辆驾驶员(人类或自动驾驶)持续监控车辆在其占据的车道宽度内的位置,并将车辆的位置保持在与车道中心的可接受偏差范围内。
在良好的天气条件下,在清晰标记的道路上保持车道保持是一项简单的任务。另一方面,当车道标记被路面上的新雪或泥土遮挡时,自动驾驶系统(或人类驾驶员)可能会遇到很大的困难,要保持在车道中央。
只要激光雷达对周围环境的测量继续提供有效信息,基于激光雷达的自动驾驶系统在导航覆盖着一层薄雪的路面时应该不会受到任何损害。然而,基于摄像机的系统在这种情况下可能会遇到很大的困难。
自动驾驶系统在公共道路上运行时必须遵守所有交通法规和监管要求。这包括基本功能,例如停车标志停车和对交通信号灯做出适当反应,以及其他必需品,例如在情况需要时让出另一辆车的通行权。
当自动驾驶汽车必须与人工驾驶汽车共享道路时,驾驶任务可能会变得复杂。人类已经开发了一系列用于驾驶情况的行为,旨在让每个人都更容易驾驶。例如,拥挤的高速公路上的车辆可能会减速,以便为合并的车辆提供进入道路的空间。
自动驾驶系统需要感知驾驶员每天在道路上遇到的所有无生命物体和生物并做出适当的响应。这不仅包括其他车辆、行人和骑自行车的人,还包括每天在道路上蜿蜒的随机物体,例如梯子、汽车引擎盖、轮胎和树枝。松鼠、猫、狗、鹿、牛、熊和驼鹿等动物经常尝试在各个地区过马路。
人类驾驶员通常会尝试避免在道路上撞到较小的动物,前提是可以做到这一点而不会造成不可接受的危险情况。遇到大型动物时,可能需要避免撞击以防止杀死车辆乘员。在所有这些条件下,自动驾驶系统将有望超越人类驾驶员。
高级路径规划会生成一系列连接的路段,车辆在从起点行驶到目的地时打算经过这些路段。基于 GPS 的路线规划系统为当今车辆的驾驶员所熟悉。自动驾驶汽车使用相同的方法来制定到达目的地的计划路径。
低级路径规划包括沿着通往目的地的路径的所有驾驶行为。自动驾驶系统必须不断评估其周围环境并做出决策,例如何时变道、何时可以安全进入十字路口以及何时放弃尝试左转进入非常繁忙的街道并退回到备用路线.
与自动驾驶的各个方面一样,路径规划的最高目标是保证车辆乘员和车外其他人的安全,遵守所有交通法规,并在完成所有这些的同时,尽快到达目的地。
我们引入了传感器技术,可收集有关车辆及其周围环境的状态信息。此信息流入传感流程,该流程从传感器接收数据,验证每个传感器是否正常运行,并准备数据以供感知。感知过程获取原始传感器数据并从中提取有用信息,例如识别视频图像中的对象并确定其位置和速度。在准确了解车辆状态和所有相关周围物体的情况下,决策进程执行高级导航功能,例如选择到达目的地的路线,以及低级功能,例如选择在交叉路口的哪个方向。根据这些决定采取行动的过程将命令发送到执行转向、控制车速并向其他驾驶员提供信息的硬件单元,最显着的是通过操作转向信号灯。
本文介绍了自动导航车辆处理架构所需的功能。我们首先介绍了驾驶自主级别以及确保自动驾驶汽车及其乘员安全以及其他车辆、行人和静止物体安全的要求。我们继续讨论了自动驾驶汽车在驾驶时接收的传感器类型和数据。最后,我们检查了视频图像的卷积神经网络处理以提取重要特征,并概述了基于该信息做出驾驶决策的过程。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186