智能汽车如何眼观六路、耳听八方?传感器融合与卡尔曼滤波技术

李永乐老师
23 Mar 202117:33

Summary

TLDRIn this educational video, teacher Li Yongle delves into the intricacies of autonomous driving technology, specifically focusing on Xiaopeng P7's NGP navigation-assisted driving feature. He explains sensor fusion technology, which combines various sensors like cameras, millimeter-wave radars, and lidar to perceive the car's surroundings and determine its precise location. Li Yongle also discusses the importance of high-precision mapping and the role of the Kalman filter in integrating sensor data to enhance the accuracy of autonomous driving systems, drawing parallels to historical navigation techniques and emphasizing the safety and efficiency benefits of this technology.

Takeaways

  • 🚗 **Introduction to Autonomous Driving Features**: The video discusses the NGP (Navigation Guided Pilot) autonomous driving assistance feature in the Xiaopeng P7 electric vehicle.
  • 📡 **Sensor Fusion Technology**: Autonomous vehicles use a combination of sensors like cameras, millimeter-wave radars, and ultrasonic radars to perceive the environment, similar to human senses.
  • 🌐 **High-Precision Mapping**: Xiaopeng P7 uses centimeter-level high-precision maps for accurate navigation, which is crucial for autonomous driving as it provides detailed road and environmental data.
  • 📍 **High-Precision Positioning**: The vehicle achieves high-precision positioning through a combination of GPS/BeiDou, ground-based stations like the QianXun Positioning System, and high-precision maps.
  • 🔬 **Sensor Characteristics**: Different sensors have unique strengths and weaknesses, such as lidar for accurate distance measurement and cameras for color and shape recognition.
  • 🌧️ **Weather Impact on Sensors**: Lidar has difficulty operating in adverse weather conditions, while millimeter-wave radars can penetrate rain and fog, making them suitable for all-weather use.
  • 🤖 **Machine Learning and Cameras**: Cameras, with the help of machine learning, can recognize traffic lights, lanes, and other road features, enhancing the vehicle's understanding of its surroundings.
  • 🧮 **Kalman Filter for Sensor Fusion**: The Kalman filter is used to integrate data from various sensors, providing a more accurate and reliable estimate of the vehicle's position and surroundings.
  • ⏱️ **Temporal and Spatial Calibration**: Sensor fusion involves both spatial and temporal calibration to align sensor data in terms of position and timing.
  • 📊 **Statistical Representation of Sensor Data**: The video explains how sensor data is represented statistically, with position estimates and their associated variances, following a Gaussian or normal distribution.
  • 🚢 **Historical Applications of Sensor Fusion**: The principles of sensor fusion and the Kalman filter have historical parallels in navigation, such as in sea voyages where船长s combined dead reckoning with celestial observations.

Q & A

  • What is the main topic discussed in the video script?

    -The main topic discussed in the video script is the technology behind autonomous driving, specifically focusing on sensor fusion and the NGP (Navigation Guided Pilot) feature of the Xiaopeng P7 electric vehicle.

  • What are the three types of sensors mentioned as crucial for high-level autonomous driving in the script?

    -The three types of sensors mentioned are LiDAR (laser radar), millimeter wave radar, and cameras.

  • How does a LiDAR system work and what are its advantages?

    -A LiDAR system works by emitting a laser beam that reflects off obstacles and returns to the sensor, allowing the system to calculate the distance to the obstacle based on the time difference between emission and reception. Its advantages include high precision in determining the distance and direction of obstacles, the ability to operate in the dark, and the capability to discern the shape of objects for 3D modeling.

  • What are the limitations of LiDAR systems as mentioned in the script?

    -The limitations of LiDAR systems include difficulty in penetrating rain, snow, and fog, inability to discern colors of objects, and thus, they cannot identify traffic lights or differentiate lanes.

  • What is the role of millimeter wave radar in autonomous vehicles?

    -Millimeter wave radar is used for its ability to provide accurate positioning and is capable of operating in all weather conditions, including rain and snow, making it an all-weather radar. However, it cannot distinguish colors or perform 3D modeling.

  • How do cameras contribute to the sensor fusion in autonomous vehicles?

    -Cameras act as the 'eyes' of autonomous vehicles, capturing light signals to identify colors and details such as traffic lights and lane markings. They enable the vehicle to understand the environment in terms of color and shape, complementing the distance and shape data provided by radar systems.

  • What is sensor fusion and why is it necessary for autonomous driving?

    -Sensor fusion is the process of combining data from multiple sensors to achieve a more accurate perception of the environment than any single sensor could provide. It is necessary for autonomous driving because it allows the vehicle to answer two critical questions: 'What is around me?' and 'Where am I?'

  • What is the difference between navigation-grade maps and high-precision maps used in autonomous vehicles?

    -Navigation-grade maps have a precision of about the meter level, which is not sufficient for autonomous vehicles that require high-precision maps with accuracy down to the decimeter or even centimeter level for precise positioning.

  • How does the high-precision map from companies like Gaode work?

    -Gaode's high-precision maps are created by sending a car equipped with LiDAR to capture the surrounding environment. This data is then used to create a detailed map that can be compared with real-time sensor data from the autonomous vehicle to achieve precise positioning.

  • What are the challenges in fusing data from different sensors?

    -The challenges include spatial and temporal calibration, where sensors may capture data from different angles and at different frequencies. Additionally, sensors may provide conflicting information, requiring a method to resolve these discrepancies.

  • Who is Rudolf Kalman and what is the Kalman filter?

    -Rudolf E. Kálmán was an Austrian-American mathematician and engineer known for developing the Kalman filter, a mathematical method for estimating the state of a system from a series of incomplete and noisy measurements, which is widely used in various fields including navigation and control systems.

  • How does the Kalman filter help in sensor fusion for autonomous vehicles?

    -The Kalman filter helps in sensor fusion by providing an optimal estimate of the vehicle's state by combining measurements from multiple sensors, giving more weight to the data from sensors with higher accuracy and resolving conflicts in sensor data.

Outlines

00:00

🚗 Introduction to Autonomous Driving Sensors

In this paragraph, teacher Li Yongle introduces the topic of autonomous driving, specifically focusing on the sensors used in self-driving cars. He explains the importance of sensor fusion, which is the combination of multiple sensors to perceive the environment accurately. The paragraph discusses the limitations of using a single sensor and how various sensors like cameras, millimeter-wave radars, and ultrasonic radars work together to provide a comprehensive understanding of the car's surroundings.

05:02

📡 Sensor Fusion Techniques and High-Precision Mapping

This paragraph delves into the specifics of sensor fusion technology, comparing it to human senses. It discusses how different sensors like lidar, millimeter-wave radar, and cameras each have unique strengths and weaknesses, and how they complement each other. The paragraph also introduces the concept of high-precision mapping, which is essential for autonomous driving as it provides detailed information about the car's precise location on the road. It explains the difference between navigation-grade maps and high-precision maps, and how high-precision maps enable centimeter-level accuracy.

10:02

🧭 The Role of Kalman Filter in Sensor Fusion

The third paragraph introduces the Kalman filter, a mathematical method developed by Rudolf E. Kálmán that is widely used to estimate the state of a system from a series of noisy measurements. It explains how the Kalman filter can reconcile discrepancies between sensor data, providing a more accurate overall understanding. The paragraph uses the example of GPS and other sensors to illustrate how the filter works, showing how it combines position data from different sources to achieve a more precise estimate of the car's location.

15:05

🛰 Applications of Kalman Filter in Navigation and Autonomous Driving

In the final paragraph, the application of the Kalman filter in navigation is discussed, drawing parallels with the methods used by ancient navigators and modern-day autonomous driving technology. It explains how the filter can be used iteratively with various sensors to refine the car's position and environmental understanding continuously. The paragraph concludes by emphasizing the importance of sensor fusion and the Kalman filter in making autonomous driving safer and more efficient, and invites viewers to subscribe to Li Yongle's YouTube channel for more updates.

Mindmap

Previous Topic on Autonomous Driving
Student's Query on Autonomous Vehicle Purchase
Li Yongleo's Discussion
Sensors as Equivalents to Human Senses
Importance of Sensor Fusion
Key Components of Autonomous Vehicles
Introduction to Autonomous Driving
Perception of External Environment
Decision Making and Execution
Role in Autonomous Vehicles
Visual Information Gathering
Color and Object Recognition
Cameras
Long Wavelength for Penetration
Limited in 3D Modeling
Millimeter Wave Radars
Mechanical vs. Solid-State
High Precision and 3D Modeling
Limited in Adverse Weather
LiDAR
Types of Sensors
Combining Strengths of Different Sensors
Overcoming Individual Sensor Limitations
Advantages of Sensor Fusion
Sensor Fusion Technology
Centimeter-Level Accuracy Required
Differentiation Between Lanes and Roads
Beyond Navigation Grade Maps
Satellite and Ground Station Calibration
High Definition Mapping with Laser Radar
Techniques for High Precision
XPeng P7's Use of High Precision Mapping
Combining Positioning Systems for Enhanced Accuracy
Application in Autonomous Vehicles
High Precision Mapping and Localization
Spatial and Temporal Calibration
Resolving Conflicting Sensor Data
Challenges in Sensor Integration
Optimal Estimation from Sensor Data
Weighting Sensor Data Based on Accuracy
Kalman Filter Principles
Navigation and Positioning in Various Fields
Enhancing Safety and Efficiency in Autonomous Driving
Practical Applications
Integration of Sensors and卡尔曼滤波
Analogies to Ancient Wisdom
XPeng NGP's Advanced Capabilities
Importance of Multi-Sensor Fusion
Subscription and Notification Options
Engagement with Li Yongle
Conclusion and Call to Action
Understanding Autonomous Driving Technology
Alert

Keywords

💡Sensor Fusion

Sensor Fusion is the process of combining data from multiple sensors to achieve more accurate and robust information than could be provided by any single sensor alone. In the context of the video, sensor fusion is crucial for autonomous vehicles to perceive their environment accurately. The video mentions that a car must use a variety of sensors, like cameras, radars, and lidars, to complement each other's strengths and weaknesses, which is essential for safe and efficient autonomous driving.

💡Autonomous Driving

Autonomous driving refers to the capability of a vehicle to navigate without human operation. The video discusses the importance of autonomous driving in the context of advanced vehicle technologies, emphasizing how multiple sensors and systems work together to enable a car to drive itself. It highlights the role of sensor fusion in achieving the level of environmental perception required for autonomous driving.

💡LiDAR (Light Detection and Ranging)

LiDAR is a remote sensing technology that uses lasers to measure distances and create high-resolution maps. In the video, LiDAR is described as a type of sensor that emits laser beams and calculates the distance to obstacles by measuring the time difference between emission and reflection. It is crucial for 3D modeling and is used in autonomous vehicles to detect the shape and distance of objects, although it has limitations in adverse weather conditions.

💡Millimeter Wave Radar

Millimeter Wave Radar is a type of radar that operates at millimeter wavelengths, used for detecting objects and measuring their speed. The video explains that millimeter wave radars are similar to LiDAR in principle but have longer wavelengths, allowing them to penetrate through rain and fog, making them suitable for all-weather conditions. They are used in conjunction with other sensors to improve the accuracy of an autonomous vehicle's perception of its surroundings.

💡Ultrasonic Radar

Ultrasonic Radar, also known as ultrasonic sensors, emit high-frequency sound waves and measure the reflection of these waves to detect objects. The video does not explicitly mention ultrasonic radars, but they are typically used in parking assistance and close-range object detection in vehicles, complementing other sensors for a more comprehensive understanding of the vehicle's immediate environment.

💡High-Precision Maps

High-Precision Maps are detailed digital maps with very high accuracy, used in autonomous vehicles to provide precise location data. The video discusses how high-precision maps, with centimeter-level accuracy, are necessary for autonomous driving, contrasting them with navigation-grade maps that only offer meter-level accuracy. High-precision maps are created using LiDAR-equipped vehicles that capture detailed environmental data, which is then used for precise vehicle positioning.

💡Centimeter-Level Positioning

Centimeter-Level Positioning refers to the ability to locate an object with an accuracy of within a centimeter. The video highlights the importance of centimeter-level precision for autonomous vehicles to determine their exact position on the road, such as whether they are in the main lane or an auxiliary lane, or which specific lane they are in. This level of precision is achieved through a combination of high-precision maps and sensor data.

💡Redundant Computing Platforms

Redundant Computing Platforms are backup systems that ensure continuous operation even if the primary system fails. In the context of the video, having redundant computing platforms in autonomous vehicles is crucial for safety, as it provides a fallback in case the main computing system encounters an issue. This redundancy helps maintain the vehicle's operational integrity and decision-making capabilities.

💡Kalman Filter

The Kalman Filter is an algorithm that uses a series of measurements observed over time, containing statistical noise and other inaccuracies, and produces estimates that tend to be more accurate than those based on a single measurement alone. The video explains how the Kalman Filter is used to integrate data from various sensors, such as GPS and radar, to provide a more accurate estimation of the vehicle's position. It's a fundamental concept in sensor fusion and is applied in various fields, including space travel and autonomous driving.

💡Navigation Grade Maps

Navigation Grade Maps are the standard maps used in GPS navigation systems, providing route guidance with meter-level accuracy. The video contrasts navigation grade maps with high-precision maps, emphasizing that the former is insufficient for autonomous driving, which requires the higher precision offered by the latter. Navigation grade maps are suitable for human drivers but lack the detail needed for precise vehicle localization in autonomous systems.

💡XPeng P7

The XPeng P7 is an electric vehicle model from the Chinese manufacturer XPeng, known for its advanced autonomous driving capabilities. In the video, the XPeng P7 is used as an example to illustrate the implementation of sensor fusion, high-precision maps, and other technologies in a real-world vehicle. It is equipped with multiple sensors, including millimeter wave radars and cameras, to achieve its advanced driver-assistance features.

Highlights

Introduction to sensor fusion technology in autonomous vehicles.

Explanation of how sensors in autonomous cars work like human senses.

Importance of using multiple sensors for accurate environmental perception.

Discussion on the three types of sensors used in high-speed driving: lidar, millimeter wave radar, and cameras.

Principle of lidar and its advantages in obstacle detection and 3D modeling.

Limitations of lidar in adverse weather conditions and inability to distinguish colors.

Introduction to millimeter wave radar and its ability to operate in all weather conditions.

Cameras' role in object recognition and color differentiation in autonomous vehicles.

Challenges of cameras in low-light conditions and their limitations in 3D modeling.

The necessity of sensor fusion for accurate environmental perception.

XPeng P7's use of multiple sensors including millimeter wave radars and cameras.

Importance of high-precision maps for autonomous vehicles and the difference from navigation-grade maps.

Methods to achieve high-precision positioning using GPS, ground-based stations, and high-definition maps.

Introduction to the concept of space and time calibration in sensor fusion.

Challenges in resolving contradictory information from different sensors.

Explanation of the Kalman filter and its role in integrating sensor data.

Application of the Kalman filter in navigation systems and its historical significance in space travel.

Practical implementation of the Kalman filter in estimating vehicle position and sensor data fusion.

Comparison of sensor data integration using the Kalman filter with historical navigation methods.

XPeng NGP's utilization of sensor fusion and the Kalman filter for enhanced safety and efficiency in driving.

Transcripts

00:00

各位同學 大家好 我是李永樂老師

00:01

前一段時間 我講了一期關於自動駕駛的話題

00:04

有小朋友就跟我說

00:05

他最近就買了一輛自動駕駛的汽車小鵬P7

00:08

它擁有多個攝像頭 毫米波雷達

00:11

超聲波雷達 分米級的高德地圖

00:13

以及厘米級的高精度定位

00:15

還有互為冗余的雙計算平臺

00:17

他想問我

00:17

這麽一大堆聽不懂的名詞 到底是什麽意思呢

00:20

今天我們就來聊一聊

00:21

小鵬汽車的NGP自動導航輔助駕駛功能

00:24

為了聊這個話題

00:25

我們首先來講一講傳感器的融合 傳感器融合

00:34

我們在上一次講自動駕駛的時候說過

00:37

一個汽車要想自動駕駛的話

00:38

它必須能夠自動地感知外界的環境

00:41

同時進行決策以及執行

00:43

在感知的層面 就需要一大堆傳感器進行配合

00:46

汽車的傳感器就相當於人的感官

00:48

人的感官不只有一種

00:49

比如說亞裏士多德說人的感官有五種

00:52

就是眼睛 鼻子 舌頭 耳朵還有身體

00:55

分別對應了視覺 嗅覺 味覺 聽覺

00:58

還有觸覺 是吧

00:59

每一種感覺都有它的特點

01:00

比如說大部分情況下

01:02

視覺的範圍是比較廣泛的

01:03

但是如果你遇到了雨雪天氣

01:05

也許聽覺能為我們提供更準確的信息

01:08

只有幾種感官相互配合

01:09

人們才能準確地判斷外界的環境

01:12

那麽對於汽車來講

01:13

同樣是如此

01:14

使用一種傳感器 不能準確地判斷外界環境

01:17

所有的自動駕駛汽車

01:18

必須使用多種傳感器相互配合

01:20

這就是所謂的傳感器融合技術

01:22

它能夠讓汽車眼觀六路 耳聽八方

01:25

回答兩個重要的問題

01:26

那就是我周圍有什麽以及我在哪裏

01:29

我們首先來看第一個問題

01:31

說汽車可以通過傳感器回答

01:33

說自己的周圍到底有什麽這個話題 是吧

01:40

一般來講

01:41

在具有高級自動駕駛功能的汽車上

01:43

它在高速行駛的時候

01:45

有三種傳感器發揮了這個作用

01:47

這三種傳感器分別是激光雷達

01:52

以及以前我們講過的叫毫米波雷達

01:57

毫米波雷達 還有就是攝像頭 攝像頭

02:03

每一種傳感器都有自己不同的特點

02:08

我們來解釋一下 畫個表格

02:09

表格畫完了

02:10

我們首先來說一說激光雷達

02:12

激光雷達的原理

02:13

就是發射一束激光

02:15

遇到障礙物 然後反射接收到回波

02:17

計算發射和接收的時間差

02:19

從而判斷障礙物的距離

02:21

激光雷達又分為兩種

02:22

有一種叫機械式激光雷達

02:24

就是它可以向不同的方向360度的旋轉

02:27

然後掃描 是吧

02:28

這樣就可以判斷

02:29

說周圍的障礙物離自己都有多遠了

02:31

可以獲得一個3D點陣

02:33

就可以勾繪出周圍的這個情況

02:35

還有另外一種激光雷達叫做固體激光雷達

02:38

它就是由很多個光源形成一個陣列

02:40

通過調相的方法

02:42

就可以實現向不同的方向發射激光

02:44

它不需要旋轉

02:45

而且這種雷達 它相比來講造價比較低

02:48

這個壽命也比較長

02:49

可能是未來激光雷達的這個發展方向

02:51

激光雷達有很多很好的特征

02:53

比如說 首先它的定位非常準確

02:56

它可以準確地判斷這個障礙物離我們有多遠

02:59

而且是什麽方向的

03:00

它都可以準確地判斷出來

03:01

同時激光雷達是自己發出電磁波接收回波

03:04

它不需要有外界的光

03:05

所以夜晚也可以使用

03:07

而且激光的波長很短

03:09

它可以判斷這個物體的表面的形狀 是吧

03:12

這個物體是一個平面 還是一個凸起

03:14

它都可以判斷出來

03:15

我們稱之為可以3D建模

03:17

但是激光雷達也有它的缺點

03:19

比如說 因為激光波長比較短

03:21

很難穿透雨雪雲霧

03:23

到雨雪雲霧的天氣

03:25

激光雷達就不能用了 對吧

03:27

再比如說 激光雷達是靠發射激光接收回波

03:30

測量物體的距離

03:31

它沒有辦法判斷

03:33

這個物體是紅色還是綠色的 是吧

03:35

它沒有辦法判斷物體的顏色

03:37

所以它看不出來紅綠燈 是吧

03:39

而且它也沒有辦法區分哪個車道線

03:41

是不是 這是激光雷達的一個缺點

03:43

那麽為了克服這些缺點

03:45

人們還需要其他雷達

03:46

比如說毫米波雷達

03:47

毫米波雷達和激光雷達原理類似

03:49

它只不過波長長一些

03:50

它也可以實現比較準確的定位

03:53

在夜晚也可以使用

03:55

它還有一個優點

03:56

就是因為波長長 可以穿透雨雪 是吧

03:58

所以也稱它為全天候雷達

04:00

白天晚上都能用 雨雪天氣也能用

04:03

但是它也有缺點

04:04

首先它跟激光雷達一樣

04:06

不能夠區分物體的顏色

04:08

而且因為它波長比較長

04:10

就沒有辦法準確地描繪出

04:11

這個物體到底是長什麽樣子

04:13

沒有辦法進行3D建模 這是它的一缺點

04:16

那麽怎麽辦呢

04:17

人們又提出我們還可以用攝像頭

04:19

攝像頭就相當於汽車的眼睛

04:22

它跟雷達不一樣

04:23

雷達是發射電磁波 接收回波

04:25

而這個攝像頭它只接收外界的光信號

04:28

它不往外發射 對不對

04:29

所以它的特征首先它可以判斷顏色 對吧

04:32

它拍攝了很多很多的照片

04:34

然後把這些照片輸入計算機 進行機器學習

04:36

它就可以知道這個是紅綠燈 那個是斑馬線

04:39

這個是人 那個是車 對吧

04:41

它就可以知道這些信息了

04:42

但是攝像頭也有它的缺點

04:44

首先來講 晚上沒光的時候

04:46

攝像頭肯定是用不了的 對不對

04:48

雨雪天氣 這個光也很容易被遮擋

04:51

所以也沒有辦法判斷前方的物體了

04:54

如果你是雙目攝像頭

04:55

你倒是可以進行簡單的定位

04:57

但是攝像頭它是有畸變的

04:59

所以它的定位準確度遠遠沒有雷達好

05:02

如果是單目攝像頭 那就沒有辦法實現定位了

05:04

同時攝像頭也沒有辦法進行3D建模

05:08

你這樣一看

05:08

每一種傳感器 其實都有它的優點和它的缺點

05:12

所以我們得把多種傳感器配合起來使用

05:14

才能夠準確地判斷出外界的環境

05:16

你比如說你用這個激光雷達進行定位 是吧

05:19

定位完了之後

05:20

用它勾勒出這個物體的這個形狀來

05:23

最後我們再用這個攝像頭進行上色

05:25

我就可以知道是什麽了

05:26

如果攝像頭發現前面有一只老虎

05:28

結果激光雷達判斷這是一個平面的 是吧

05:31

那我們就可以知道這是一張老虎的年畫

05:33

我就可以準確地進行判斷了

05:35

那小鵬P7就是利用了這樣的技術

05:37

它有5個毫米波雷達

05:38

還有14個攝像頭進行融合

05:40

那自動駕駛汽車除了要知道周圍有什麽以外

05:43

還有一個 就是自己在哪裏

05:45

或者說要實現這個高精度的定位

05:49

那我們現在定位用導航 是不是

05:51

我們用手機打開百度地圖或者高德地圖

05:54

我們就可以導航了

05:55

那種地圖它叫導航級地圖

05:59

導航級地圖精確度不高 大概是米級

06:04

就是說我們使用導航級地圖

06:06

它的誤差在幾米的這個量級

06:07

我沒有辦法區分

06:09

自己的汽車到底是在主路上還是在輔路上

06:11

到底是在第一條車道還是在第二條車道

06:14

那麽這種導航及地圖

06:15

其實對於自動駕駛汽車是不夠的

06:18

自動駕駛汽車必須使用高精度的地圖

06:22

高精地圖

06:24

這個高精地圖要精到什麽程度呢

06:27

要能夠對汽車進行分米級

06:29

甚至厘米級的這種定位

06:32

它的誤差要在分米甚至是厘米的量級

06:35

那怎麽才能做到這麽高的精度呢

06:38

我給大家介紹一下這個方法

06:39

首先我們知道一個汽車上面

06:42

它會有一些這個定位的模塊

06:45

它可以和這個衛星進行聯絡

06:48

比如說我們可以用GPS或者北鬥這個導航系統

06:52

用這個導航系統跟衛星進行聯絡

06:55

理論上來講 四顆衛星就可以把你定位了

06:59

這就是第一步

07:00

就是通過這個北鬥或者GPS我們可以進行定位

07:04

但是這樣定位它是存在一定的誤差的

07:06

比如說因為雲霧的影響造成的這個光速的變化

07:09

等等會有誤差

07:10

那麽這個誤差怎麽辦呢

07:11

我們可以在地面上建立一系列的基站進行校準

07:16

我們不光要你和這個衛星聯絡

07:19

你還要和地面的基站進行校準聯絡

07:22

很多公司就做這個事

07:23

比如說像這個千尋定位系統

07:26

千尋定位就是在地面上安裝了一大堆的基站

07:30

這樣它就可以提高你定位的精度

07:32

比如說像導航系統只能給你達到米量級

07:35

而這個千尋定位就可以輔助你

07:37

達到分米量級的定位

07:39

但是我們怎麽樣才能

07:40

進一步提高這個定位的精度呢

07:42

還有方法

07:43

比如說像這個高德地圖

07:45

他做這個高精度地圖的方法是這樣的

07:47

首先他在做地圖的時候

07:49

他就會派一輛帶有這個激光雷達的汽車上路

07:52

這個激光雷達的汽車

07:54

它就會把周圍的環境都拍下來

07:56

周圍可能有什麽呢

07:58

周圍可能有一個 比如說一個房子

08:01

也可能是有一棵大樹

08:03

也可能這邊有一個紅綠燈

08:05

也可能這邊還有一個什麽花壇之類的

08:09

那麽這些東西

08:10

都會被這個激光雷達拍攝下來

08:13

拍攝下來之後

08:14

它就把這個數據都記錄下來了

08:15

然後放到這個高精地圖上面 是吧

08:18

這個就是高德的這個高精地圖

08:20

然後當我們的這個自動駕駛汽車

08:23

去使用這個地圖的時候

08:26

它自動駕駛汽車不是也有這些傳感器嗎

08:28

它也會拍攝周圍的環境

08:29

它會把周圍的環境

08:30

再和高精地圖中已經拍攝好的這個環境

08:33

進行對比

08:34

它一對比就知道了

08:35

你看 我現在在主路上 我在輔路上

08:37

我在第一條道 還是在第二條道

08:39

我就可以達到厘米的量級了

08:41

這個小鵬汽車就采用了這樣的一個技術

08:43

首先通過這個定位系統

08:45

以及這個千尋定位系統

08:47

達到了一個分米級的定位

08:48

然後再通過這個高精地圖

08:50

跟周圍的環境進行比對

08:51

達到這個厘米級的定位

08:52

這就是自動駕駛汽車的一個定位的原理

08:55

那剛才我們介紹了傳感器融合的作用

08:58

但傳感器究竟是怎麽融合到一塊的呢

09:00

這是一個很復雜的技術問題

09:02

舉個例子來講

09:03

不同的傳感器它們的獲得信息是不一樣的

09:06

這裏面面臨兩個方面的問題

09:08

第一個問題叫做空間定標

09:10

就是你不同的傳感器

09:11

你是安裝在車上不同的位置的

09:13

所以角度也不一樣

09:15

這樣你會看到不同的情景 拍攝到不同的畫面

09:17

你怎麽通過空間坐標的方法

09:19

把這些個畫面給融合到一塊

09:21

這就叫空間定標 是吧

09:22

第二個是時間定標

09:24

每一個傳感器它對外界環境的感知頻率不一樣

09:28

比如說攝像頭 它可能每秒鐘拍攝25張照片

09:31

而這個毫米波雷達

09:32

它可能每秒鐘只是探測10次

09:35

這樣一來 攝像頭拍照片的時候

09:36

可能這個毫米波雷達沒有信息傳回來

09:39

所以我要通過一些方法

09:40

把這個不同時間的信號 又把它融合起來

09:43

這個就叫所謂的時間定標

09:45

除了空間定標和時間定標以外

09:47

更為重要的是

09:48

有的時候傳感器獲得的信息是彼此矛盾的

09:50

比如說攝像頭告訴我們前方有一堵墻

09:53

而毫米波雷達告訴我們前面是個斜坡

09:55

我們到底相信誰呢

09:56

比如說定位系統告訴我們現在在主路上

09:59

但是這個雷達告訴我們現在我們在輔路上

10:02

我們又該相信誰呢

10:03

因為每一種傳感器它都是有誤差的

10:05

所以這樣的矛盾是每時每刻都在發生的

10:07

我們該怎麽辦呢

10:08

這裏我們就不得不提一位

10:10

在工程界家喻戶曉的人物了

10:12

他是一位出生在奧地利的美國數學家和工程師

10:16

名字叫做魯道夫·卡爾曼

10:18

他提出了卡爾曼濾波

10:22

卡爾曼濾波曾經幫助阿波羅飛船登上了月球

10:27

現在也在每時每刻都在幫助我們的GPS導航系統

10:30

我們利用卡爾曼濾波

10:31

就可以把不同傳感器的信息融合到一塊了

10:34

我們舉一個例子

10:35

比如說我們通過定位系統

10:37

比如GPS定位 或者是什麽其他的定位系統

10:40

我們知道了這個汽車的位置

10:43

這個位置就是z₁

10:45

我告訴你汽車是在z₁的位置

10:47

但是因為GPS是有誤差的

10:49

它不能準確地告訴你在什麽位置

10:50

而只能告訴你在一個範圍內

10:52

它還有一個誤差或者說方差 σ₁²

10:56

z₁只是表示

10:58

你可能在的位置中的這個平均位置

11:02

或者叫期望

11:03

而這個σ₁²就代表了你的誤差大小

11:07

如果這個σ₁²特別特別小

11:09

就表示你的定位特別準確

11:11

σ₁²特別大

11:12

就表示你的定位不太準確 誤差特別大

11:14

一般來講我們認為

11:15

這個GPS定位也好 其他的定位也好

11:18

它的這個誤差情況

11:20

都滿足一個高斯分布 或者正態分布

11:22

以前我們講過高斯分布是什麽意思呢

11:25

畫一個圖像

11:26

縱坐標表示的是概率密度

11:29

就出現在某一個位置的概率密度

11:31

橫坐標是表示你的位置

11:33

如果說GPS告訴我們

11:35

你的位置是以z₁為平均位置

11:37

而標準差是σ₁

11:39

我們可以畫出一個圖像來

11:41

它就長這個樣子 是吧

11:43

它這個最大概率的位置就是z₁

11:46

這個圖像就告訴我們

11:47

你的位置最有可能是在z₁的位置

11:49

你離z₁位置越近 你出現的概率就越大

11:52

你離z₁位置越遠 你出現的概率就越小

11:55

如果這個函數特別的瘦高

11:57

那就意味著你給我的信息特別準確

11:59

你分布的位置都是在z₁附近的

12:01

如果這個函數特別的矮胖

12:03

那就說明你誤差特別大

12:04

我也不太清楚你到底是在什麽位置

12:07

這就是所謂的這種高斯分布或者說正態分布

12:10

這裏邊的這個σ

12:11

其實就表示它瘦高還是矮胖的程度

12:13

如果σ特別小 那這個函數就特別瘦高

12:16

就表示比較準確

12:17

σ特別大 就說明你比較矮胖

12:19

好 總而言之

12:20

這個GPS定位告訴了我們這個位置的信息

12:23

但是我們不是還有其他傳感器嗎

12:26

什麽雷達什麽的 攝像頭

12:28

我們這些傳感器它也可以告訴我們位置的信息

12:32

比如它告訴我們汽車的位置是在z₂

12:35

而且這個方差是σ₂²

12:39

我也可以再畫出這個傳感器告訴我們的情況

12:42

比如說它有可能是長這個樣子的 長這個樣子

12:46

這個樣子就告訴我們

12:48

傳感器認為我們的位置更加靠前一點 是不是

12:51

而且傳感器提供的信息可能更加準確

12:54

它的這個標準差σ₂比較小

12:57

而剛才這個GPS告訴我們的這個標準差

13:00

σ₁它是比較大的

13:02

現在我們得到兩個不同的信息

13:03

我們如何把它融合到一塊呢

13:05

這卡爾曼就說了

13:06

經過數學計算 你有一個最優的估計

13:10

最優的估計 最優的估計是什麽呢

13:15

那就是這有一個公式

13:16

這公式告訴我們你最優估計的位置等於什麽呢

13:21

=σ₂²z₁/(σ₁²+σ₂²)+σ₁²z₂/(σ₁²+σ₂²)

13:34

有的同學們說什麽亂七八糟的

13:35

其實這個問題並不是難理解的

13:38

咱們仔細看

13:38

z₁和z₂是兩個傳感器告訴我們的位置

13:42

我們最後估計的位置

13:43

一定是要把它融合到一塊得出一個結論

13:46

但是誰更準確我就更相信誰

13:49

你看這兩個圖像你就應該知道

13:51

這個σ₂更小一些

13:53

說明z₂這個信息更加準確

13:55

所以我在計算權重的時候

13:57

我應該讓z₂的這個權重更大一些

14:00

我怎麽才能讓z₂的權重更大一些呢

14:02

我讓它前面的權重是

14:03

σ₁²/(σ₁²+σ₂²)

14:05

你σ₁比較大 所以這個權重就大

14:08

大家能明白嗎 對不對

14:09

同樣道理 你這個z₁它的標準差比較大

14:12

說明它不是那麽的準確

14:13

所以它的權重就要小一些 是吧

14:16

所以你可以簡單地理解一下

14:17

這個其實就是把兩個數據融合到一塊了

14:20

在融合的時候 誰準確誰的權重就會大一些

14:25

同時我也可以知道新的這個方差

14:29

1/σ²=1/σ₁²+1/σ₂²

14:35

這就是卡爾曼告訴我們的最優結論

14:38

你會發現 這個新的標準差的平方或者說方差

14:42

它是比原來的兩個方差都要小的

14:44

所以最終我們會得出來一個新的估計情況

14:48

它是長這個樣子的

14:52

它首先它的均值是介於兩個估計值之間的

14:59

而且它的方差比兩個估計值都要小

15:02

或者說我們獲得了一個更加準確的估計

15:05

那麽假如這輛汽車還有其他傳感器

15:07

比如說有什麽速度計 加速度計

15:08

你還可以繼續進行卡爾曼濾波

15:11

這樣就會獲得一個更加準確的結果了

15:13

我們剛才介紹的這個模型

15:15

其實是最簡單的一個卡爾曼濾波模型

15:17

在實際的情況下 卡爾曼濾波不光是多維的

15:20

而且還是跟時間有關的 它是一個時續的

15:24

我們來看一下這個卡爾曼濾波

15:26

它在航海上有什麽應用 在航海上應用

15:31

其實人類在大航海時代開始的時候

15:33

就已經在不知不覺中使用這種濾波的方法了

15:36

比如說一個有經驗的船長

15:38

他在t₁的時刻他會有一個位置

15:41

他知道自己的位置

15:43

那麽他會有一個航向或者是航速表 是吧

15:47

他有航向 還有航速表

15:49

所以他通過航向和航速他可以估計

15:52

說t₂的時刻它有一個估計的位置

15:55

但是他並不會把這個位置作為最終自己的位置

15:58

他會怎麽樣

15:59

他會用六分儀去測

16:01

在六分儀測量的時候

16:02

它又會有一個估計的位置

16:04

這兩個估計的位置可能是不一樣的

16:07

於是它會怎麽樣

16:08

它會通過一定的方法把它融合起來

16:10

得到t₂的位置

16:11

那現在我們就知道了

16:13

其實你最佳的融合方法就是卡爾曼濾波 對吧

16:16

你t₂的位置有了之後

16:17

你還可以繼續通過航向和航速 對不對

16:21

你還可以繼續得出來一個估計的位置

16:24

然後你再通過六分儀

16:26

你再得到一個估計的位置

16:28

如此你把這兩個估計的位置再去算

16:31

你就會得到t₃時刻的

16:33

這個最好的一個估計位置

16:34

所以這就是在航海過程中

16:36

經常使用的一種方法

16:37

它的原理其實跟卡爾曼濾波是一樣的

16:39

多傳感器融合的原理同樣是如此

16:41

就是每一種傳感器

16:42

它提取的數據 獲得的特征以及做出的判斷

16:45

本質上都是一組帶有誤差的測量值

16:48

那麽我們可以通過卡爾曼濾波的方法

16:50

把這些測量值融合起來

16:51

得到一個最準確的結果

16:52

宇宙飛船登月的時候

16:54

需要通過各種方法來判斷自身的位置

16:56

修正軌道

16:57

現在的自動駕駛汽車

16:58

也要通過各種傳感器來給自己定位

17:00

同時判斷周圍的環境

17:02

所使用的原理其實與早期的航海家是一樣的

17:05

只不過我們現在有了更加高精尖的設備

17:07

以及更好的數學理論

17:09

中國古人說兼聽則明 偏聽則暗

17:11

兼聽就是多傳感器融合

17:13

從兼聽到明所需要的就是卡爾曼濾波

17:16

小鵬汽車NGP就是這樣

17:18

通過多傳感器融合和卡爾曼濾波技術

17:21

能夠對自己的位置和周圍的環境

17:22

做出更加準確的判斷

17:24

從而讓駕駛變得更加安全和高效

17:26

大家如果喜歡我的視頻

17:27

可以在YouTube帳號李永樂老師裏訂閱我

17:28

點擊小鈴鐺可以第一時間獲得更新信息