|
|
|
《智能駕駛之激光雷達(dá)算法詳解》多傳感器融合 SLAM
鑒于各傳感器的工作特性及其局限性,單獨依賴一種或兩種傳感器在復(fù)雜路況下往往難以確保高精度定位。例如,激光里程計在隧道、高架等環(huán)境下易受影響,而IMU與輪速計則受限于累積誤差,難以獨立提供可靠位置信息。GPS在特定場景如立交橋、隧道及高樓密集區(qū)則常遭遇信號丟失問題。視覺里程計則受天氣、光照及動態(tài)環(huán)境變化影響較大,其穩(wěn)定性亦受挑戰(zhàn)。當(dāng)前學(xué)術(shù)界與工業(yè)界正致力于通過多傳感器融合技術(shù),實現(xiàn)高精度、穩(wěn)定且實時的定位解決方案。多傳感器融合SLAM主要分為松耦合與緊耦合兩大類別,其中緊耦合方式因能更充分融合各傳感器信息,成為研究重點。
在緊耦合領(lǐng)域,已有多種創(chuàng)新算法涌現(xiàn)。如X.Za0等人在IROS 2019上提出的LIC-Fusion算法,基于MSCKF框架實現(xiàn)了激光雷達(dá)、IMU與相機(jī)的緊密協(xié)作。牛津大學(xué)D.wi油團(tuán)隊則依托因子圖框架,融合了激光里程計、視覺里程計與IMU預(yù)積分因子,實現(xiàn)了高精度定位。香港大學(xué)Mars實驗室更是在此基礎(chǔ)上,提出了RLIVE與R'LIVE算法,通過結(jié)合濾波與平滑優(yōu)化技術(shù),進(jìn)一步提升了激光雷達(dá)、IMU與相機(jī)的融合定位精度與建圖能力。為滿足L4級智能駕駛等高級應(yīng)用場景的需求,學(xué)者們還探索了結(jié)合高精點云地圖的全局定位方法。百度團(tuán)隊通過誤差狀態(tài)卡爾曼濾波框架,實現(xiàn)了激光雷達(dá)、GNSS、IMU與先驗點云地圖的深度融合,實現(xiàn)了厘米級定位精度。圖森未來則進(jìn)一步挑戰(zhàn)極限,嘗試在無激光里程計的情況下,僅憑輪速計、IMU與先驗點云地圖,實現(xiàn)了無人物流卡車的高精度全局定位。在此背景下,特選激光雷達(dá)+IMU+視覺組合定位中的RPLIVE算法,以及圖森未來在ICRA 2021上提出的基于激光雷達(dá)特征地圖輔助的多傳感器緊耦合定位算法進(jìn)行深入探討,以期洞悉其背后的原理與技術(shù)創(chuàng)新。
視覺、激光雷達(dá)、IMU融合的RLVE算法
RLVE算法,源自香港大學(xué)Man Li等人在IROS 2021的卓越貢獻(xiàn),是一種創(chuàng)新的實時傳感器融合SLAM算法。該算法巧妙地將激光雷達(dá)、相機(jī)與IMU緊密集成于一個高效預(yù)處理模塊中,隨后通過現(xiàn)代優(yōu)化技術(shù)實現(xiàn)精準(zhǔn)定位與建圖。Li團(tuán)隊?wèi){借三種傳感器的深度協(xié)同,使RLVE能夠從容應(yīng)對視覺失效及激光雷達(dá)里程計挑戰(zhàn),室內(nèi)外測試中均展現(xiàn)出卓越的性能與成果。算法的核心流程清晰分為兩大板塊:里程計模塊與因子圖優(yōu)化模塊。里程計模塊依托于先進(jìn)的誤差狀態(tài)卡爾曼濾波框架,無縫融合激光雷達(dá)、相機(jī)與IMU數(shù)據(jù),初步估算系統(tǒng)姿態(tài),并分別針對各傳感器特性進(jìn)行優(yōu)化輸出。其獨特之處在于,通過誤差狀態(tài)空間的迭代更新策略,將問題轉(zhuǎn)化為最大化后驗估計,運(yùn)用高斯牛頓法高效求解。在激光雷達(dá)處理上,采用平衡特征點提取與運(yùn)動補(bǔ)償技術(shù);相機(jī)端則運(yùn)用快速角點提取與KLT光流跟蹤,確保視覺信息的精確捕捉。為進(jìn)一步提升視覺測量的精準(zhǔn)度,因子圖優(yōu)化模塊引入動態(tài)滑窗機(jī)制,對視覺地標(biāo)、關(guān)鍵姿態(tài)及傳感器間的時間偏差進(jìn)行精細(xì)調(diào)整與優(yōu)化,從而構(gòu)建出更加精確與魯棒的環(huán)境地圖。RLVE解法以其創(chuàng)新的理念與卓越的性能,為SLAM領(lǐng)域樹立了新的標(biāo)桿。
![]()
在智能駕駛?cè)蝿?wù)中,高精度要求促使我們實時結(jié)合激光雷達(dá)、相機(jī)及IMU等傳感器,以確保在復(fù)雜環(huán)境中,如隧道、橋梁等GPS信號受限的區(qū)域,定位算法的精準(zhǔn)度、實時性和魯棒性。為了實現(xiàn)長距離的絕對定位,學(xué)界提出并應(yīng)用了基于多傳感器緊耦合的定位算法(Tightly-Coupled Multi-Sensor Localization, TCML),這一創(chuàng)新在RA2D1會議上得以展示。TCML算法構(gòu)建于因子圖優(yōu)化框架之上,巧妙地將IMU數(shù)據(jù)、輪速計信息與激光雷達(dá)點云地圖的融合轉(zhuǎn)化為一個優(yōu)化問題,利用固定延平滑(fixed-lag smoothing)技術(shù)求解。具體而言,算法中,激光雷達(dá)點云與預(yù)先構(gòu)建的地圖特征相匹配,實現(xiàn)了對車輛全局位姿的估計;同時,結(jié)合車輛運(yùn)動學(xué)模型和輪速計數(shù)據(jù),精準(zhǔn)捕捉車輛局部時刻的相對位姿變化。兩者相輔相成,共同約束車輛狀態(tài)的最優(yōu)估計。
![]()
圖13-5清晰展示了TCML算法的整體流程,其關(guān)鍵傳感器包括輪速編碼器、IMU和激光雷達(dá),而一張精細(xì)的激光雷達(dá)特征地圖則是算法不可或缺的外部數(shù)據(jù)源。輪速編碼器負(fù)責(zé)提供車輛速度的直接觀測,IMU則用于計算幀間相對位姿變化,并作為系統(tǒng)狀態(tài)的初步估計。激光點云在IMU校正運(yùn)動畸變后,與地圖特征精準(zhǔn)匹配,從而得到系統(tǒng)位姿的精確估計。最終,TCML算法通過局部滑窗內(nèi)的因子殘差最小化,實現(xiàn)了傳感器信息的緊耦合優(yōu)化,采用固定間隔平滑策略,迭代提升系統(tǒng)位姿估計的精度,詳細(xì)過程如圖13-6所示。利用激光雷達(dá)、IMU與輪速計等多源傳感器的緊密集成,實現(xiàn)長距離、高精度且魯棒的實時定位技術(shù)。為縮減點云處理時間與計算負(fù)荷,TMFL算法巧妙地從密集點云地圖中篩選稀疏特征點,并通過每幀激光點云的均勻采樣策略,精簡特征匹配點數(shù)量,同時確保定位精度不受損。在因子圖優(yōu)化框架下,該算法融合激光雷達(dá)特征、IMU預(yù)積分及輪速計速度信息,對車輛狀態(tài)進(jìn)行聯(lián)合優(yōu)化,并運(yùn)用固定后平滑策略,簡化優(yōu)化難題,加速算法響應(yīng)。
另外最近部門招聘,要求如下:
內(nèi)外飾數(shù)字模型工程師
1、負(fù)責(zé)內(nèi)飾全倉數(shù)字模型設(shè)計工作
2、對內(nèi)飾零部件有充分了解、IP、門板、console等零部件
3、負(fù)責(zé)內(nèi)飾IP、門板、座椅、console、頂棚、立柱等零部件的設(shè)計工作
4、掌握內(nèi)飾零部件之間的配合關(guān)系,并完整表達(dá)設(shè)計意圖。
要求
1、大專及以上學(xué)歷,藝術(shù)設(shè)計、工業(yè)設(shè)計相關(guān)專業(yè)
2、熟練使用ALIAS軟件
3、 測試A級至少5-8年實際CAS、A面設(shè)計工作經(jīng)驗 測試B級至少3-5年CAS、A面設(shè)計工作經(jīng)驗
4、善于團(tuán)隊合作、有責(zé)任心、敢于擔(dān)當(dāng)、工作主動積極
有意者戳 汽車造型/產(chǎn)品設(shè)計師社會招聘-表單-金數(shù)據(jù) (jsj.top) |
|
|