2021年十大開源SLAM算法
發(fā)布日期:2022/3/2 7:26:42 瀏覽量:
1.TANDEM
該方法由慕尼黑工業(yè)大約Daniel Cremers團隊提出來的純視覺SLAM,該框架在圣誕節(jié)前開源。視頻中使用的事RealsenseD455相機,帶有深度傳感器和IMU。但是該團隊大佬們不用這些,僅僅使用單目相機,實現(xiàn)實時跟蹤和稠密重建。
該工作主要有三個創(chuàng)新點:
1)一種新的單目實時稠密SLAM框架:將經(jīng)典的直接VO和基于學(xué)習(xí)的MVS重建無縫結(jié)合;
2)第一個利用全局TSDF模型渲染深度圖:實現(xiàn)單目稠密跟蹤前端;
3)一種新的MVS網(wǎng)絡(luò),CVA-MVSnet:他能夠通過視圖聚合和多急深度預(yù)測來使用整個關(guān)鍵幀窗口;
Github地址:https://github.com/tum-vision/tandem
論文名稱:TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view Stereo
2.MonoRec
該框架也是由慕尼黑工業(yè)大約Daniel Cremers團隊開源的另一個工作。 不需要激光雷達,只需要單目相機即可在動態(tài)環(huán)境下,實現(xiàn)半監(jiān)督稠密重建。動態(tài)環(huán)境重建一直都是難點,如何保證該方法不受移動物體的影響呢?
作者結(jié)合了深度MVS和單目深度估計算法,先試用了MaskModule識別移動像素,降低代價提中相應(yīng)的體素權(quán)重,在利用理解,比如自動駕駛和AR領(lǐng)域
論文地址:https://arxiv.org/abs/2011.11814
Github地址:https://github.com/Brummi/MonoRec
3.Range-MCL
該算法由伯恩大學(xué)Cyrill Stachniss團隊開源的激光SLAM算法,可用于自動駕駛汽車的激光雷達全局定位,該工作基于蒙特卡羅和粒子濾波來估計移動機器人或自動駕駛汽車的姿態(tài)以實現(xiàn)全局定位,傳感器模型將當(dāng)前激光雷達掃描的距離圖像還有三角網(wǎng)格渲染的合成距離圖像,進行比較跟新粒子權(quán)重,該方法簡單有效,可以在不同的數(shù)據(jù)集和環(huán)境中使用不同類型的激光雷達掃描,無需微調(diào),并且在動態(tài)的室外大范圍環(huán)境中取得良好的全局定位結(jié)果
PPT鏈接:https://pan.baidu.com/s/1RFYka89CHnNOGrjp9SXQjw 提取碼:ir8o
Github地址:github.com/PRBonn/range-mcl
4.MULLS
蘇黎世聯(lián)邦理工學(xué)院、禾賽、洛桑聯(lián)邦理工學(xué)院開源的一種高效、低漂移、通用的三維激光雷達SLAM系統(tǒng)。適用于各種場景,各種規(guī)格的激光雷達。前端使用雙閾值地面濾波和PCA,從每幀中提取地面、柱子等特征,然后利用多尺度線性最小二乘ICP算法,實現(xiàn)了當(dāng)前幀與局部子地圖的配準(zhǔn)。對于后端,在存儲的歷史子圖之間進行分層位姿圖優(yōu)化,以減少因航位推算而產(chǎn)生的漂移。
論文名稱:MULLS: Versatile LiDAR SLAM via Multi-metric Linear Least Square
開源代碼:https://github.com/YuePanEdward/MULLS
5.LiLi-OM
德國卡爾斯魯厄理工學(xué)院,開源的緊耦合激光雷達-慣性里程計SLAM算法,它專門用于固態(tài)機械激光雷達SLAM。主要特點:
1)、針對Livox Horizon的不規(guī)則掃描模式量身定做了新的特征提取方法;
2)、前端為基于特征的輕量級激光雷達里程計,采用自適應(yīng)關(guān)鍵幀選取,提供快速的運動估計;
3)、后端采用基于關(guān)鍵幀的分層滑動窗口優(yōu)化,以直接融合IMU和LIDAR測量數(shù)據(jù)。
該系統(tǒng)為各種場景下的移動感知提供了一種經(jīng)濟有效的解決方案。
論文:https://arxiv.org/abs/2010.13150
Github:GitHub - KIT-ISAS/lili-om: LiLi-OM is a tightly-coupled, keyframe-based LiDAR-inertial odometry and mapping system for both solid-state-LiDAR and conventional LiDARs.
6. FAST-LIO2
香港大學(xué)張富團隊開源的新一代激光雷達慣性里程計FAST-LIO2,該方法可用于自動駕駛、無人機、快速移動的手持設(shè)備等場景。有點如下:
1)、計算效率高,在大型室外環(huán)境中幀率能達到100HZ;
2)、魯棒性高,在宣戰(zhàn)度高達1000度/秒的雜亂室外環(huán)境中進行可靠的姿態(tài)估計;
3)、通用性好,使用于多線旋轉(zhuǎn)和固態(tài)激光雷達、無人機和手持平臺;
4)、精度高,能獲得更高或與現(xiàn)有方法相當(dāng)?shù)木?/span>
Github地址:GitHub - hku-mars/FAST_LIO: A computationally efficient and robust LiDAR-inertial odometry (LIO) package
7.R3LIVE
該系統(tǒng)是視覺+激光+慣性的多傳感器融合SLAM系統(tǒng),基于前一個版本提出了能夠?qū)崟r、低漂移的重建稠密、精確的三維彩色環(huán)境點云地圖。
項目地址:github.com/hku-mars/r3live
8. GVINS
香港科技大學(xué)劭劼團隊的一個緊耦合的GNSS-視覺-管道融合的SLAM系統(tǒng)。即使在RTK失效、沒有特征點的情況下也很穩(wěn)定,主要創(chuàng)新點:
1)、一種在線的由粗到細(xì)的初始化GNSS-視覺-慣性狀態(tài)的方法;
2)、一種基于優(yōu)化的緊耦合融合方法,在概率框架下將視覺慣性數(shù)據(jù)與多星座GNSS原始測量值融合;
3)、提供無漂移的6-DOF全局位姿估計器,能夠在GNSS信號可能被大量攔截甚至完全不可用的復(fù)雜環(huán)境中,提供無漂移的6-DOF全局位姿估計。
Github: https://github.com/HKUST-Aerial-Robotics/GVINS
9.LVI-SAM
麻省理工大佬TixiaoShan繼LIO-SAM又開源了lvi-sam,這是一個激光+視覺+慣性的緊耦合多傳感器融合的slam系統(tǒng)。用于移動機器人的實時狀態(tài)估計和建圖。主要創(chuàng)新點:
1)、通過因子圖同時實現(xiàn)多傳感器融合、全局優(yōu)化和回環(huán)檢測;
2)、通過故障檢測機制、避免單一子系統(tǒng)故障導(dǎo)致系統(tǒng)不能使用的情況,提高了整個系統(tǒng)魯棒性;
Github:https://github.com/TixiaoShan/LVI-SAM
10.DSP-SLAM
物體級語義SLAM:dsp-slam,以O(shè)RB-SLAM2為框架,為前景對象構(gòu)建了一個豐富而精確的稠密3D模型的聯(lián)合地圖。并用稀疏的地標(biāo)點來表示背景,遲滯三種不同的模式:單目、雙目或雙目+激光,每秒10幀,利用物體的形狀先驗,對新見到的物體精確且完整的重建。
代碼地址:https://github.com/JingwenWang95/DSP-SLAM
————————————————
原文鏈接:https://blog.csdn.net/zbr794866300/article/details/122254929
馬上咨詢: 如果您有業(yè)務(wù)方面的問題或者需求,歡迎您咨詢!我們帶來的不僅僅是技術(shù),還有行業(yè)經(jīng)驗積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生