麻省理工學院計算機科學和人工智能實驗室的研究人員發布了一個開源的模擬引擎,可以構建逼真的環境來訓練和測試自動駕駛汽車。
教導神經網絡來自主駕駛車輛需要大量的數據。這些數據中的大部分可能很難在現實世界中使用真實的車輛來保證。研究人員不能簡單地撞車來教導神經網絡不撞車,所以他們依靠模擬環境來獲得這種數據。這就是模擬訓練環境的作用,如CSAIL的VISTA 2.0。
VISTA 2.0是該團隊以前的模型VISTA的更新版本,是一個數據驅動的模擬環境,根據真實世界的數據進行了逼真的渲染。它能夠大規模地模擬復雜的傳感器類型和互動場景及交叉口。
麻省理工學院教授和CSAIL主任Daniela Rus是關于這項研究的論文的資深作者,他說:"今天,只有公司擁有像VISTA 2.0這種類型的模擬環境和能力的軟件,而且這種軟件是專有的。隨著這個版本的發布,研究界將有機會獲得一個強大的新工具,以加速自動駕駛的自適應穩健控制的研究和開發。"
VISTA 2.0的逼真環境反映了最近自動駕駛汽車行業的一個趨勢。開發人員正在從使用人類設計的模擬環境轉向使用根據真實世界數據建立的環境。
這些環境是有吸引力的,因為它們允許直接轉移到現實中。然而,要綜合自主車輛所需的所有傳感器的豐富性和復雜性可能很困難。例如,為了在這些環境中復制LiDAR,研究人員基本上需要使用世界的稀疏視圖來生成具有數百萬個點的新3D點云。
為了解決這個問題,麻省理工學院的團隊將從汽車上收集的數據投射到來自LiDAR數據的三維空間中。然后他們讓一個新的虛擬車輛從原來的車輛所在的地方開過去,并在神經網絡的幫助下,將感覺信息投射回新的虛擬車輛的視野中。
VISTA 2.0是麻省理工學院CSAIL的開源模擬引擎,可以模擬訓練自動駕駛汽車的環境。|來源:麻省理工學院CSAIL
該團隊還實時模擬了基于事件的攝像頭,其運行速度大于每秒數千次的事件。有了所有這些傳感器的模擬,你就能在模擬中移動車輛,模擬不同類型的事件,并將不屬于原始數據的全新車輛放入其中。
CSAIL博士生、兩篇新論文的共同作者亞歷山大-阿米尼(Alexander Amini)和他的博士生王俊軒(Tsun-Hsuan Wang)說:"這是自主車輛的數據驅動模擬能力的巨大飛躍,也是處理更大駕駛復雜性的規模和能力的提高。VISTA 2.0展示了模擬傳感器數據的能力,遠遠超出了二維RGB相機,還包括具有數百萬點的極高維度三維激光雷達、不規則時間的基于事件的相機,甚至還包括與其他車輛的互動和動態場景。"
麻省理工學院的團隊在馬薩諸塞州德文斯把一輛全尺寸的汽車拿出來測試VISTA 2.0。該團隊看到了結果的立即轉移性,既有失敗也有成功。展望未來,CSAIL希望能讓神經網絡理解并回應其他司機的手勢,如揮手、點頭或眨眼致意。
Amini和Wang與麻省理工學院CSAIL博士生Zhijian Liu、多倫多大學計算機科學助理教授Igor Gilitschenski、人工智能研究科學家和麻省理工學院CSAIL 20年博士Wilko Schwarting、麻省理工學院電子工程和計算機科學系副教授Song Han、麻省理工學院航空和航天學副教授Sertac Karaman以及麻省理工學院教授兼CSAIL主任Daniela Rus一起撰寫了論文。
美國麻省理工學院(MIT)的Hyperloop II團隊由一組具有航空航天,機械,電氣和系統工程背景的多學科研究人員組成。
MIT四十名學生合作設計和制造了Hyperloop II,這是一種高速、無摩擦的車輛,旨在通過空氣懸浮技術來運載人員或貨物。Hyperloop與許多需要軌道或在真空管運行軌道列車不同,這款模型僅需要平坦的表面并能在氣墊上行駛。它不依賴昂貴的磁性系統為其懸浮提供動力,不需要高昂的真空環境。
Hyperloop II是2019年在SpaceX Hyperloop Pod競賽中唯一以其功能齊全的空氣懸浮吊艙而聞名。這是一項年度的超級環形高鐵車廂大賽大賽,SpaceX公司旨在鼓勵開發新的運輸方式。該團隊在去年比賽中排名第5,并獲得了創新獎。因為大火摧毀了原始原型后,三周后該團隊再次對其軌道車進行了大幅度修改。
美國MIT開發的AirLev是第一款電動高速無摩擦空氣懸浮軌道車,旨在通過其空氣懸浮技術來運載人員或貨物。該團隊在2019年的SpaceX-Hyperloop大賽上展示了升級版-Hyperloop II,該軌道車在20秒內,以0到200 mph(時速200英里/352公里)迅速提升。
2025-01-24 09:48
2025-01-23 09:16
2025-01-23 09:14
2025-01-23 09:13
2025-01-23 09:12
2025-01-23 09:11
2025-01-23 09:10
2025-01-23 09:09
2025-01-23 09:07
2025-01-23 09:05