MIT科學傢發佈開源自動駕駛光影模擬器


麻省理工學院(MIT)的研究人員公佈首個開源模擬引擎,它能為可部署的自動駕駛汽車的培訓和測試構建現實環境。由於被證明是安全嘗試危險駕駛場景的富有成效的試驗臺,超現實的虛擬世界已被譽為自動駕駛汽車(AV)的最佳駕駛學校。

特斯拉、Waymo和其他自動駕駛公司都在很大程度上依靠數據來啟用昂貴的專有逼真的模擬器,這是因為測試和收集細微的數據通常不是最容易或最理想的再現。

考慮到這一點,來自MIT計算機科學和人工智能實驗室(CSAIL)的科學傢創建“VISTA 2.0”--這是一個數據驅動的模擬引擎,車輛可以在現實世界中學習駕駛並從幾乎崩潰的情況下恢復。更重要的是,所有的代碼正在向公眾開放源代碼。

“今天,隻有公司擁有像VISTA 2.0這種類型的模擬環境和能力的軟件,而且這種軟件是專有的。隨著這個版本的發佈,研究界將有機會獲得一個強大的新工具從而以加速自動駕駛的自適應穩健控制的研究和開發,”關於這項研究的論文的資深作者、MIT教授和CSAIL主任Daniela Rus說道。

VISTA 2.0建立在該團隊以往開發的模型VISTA的基礎上,跟現有AV模擬器有根本的不同,因為它是數據驅動的。這意味著它是根據真實世界的數據建立和逼真地渲染的--從而能直接轉移到現實中。雖然最初的迭代隻支持單車跟車和一個攝像頭傳感器,但要實現高保真數據驅動的模擬需要重新思考如何合成不同的傳感器和行為互動的基礎。

進入VISTA 2.0:一個數據驅動的系統,可以大規模地模擬復雜的傳感器類型和大規模的互動場景和交叉口。通過使用比以前的模型少得多的數據,該團隊能訓練自主車輛,而這些車輛可能比那些在大量真實世界數據上訓練的車輛要強大得多。

CSAIL博士生Alexander Amini說道:“這是數據驅動的自主車輛模擬能力的巨大飛躍,也是處理更大駕駛復雜性的規模和能力的增加。VISTA 2.0展示模擬傳感器數據的能力,遠遠超過二維RGB相機,還包括具有數百萬點的極高維度三維激光雷達、不規則時間的基於事件的相機,甚至還包括跟其他車輛的互動和動態場景。”

科學傢團隊能擴展諸如超車、跟車和談判等互動駕駛任務的復雜性,包括在高度逼真的環境中的多代理場景。

因為大部分數據隻是日常駕駛,所以這為自動駕駛汽車訓練人工智能模型涉及難以保障的不同種類的邊緣案例和奇怪、危險的場景。從邏輯上講,我們不能隻是為教一個神經網絡如何不撞上其他汽車而撞上其他汽車。

最近,有一個轉變是,從更經典的、由人類設計的模擬環境轉向由真實世界的數據建立的模擬環境。後者具有巨大的逼真度,但前者可以很容易地對虛擬攝像機和激光雷達進行建模。隨著這種模式的轉變,出現一個關鍵問題:自動駕駛汽車所需要的所有傳感器的豐富性和復雜性如激光雷達和基於事件的攝像機都是比較稀疏的並能否準確地被合成?

在一個數據驅動的世界裡,激光雷達傳感器數據更難解釋--你實際上是在試圖生成具有數百萬個點的全新的三維點雲,而這一切隻是從世界的稀疏視圖中提取。為合成三維激光雷達點雲,研究人員使用汽車收集的數據並將其投射到來自激光雷達數據的三維空間,然後讓一個新的虛擬車輛從原來的車輛所在的地方開過去。最後,他們在神經網絡的幫助下,將所有的感官信息投射回這個新的虛擬車輛的視野中。

再加上基於事件的攝像機的模擬,其運行速度超過每秒數千次事件,該模擬器不僅能模擬這種多模態信息而且還能夠實時進行模擬。這使得離線訓練神經網絡成為可能,但也可以在增強現實設置中對汽車進行在線測試以進行安全評估。Amini說道:“在數據驅動的模擬領域,這種規模的復雜性和逼真度的多傳感器模擬是否可能,則是一個非常開放的問題。”

就這樣,駕校變成一個聚會。在模擬中,你可以四處走動,有不同類型的控制器,模擬不同類型的事件,創建互動場景並直接丟進甚至不在原始數據中的全新車輛。他們測試車道跟蹤、車道轉彎、汽車跟蹤及更多棘手的場景如靜態和動態超車。有多機構,真實的和模擬的代理人都可以互動,新的代理人可以被丟進場景並以任何方式控制。

但現在人類依賴的一個護欄還不能被模擬,那就是人類的情感。這是友好的揮手、點頭或確認的眨眼開關,這是團隊希望在未來工作中實現的細微差別類型。

“這項研究的核心算法是我們如何能夠采取一個數據集並建立一個完全合成的學習和自主的世界。這是一個平臺,我相信有一天可以在整個機器人技術的許多不同軸線上擴展。不僅僅是自動駕駛,還有許多依賴視覺和復雜行為的領域。我們很高興發佈VISTA 2.0,以此來幫助社區收集他們自己的數據集並將其轉換為虛擬世界,他們可以直接模擬自己的虛擬自主車輛,在這些虛擬地形上行駛,在這些世界中訓練自主車輛,然後可以直接轉移到全尺寸的真正的自動駕駛汽車,”Amini說道。


相關推薦

2022-08-10

信息--它還結合六個攝像頭和一個計算機視覺系統。根據科學傢們的說法,後者的設置使它能夠像人類飛行員那樣,從視覺上發現附近的飛機。該系統隨後能夠跟蹤這些飛機並預測其軌跡,必要時采取行動避免碰撞。據報道,它

2022-07-25

不同動物的表述在這條線上的位置。通過利用這種方法,科學傢們研究52個詞組,以看看該系統是否能學會對意義進行分類--比如根據動物的大小或對人類的危險程度判斷動物,或根據天氣或總體財富對美國各州進行分類。在其

2023-11-27

在昨晚(11月26日),達摩院的官網上仍掛著“量子計算科學傢”的招聘信息。而等到今早量子位在其官網查詢搜索時,相關的招聘頁面已經沒有。昔日的實驗室主頁也已經清空。確認裁撤的消息傳出後,不少網友感慨萬千,在

2024-02-19

一夜之間爆火全球。但奇怪的是,OpenAI聯合創始人兼首席科學傢伊爾亞·蘇茨克維(IlyaSutskever)卻在保持沉默,沒有轉發任何一條關於Sora的視頻或推文。Sora目前沒有公開測試權限,僅僅向公司內部負責安全風險評估的紅隊成員

2022-07-21

可能無法解決現實世界中的任務。”一位與該研究無關的科學傢表示,強化學習將成為未來機器人操控的基礎工具。上圖是40分鐘的機器人。在這項研究中所用的機器學習類型,其實是通過獎勵機器在環境中采取某些行動的方式

2024-02-23

被視為視頻生成服務的重大突破。然而,來自競爭對手的科學傢卻潑一盆冷水。Sora因其視頻穩定性和清晰度而受到市場青睞,但還有一些人對其給予更高厚望,認為其或許有機會沖擊人工智能的高峰——世界模擬器,這也是OpenA

2023-01-19

的重點是將二維材料作為矽的潛在替代品。但在此之前,科學傢們必須首先找到一種方法,在保持其完美結晶形態的同時,在工業標準矽片上設計這種材料。近期,麻省理工學院(MIT)的工程師們似乎找到一個可能的解決方案,

2023-02-08

被設計為既可以相互溝通,又與市政交通控制系統溝通。科學傢們現在建議,在受控的十字路口多設一個白燈,可以幫助將人類司機納入其中。這就是"白色階段"的意義所在。他們的想法是,當成群的自動駕駛汽車接近一

2023-11-25

上海簽署合作備忘錄當時,阿裡巴巴的阿裡雲部門和中國科學院在上海建立名為“阿裡巴巴量子計算實驗室(AQL)”的研究機構,目標是在2030年之前,開發出通用量子計算原型機。該實驗室主任兼首席科學傢潘建偉表示:“中

2022-07-06

麻省理工學院(MIT)的科學傢們,在近期的一篇新論文中提到——幫助用戶確定機器學習模型的預測是否可信的方法,對弱勢群體來說可能不太準確。由於解釋方法可能存在長期偏見,弱勢群體面臨的結果或變得更加糟糕。研究

2022-11-01

幾十年中被研究得相當多的領域,主要是因為它在建造自動駕駛汽車和其他可以像人類一樣"看"世界的工具方面有著直接和明顯的應用。然而,直到最近才看到這種水平的研究的一個領域是使用聲音而不是視

2022-10-01

公司在周五晚上的人工智能日演講中分享的唯一內容。自動駕駛總監AshokElluswamy在特斯拉人工智能日期間上臺發言,談及該公司的全自動駕駛軟件如何改進。他透露,現在有16萬客戶在運行測試版軟件,而去年這個時候隻有2000人

2024-02-18

形和水平視頻。而且計算量越高,視頻質量也會越高。AI科學傢、創業者賈佳亞在社交媒體上表示:Sora基於視頻的三維結構分解壓縮,用不同分辨率,不同時長,不同場景的各類視頻大量訓練diffusion model。在學術界連VIT的256*256

2024-03-07

息 》用 4090 顯卡演示的片段,如果是在 switch 掌機上玩,光影遠沒這麼豐富,分辨率隻有 540P-720P,還少不瘋狂掉幀的現象。而Android端的 YUZU,盡管不太穩定,也一樣能運行。比如托尼前段時間為測試Android掌機性能,還用 YUZU 跑