Motivated by this, we use semantics as an intermediaterepresentation a的繁體中文翻譯

Motivated by this, we use semantics

Motivated by this, we use semantics as an intermediaterepresentation and train a neural autoregressive model thatgeneralizes (zero-shot) to datasets it has never been trainedon. Specifically, we train a model that predicts future trajectories of traffic participants over the KITTI [1] dataset, andtest it on different datasets [2], [3] and show that the networkperforms well across these datasets which differ in scenelayout, weather conditions, and also generalizes well acrosssensing modalities (models trained using a combination ofstereo and LiDAR data perform well even when either ofthose modalities are absent at test time). In addition totransferring well, we outperform the current best future prediction model [6] on the KITTI [1] dataset while predictingdeep into the future (3 − 4 sec) by a significant margin.Furthermore, we conduct a thorough ablation study of ourintermediate representations, to answer the question “Whatkind of semantic information is crucial to accurate futureprediction?". We then showcase one important application offuture prediction—multi-object tracking—and present resultson select sequences from the KITTI [1] and Cityscapes [2]datasets
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
這個啟發,我們使用語義為intermediaterepresentation和訓練神經自回歸模型是<br>概括(零次),以數據集從未被訓練<br>上。具體而言,我們培養了一個模型,在KITTI [1]的數據集預測交通參與者的未來的軌跡,並<br>測試其在不同的數據集[2],[3],並顯示該網絡<br>執行跨越以及這些數據集,其在場景不同<br>佈局,天氣狀況,並且還跨越井概括<br>傳感方式(使用的組合訓練的模型<br>立體聲和LiDAR數據表現良好,即使任一的<br>這些方式是在測試時間不存在)。此外<br>轉印好,我們優於當前最佳將來預測模型[6]在KITTI [1]的數據集而預測<br>深入到未來-由顯著餘量(3 4秒)。<br>此外,我們開展的深入消融研究<br>中間表示,要回答這個問題:“什麼<br>樣的語義信息對未來的準確至關重要<br>的預測?”。然後,我們展示的一個重要的應用<br>未來的預測多目標跟踪和顯示結果<br>在特定的序列從KITTI [1]和都市風景[2] <br>的數據集
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
受此激勵,我們使用語義作為中間表示,並訓練神經自回歸模型,<br>將其從未經定型的資料集進行概括(零拍攝)<br>上。具體來說,我們訓練一個模型,通過 KITTI [1] 資料集預測交通參與者的未來軌跡,以及<br>在不同的資料集上測試它 [2] ,[3],並顯示網路<br>這些資料集的性能良好,這些資料集在場景中有所不同<br>佈局,天氣條件,也概括良好跨越<br>傳感模式(使用<br>身歷聲和雷射雷達資料性能良好,即使<br>這些模式在測試時不存在)。除了<br>傳輸良好,我們優於當前最好的未來預測模型 [6] 在 KITTI [1] 資料集,同時預測<br>以巨大的優勢深入未來(3 ~ 4 秒)。<br>此外,我們進行了徹底的消融研究,我們的<br>中間表示,回答問題"什麼<br>語義資訊的種類對於準確的未來至關重要<br>預測??然後,我們展示一個重要的應用<br>未來預測_多目標跟蹤_和呈現結果<br>在 KITTI [1] 和城市景觀 [2] 中選擇序列<br>資料
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
基於此,我們使用語義作為中間表示,並訓練一個神經自回歸模型<br>將(零射擊)推廣到從未訓練過的數据集<br>打開。具體地說,我們訓練了一個模型,該模型通過KITTI[1]數据集預測交通參與者的未來軌跡,並且<br>在不同的數据集[2],[3]上測試,並顯示網絡<br>在場景不同的數据集上表現良好<br>佈局、天氣條件,以及<br>傳感模式(使用以下組合訓練的模型<br>身歷聲和雷射雷達數據即使在<br>這些模式在測試時不存在)。除了<br>很好地傳遞,我們在預測的同時,在KITTI[1]數据集上優於當前的最佳未來預測模型[6]<br>以顯著優勢深入未來(3-4秒)。<br>此外,我們對我們的<br>中間陳述,回答問題“什麼<br>一種語義資訊對準確的未來至關重要<br>預測?”。然後我們將展示<br>未來預測多目標跟踪及研究現狀<br>從基蒂[1]和都市景觀[2]中選擇序列<br>數据集<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2024 I Love Translation. All reserved.

E-mail: