In order to learn whether training with similar dynamics can improve p的繁體中文翻譯

In order to learn whether training

In order to learn whether training with similar dynamics can improve performance, we train a 2nd LSTM model with 1/3 frames and their ground-truth labels of OTB-30, testing on the whole sequence frames. The OPE result is shown in 7(b). We find that, once trained on auxiliary frames with the similar dynamics, ROLO will perform better on testing sequences. This attribute makes ROLO especially useful in surveillance environments, where models can be trained offline with pre-captured data. Considering this attribute, we experiment incrementing training frames, expecting to see an improved performance. We train a 3rd LSTM model with 1/3 ground truths, but with all the sequence frames. Results in Fig 7(c) show that even without addition of ground truth boxes, the performance can increase dramatically when more frames are used for training to learn the dynamics. It also shows that for tracking, the training data in the benchmark is quite limited [19]. Its SRE and TRE results are shown in Fig. 8 for robustness evaluation. The AOS for each video sequence is illustrated in Table 1. Our method achieves the best performance for most test video sequences, often outperforms the second best by a large margin.
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
為了學習培訓有類似的動態是否可以提高性能,我們培養出第二個LSTM模型1/3幀和OTB-30的地面實況標籤,在整個序列幀測試。的OPE結果示於圖7(b)中所示。我們發現,一旦有類似的動態輔助幀的訓練,ROLO將更好地在測試序列執行。此屬性使得ROLO在監控環境中,模型可以離線使用前捕獲的數據進行訓練特別有用。考慮到這個屬性,我們嘗試增加訓練幀,期待看到一個更好的性能。我們培養了3 LSTM模型1/3基礎事實,但所有的序列幀。結果示於圖7(c)示出,即使不添加的地面實況盒,當多個幀用於訓練學習的動力性能會顯著增加。這也表明了跟踪,在基準訓練數據是非常有限的[19]。其SRE和TRE結果示於圖8為魯棒性的評價。為每個視頻序列的AOS在表1所示。我們的方法實現了對大多數測試視頻序列的最佳性能,往往優於大幅度第二最佳。
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
為了瞭解使用類似動力學的訓練是否可以提高性能,我們訓練了具有 1/3 幀及其 OTB-30 的地面真實標籤的第 2 個 LSTM 模型,對整個序列幀進行測試。OPE 結果顯示在 7(b) 中。我們發現,一旦在具有類似動力學的輔助幀上進行訓練,ROLO 將在測試序列上表現更好。此屬性使 ROLO 在監視環境中特別有用,在監控環境中,可以使用預捕獲的資料離線訓練模型。考慮到此屬性,我們嘗試增加訓練框架,期望看到更好的性能。我們訓練第三個LSTM模型與1/3地面真理,但與所有序列幀。圖 7(c) 中的結果顯示,即使沒有添加接地真方框,當使用更多幀來學習動力學時,性能也會顯著提高。研究還表明,對於跟蹤,基準中的訓練資料相當有限[19]。其SRE和TRE結果如圖8所示,用於魯棒性評估。表 1 說明了每個視頻序列的 AOS。我們的方法在大多數測試視頻序列中實現了最佳性能,通常以較大優勢優於第二佳。
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
為了瞭解相似動力學訓練是否能提高系統性能,我們訓練了第二個1/3幀LSTM模型及其OTB-30的地面真值標籤,並對整個序列幀進行了測試。OPE結果如7(b)所示。我們發現,一旦在具有相似動力學的輔助框架上訓練,ROLO在測試序列上會表現得更好。這個内容使得ROLO在監視環境中特別有用,在監視環境中,可以使用預先捕獲的數據離線訓練模型。考慮到這個特性,我們嘗試新增訓練幀,期望看到效能的提高。我們訓練了第三個LSTM模型,其中包含1/3的地面真相,但包含所有的序列框架。圖7(c)中的結果表明,即使不添加地面真值框,當使用更多幀進行訓練以學習動力學時,效能也會顯著提高。它還表明,對於跟踪,基準中的訓練數據非常有限[19]。其SRE和TRE結果如圖8所示,用於穩健性評估。每個視頻序列的AOS如錶1所示。我們的方法在大多數測試視頻序列中達到了最好的效能,通常比第二好的效能有很大的提高。<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2025 I Love Translation. All reserved.

E-mail: