Shadow detection and removal, as well as vehicle occlusion are recurre的繁體中文翻譯

Shadow detection and removal, as we

Shadow detection and removal, as well as vehicle occlusion are recurrent difficulties. Motion detection is a very important task as it is one major feature of traffic monitoring applica- tions: cars are moving. There are several techniques to segment vehicles from the background of a scene picture or of a video frame. The most widespread techniques involve the calculation of the optical flow. In optical flow, we are interested in finding vector fields that describe the way that the image is changing. In other words, we try to detect where certain parts of the image have moved to in the next frame. Such techniques usually have two steps: i) to detect feature points, and then ii) to track them over the frames. There are several ways of achieving this, some of which are described in [14] and [15].Feature points are special points that are distinguishable from their neighbors. Each algorithm may use different strate- gies to detect and track these points. One alternative iscalculating the difference between two consecutive frames. Pixels for which difference is bigger than a threshold are considered to be moving. However, this technique does not detect the direction of movement and can only be used for simpler applications. Additionally, this algorithm suffers from the aperture problem. This problem happens when a surface with a smooth color moves. As the color is similar in all parts of the surface, movement may not be detected in areas of the captured image where the surface was already present because the difference is not sufficient to consider it a motion and thus, it is interpreted as image noise or small variations in illumination. This problem is demonstrated in Fig. 1. It has two consecutive frames with the same region highlighted. In Fig. 1c, the same region in the two frames is compared and augmented. Although they display a different part of a moving vehicle, focusing on smaller portions only is not enough to perceive any difference.A different approach is used by background subtraction methods, which are also able to detect moving objects. One important premise in the method is that the background will have small changes over time and foreground objects such as cars are moving objects which will contrast with the background. Therefore, if foreground objects are detected it is safe to consider them as moving objects. Ideally, for traffic monitoring use, this background image would be the same frame without moving objects, showing the scene as if there were no cars or other moving objects on it. There are some alternatives to accomplish this.The easiest method is choosing a fixed image that is the background image. After subtracting one image to another, those pixels whose difference is bigger than a threshold are considered to be moving pixels. This is usually too simplistic as changing illumination conditions, weather, noise or small movements of the camera may cause big differences when there are no moving objects in those regions.Better options involve making a background estimation image, based on the frames captured by the camera. There are several methods to estimate the background and foreground of a sequence of frames, of which [16] presents an interesting overview. The main difficulties of these algorithms happen in situations with very slow traffic movement or temporarily stopped vehicles as they start blending with the conceptual background. A solution to this problem is suggested in [5], as well as is an alternative proposed in [3] to use time-varying background and foreground intrinsic images. Both studies achieved very good results in terms of successfully segmenting background and foreground. Fig. 2 shows the results of a background estimation algorithm after running for around 30 seconds. It has a background estimation which is very close to the real background and was able to successfully identify moving objects without any extra processing or calculation.Vehicle segmentation is probably the most frequent type of information that is extracted from traffic surveillance videos. Its objective is to distinguish between vehicles from the background and also vehicles from each other. One common method to detect vehicles in a video sequence uses one of the previously analyzed motion detection or background estimation to detect the cars. A solution that compares the current frame with the background estimation using a quad- tree decomposition to find the pixels where cars are found is presented in [12]. As stated in its experimental results,
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
陰影檢測和刪除,以及車輛閉塞是經常性的困難。運動檢測是一個非常重要的任務,因為它是流量監測applica-蒸發散的一個主要特點:汽車正在移動。有幾種技術來細分車輛從場景畫面或視頻幀的背景。最普遍的技術包括光流的計算。在光流,我們感興趣的是發現,描述了圖像被改變的方式的矢量場。換句話說,我們嘗試檢測其中圖像的某些部分在下一幀已經移動到。這樣的技術通常有兩個步驟:i)檢測的特徵點,然後ⅱ)跟踪它們在幀。有實現此的幾種方式,其中的一些在[14]和[15]中描述。<br>特徵點是從他們的鄰居區別的特殊點。每種算法可以使用不同的strate-吉斯探測和跟踪這些點。一個替代方案中iscalculating兩個連續幀之間的差異。像素,其差比閾值更大的被認為是移動。但是,這種技術不檢測運動的方向,只能用於簡單的應用。此外,該算法從孔徑問題的困擾。這個問題發生在一個表面具有平滑的色彩移動。作為顏色是在表面的所有部分類似,移動可能無法在所捕獲的圖像的區域中檢測到的表面已經存在在由於差不足以考慮它的運動,因此,它被解釋為圖像噪聲或在照明的小變化。此問題是體現在圖1它已經用相同的區域中的兩個連續的幀突出顯示。在圖1c中,在兩個幀的相同區域進行比較和增強。雖然它們顯示在移動車輛的不同部分,重點放在較小的部分僅是不夠的,感知的任何差異。<br>一種不同的方法是通過背景減法方法中,其也能夠檢測移動物體使用。在該方法的一個重要前提是,背景會隨著時間的推移和前景物體的微小變化,如汽車正在將與背景形成對比的對象。因此,如果檢測到的前景對象可以安全地把它們當作移動的物體。理想情況下,交通監控使用,這個背景圖片是不移動的物體,如顯示如果沒有汽車或者它的其他移動物體的場景相同的幀。有一些替代品來完成這一點。<br>最簡單的方法是選擇一個固定的圖像是背景圖像。減去一個圖像到另一個圖像後,那些像素差為大於閾值被認為是移動像素。這通常是過於簡單的變化的照明條件,天氣,噪聲或照相機的小的移動可以引起很大的差異時,有在這些區域中沒有移動物體。<br>更好的選擇涉及一種製造背景估計圖像,基於由照相機捕獲的幀。有幾種方法來估計幀的序列的背景和前景,其中[16]提出了一個有趣的概述。當他們開始與概念背景混合這些算法的主要困難在發生非常慢行交通的運動或暫時停止車輛的情況。解決這個問題,建議在[5],以及是在[3]中提出了使用隨時間變化的背景和前景徵圖像的替代方案。這兩項研究中的成功分割的背景和前景方面取得了很好的效果。圖2示出了背景估計算法的30秒左右運行後的結果。<br>汽車分割大概是從交通監控視頻中提取的最常見類型的信息。其目的是從背景車輛和也彼此車輛之間進行區分。以檢測視頻序列中的車輛的一種常見方法是使用先前分析的運動檢測或背景估計以檢測所述轎廂中的一個。當前幀與背景估計使用四核樹分解以找到被發現汽車在[12]給出的像素進行比較的溶液。正如在其實驗結果說明,
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
陰影檢測和去除,以及車輛遮擋是反復遇到的困難。運動檢測是一項非常重要的任務,因為它是交通監控應用的一個主要特點:汽車正在移動。有幾種技術可以從場景圖片或視頻幀的背景中分割車輛。最廣泛的技術涉及光流的計算。在光流中,我們有興趣尋找描述圖像變化方式的向量場。換句話說,我們嘗試檢測圖像的某些部分在下一幀中移動到的位置。此類技術通常有兩個步驟:i) 檢測要素點,然後 ii) 在幀上跟蹤它們。有幾種方法可以實現此目標,其中一些在 [14] 和 [15] 中進行了描述。<br>特徵點是可與其相鄰點區別的特殊點。每個演算法可能使用不同的戰略來檢測和跟蹤這些點。另一種方法是計算兩個連續幀之間的差異。差異大於閾值的圖元被視為正在移動。但是,此技術不檢測運動方向,只能用於更簡單的應用。此外,該演算法還存在孔徑問題。當顏色平滑的曲面移動時,將發生此問題。由於表面所有部分的顏色相似,因此在捕獲的圖像中已經存在表面的區域可能無法檢測到運動,因為差異不足以將其視為運動,因此,它被解釋為圖像雜訊或小雜差離子在照明。圖 1 演示了此問題。它有兩個連續幀,其中突出顯示了相同的區域。在圖 1c 中,對兩個幀中的同一區域進行了比較和擴充。雖然它們顯示移動車輛的不同部分,但只關注較小的部分並不足以感知任何差異。<br>背景減法方法採用不同的方法,也能夠檢測移動物體。該方法的一個重要前提是,背景將隨時間發生小的變化,而前景物件(如汽車)是移動的物件,這將與背景形成對比。因此,如果檢測到前景物件,則可以安全地將它們視為移動物件。理想情況下,對於交通監控使用,此背景圖像將是相同的幀而不移動物件,顯示場景,就好像沒有汽車或其他移動物件一樣。有一些替代方法可以做到這一點。<br>最簡單的方法是選擇固定圖像,即背景圖像。將一個圖像減為另一個圖像後,其差值大於閾值的圖元將被視為移動圖元。這通常過於簡單化,因為當這些區域中沒有移動物體時,不斷變化的照明條件、天氣、噪音或攝像機的小移動可能會導致很大差異。<br>更好的選項包括根據攝像機捕獲的幀進行背景估計圖像。有幾種方法可以估計一系列幀的背景和前景,其中 [16] 提供了一個有趣的概述。這些演算法的主要困難發生在交通移動非常緩慢或暫時停止車輛的情況下,因為它們開始與概念背景混合。在 [5] 中提出了此問題的解決方案,並在 [3] 中提出了使用時變背景和前景內在圖像的替代方法。兩項研究在成功分割背景和前景方面都取得了很好的效果。圖 2 顯示了運行約 30 秒後的背景估計演算法的結果。它有一個背景估計,非常接近真實背景,並能夠成功地識別移動的物件,而無需任何額外的處理或計算。<br>車輛細分可能是從交通監控視頻中提取的最頻繁資訊類型。其目的是區分車輛與背景,以及車輛彼此。在視頻序列中檢測車輛的一種常見方法使用先前分析的運動檢測或背景估計之一來檢測車輛。使用四樹分解將當前幀與背景估計進行比較以查找發現汽車的圖元的解決方案在 [12] 中顯示。正如其實驗結果中所述,
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
陰影檢測和去除以及車輛遮擋是經常遇到的困難。運動檢測是一項非常重要的任務,因為它是交通監控應用的一個主要特徵:汽車在運動。有幾種科技可以從場景圖片或視頻幀的背景中分割車輛。最廣泛的科技涉及光流的計算。在光流中,我們感興趣的是找到描述影像變化管道的向量場。換句話說,我們試圖檢測影像的某些部分在下一幀中移動到了哪裡。這種技術通常有兩個步驟:一)檢測特徵點,然後二)在幀上跟踪它們。實現這一目標有幾種方法,其中一些方法在[14]和[15]中有描述。<br>特徵點是與鄰域不同的特殊點。每個算灋可以使用不同的策略來檢測和跟踪這些點。另一種方法是計算兩個連續幀之間的差异。差异大於閾值的點數被認為是移動的。然而,這種技術不能檢測運動方向,只能用於更簡單的應用。此外,該算灋還存在孔徑問題。當具有平滑顏色的曲面移動時,會發生此問題。由於顏色在表面的所有部分都相似,囙此在已經存在表面的拍攝影像的區域中可能無法檢測到移動,因為差异不足以將其視為運動,囙此,它被解釋為影像雜訊或照明的小變化。圖1說明了這個問題。它有兩個連續的幀,同一個區域高亮顯示。在圖1c中,對兩幀中的相同區域進行比較和增强。儘管它們顯示的是移動車輛的不同部分,但僅關注較小部分不足以感知任何差异。<br>背景减影方法使用了不同的方法,這些方法也可以檢測運動對象。該方法的一個重要前提是,隨著時間的推移,背景會有微小的變化,前景對象(如汽車)是與背景形成對比的移動對象。囙此,如果檢測到前景對象,則可以安全地將其視為移動對象。理想情况下,對於交通監控的使用,此背景影像將是相同的幀,而不移動對象,顯示的場景就好像沒有汽車或其他移動對象一樣。要做到這一點,有一些選擇。<br>最簡單的方法是選擇一個固定的影像作為背景影像。將一幅影像减去另一幅影像後,差大於閾值的點數被認為是運動點數。這通常過於簡單化,因為改變照明條件、天氣、譟音或相機的小動作可能會在這些區域中沒有移動的對象時造成很大差异。<br>更好的選擇是根據相機捕捉到的幀生成背景估計影像。有幾種方法可以估計一系列幀的背景和前景,其中[16]給出了一個有趣的概述。這些算灋的主要困難發生在交通移動非常緩慢或車輛開始與概念背景融合時臨時停車的情况下。在文獻[5]中提出了解决這個問題的方法,並且在文獻[3]中提出了使用時變背景和前景內在影像的替代方法。這兩項研究在成功分割背景和前景方面都取得了很好的效果。圖2示出運行約30秒後的背景估計算灋的結果。它具有與真實背景非常接近的背景估計能力,能够在不需要額外處理或計算的情况下成功地識別出運動目標。<br>車輛分割可能是從交通監控視頻中選取的最常見的資訊類型。其目的是區分背景車輛和其他車輛。在視頻序列中檢測車輛的一種常用方法是使用先前分析的運動檢測或背景估計中的一種來檢測車輛。文[12]中提出了一種解決方案,該方案使用四叉樹分解將當前幀與背景估計進行比較,以找到汽車所在的點數。如實驗結果所述,<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2025 I Love Translation. All reserved.

E-mail: