III. LEARNING CLASSIFIERSVM was first proposed by [20] and has beensuc的中文翻譯

III. LEARNING CLASSIFIERSVM was fir

III. LEARNING CLASSIFIER
SVM was first proposed by [20] and has been
successfully applied in many classification issues, which
can produce better results than other algorithms, suppose
we have a dataset {xi,yi}, i=1,….n, where ,is the input feature vector, yi is the
classification category. SVM finds a hyper plane making
category -1 of yi fall into the range of f(x) 0. The linear equation of
f(x) can be expressed as the following
where w is the normal vector of this hyper plane, x is the
input feature vector and b is the distance from origin
perpendicular to the hyper plane.
SVM is basically a two class classifier, but its
formulation can be change to allow multiclass
classification more commonly, the dataset is divided into
two parts “intelligently” in different ways and a separate
SVM is trained for each ways of division. Multiclass
classification is done by combining the output of all the
SVM.
In this work, images in TUD-Training dataset are used
for training phase. The dataset contains 400 training
images and there is no overlap in each image. An example
of two training image have been shown in Figure 2. Each
person in training image has been split into 4 parts. These
four parts are full body, torso, left foot and right foot.
HOG Feature extraction is performed for each component,
separately. Results are given as positive examples to the
LIBSVM classifier. Negative samples are randomly taken
from the non-human images in first stage of learning.
LIBSVM is used to train 4 body parts. Using SVM that
has Gaussian kernel or polynomial kernel is led to
improve results. However, the computational cost and
memory requirements increase.
Figure 2 Example of training image
Since the outputs of first SVM Classifier have
very high false positive for all 4 classes, a second
classifier is applied to all training images for stabilization
of detection and reduce the false positive. Then, the
results are compared to training images. If the similarity
between a detected part and real known parts falls below a
given threshold “which is gained experimentally”, that
part is considered as a false positive. These false positive
are considered as negative examples for next stage of
learning.
For the second stage SVM training, we have considered
the following solution (figure3).
A. Second SVM with different negative example for
each class.
In this method, false positive of each class is obtained
separately. Then for each part (full body, torso, left foot,
and right foot) a SVM with two classes is trained. The
negative instances for each class are false positive
associated with that class and positive instance are
positive image of that part. In this method four SVM with
two classes are use for reducing false positive of four
parts. Each SVM are applied on the output of first stage
SVM associated with its class.
Results shown the high precision of this method
compared to the previous art work.
0/5000
原始語言: -
目標語言: -
結果 (中文) 1: [復制]
復制成功!
三.学习分类方法支持向量机由 [20] 首先提出并一直成功地应用于很多分类问题,其中可以产生更好的结果比其他算法假设我们有一个 dataset {溪,彝族} 我...= 1,n,在哪里输入的特征向量,彝族是分类类别。支持向量机发现超平面制作类别-1 的彝族落入 f (x) 系列 < 0 和类别彝族入 f (x) 的范围的 + 1 > 0。线性方程f (x) 可以表示为以下内容其中 w 是这个超平面的法向量,x 是输入的特征向量和 b 是原点的距离垂直于超平面。支持向量机基本上是两类分类器,但其制定可以改变允许兼职分类更常见的是,该数据集划分为两个"智能化"有不同的方式和一个单独的部分支持向量机训练司每个方式。兼职通过结合所有的输出进行分类支持向量机。在这项工作,使用中 TUD 训练数据集的图像为训练阶段。数据集包含 400 培训图像并没有在每幅图像的重叠。一个例子两种训练图像有显示在图 2 中。每个训练图像中的人被分成 4 个部分。这些四个部分是完整的身体、 躯干、 左的腿和右脚。为每个组件执行猪特征提取分开。作为积极例子给出了结果LIBSVM 分类器。随机负样本从第一阶段的学习中的非人类形象。LIBSVM 用来训练 4 的身体部位。使用支持向量机,具有高斯核函数或导致了多项式核改善的结果。然而,计算成本和增加内存要求。图 2 的训练图像示例因为第一个 SVM 分类器的输出非常高的假阳性,对于所有的 4 类,第二次分类器被适用于所有训练图像稳定检测和减少假阳性。然后,将结果被比作训练图像。如果相似检测到的部件和真正已知的部件之间低于给定的阈值",得到了实验",就是部分被认为是假阳性。这些假阳性为下一个阶段被认为是负面的例子学习。我们有考虑到第二阶段支持向量机的培训,下面的解决方案 (图 3)。A.第二个支持向量机与不同的负面例子为每个类。在此方法中,得到的每个类的假阳性分开。然后为每个部分 (全身、 躯干、 左的足和右脚) 具有两个类的支持向量机进行训练。的对于每个类的反面事例是假阳性与关联类和积极的实例是这一部分的正面形象。在这四种方法与支持向量机两个类是用来减少假阳性的四个零件。每个支持向量机被应用于第一阶段的输出支持向量机与它的类关联。结果表明此方法的高精度相比以前的艺术工作。
正在翻譯中..
結果 (中文) 3:[復制]
復制成功!
三、学习支持向量机分类器
最初是由[ 20 ]提出了
成功地应用在许多分类问题,这
可以产生比其他算法更好的结果,如果我们有一个数据集
{一},西,我= 1,的…N,那里,是输入特征向量,一是
分类。SVM超平面分类决策
发现1易落入的范围(x)<0和类别
1宜为f(x)> 0范围。对
f(x)的线性方程可以表示为以下
W是该超平面的法向量,X是
输入特征向量和B是从起源
垂直的超平面的距离。
SVM基本是一二类分类器,但它的
制剂可以改变允许多
分类更常见的是,数据集分为
两部分的“智能”以不同的方式和一个单独的
SVM训练的各种方式划分。多类分类
结合所有的
SVM输出完成。
在这项工作中,在训练数据集的图像进行
TUD训练阶段。数据集包含400个训练
图像在每个图像无重叠。两种训练图像的一个例子
已如图2所示。每个
在训练图像的人被分成4个部分。这些
四部分是完整的身体,躯干,左脚和右脚。
HOG特征的提取是为每个组件分别进行,
。结果给出的
libsvm分类器的正面例子。负样本随机取
从非人的图像在学习的第一阶段。
libsvm是用来训练身体的4个部位。利用支持向量机,
具有高斯核函数或多项式核是LED来
改善结果。然而,计算成本和内存要求增加

图训练图像
2例自第一个SVM分类器的输出
很高的假阳性为4类,第二
分类器应用于所有的训练图像的稳定
检测和降低假阳性。然后,该
结果与训练图像。如果检测到的部分,真正的已知部分低于
给定阈值”获得的实验”之间的相似性,

部分为假阳性。这些假阳性
被视为下一阶段的学习
反面的例子。
第二阶段的支持向量机训练,我们已经考虑
以下解决方案(图3)。
A.对于每一类不同
反面二支持向量机。
在该方法中,得到的
分别为每个类的假阳性。然后对每个部分(完整的身体,躯干,左脚,右脚,
)SVM两类训练。每一个类的实例
阴性假阳性,阳性
类和实例
的那部分的正面形象有关。在该方法的支持向量机
四两个班使用减少四
部分假阳性。每个SVM应用于第一阶段
SVM与类关联的输出。
结果表明了该方法的高精度
相比以前的艺术作品。
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2025 I Love Translation. All reserved.

E-mail: