This study use two sampling methods with reducing majority and SMOTE f的繁體中文翻譯

This study use two sampling methods

This study use two sampling methods with reducing majority and SMOTE for data imbalance problem, and with the chi-square feature selection method to find the feature that effectively improve the performance of the classifier and training performance, and then based on four machine learning algorithms with decision trees, random forest, XGBoost and KNN to classification. After test by the test set, the correct rate and AUC value are used as indicators for performance evaluation.
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
這項研究使用兩個採樣與降低數據的不平衡問題,多數擊殺方法,並與卡方特徵選擇方法找到有效的提高分類和訓練表現的性能,然後根據四個機器學習算法的功能決策樹,隨機森林,XGBoost和KNN分級。由測試組測試後,正確率和AUC值作為指標進行績效評價。
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
本研究採用兩種採樣方法,減少多數和SMOTE的資料不平衡問題,並採用奇方特徵選取方法,找出有效提高分類器性能和訓練性能的特性,然後基於四種機器學習演算法,對決策樹、隨機林、XGBoost 和 KNN 進行分類。測試組測試後,將正確速率和 AUC 值用作性能評估的指標。
正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
本文針對數據不平衡問題,採用了兩種減數抽樣和消烟抽樣的方法,並結合卡方特徵選擇方法,找到能有效提高分類器效能和訓練效能的特徵,然後基於決策樹、隨機林、XGBoost和KNN分類。經測試集測試後,以正確率和AUC值作為效能評估名額。<br>
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2025 I Love Translation. All reserved.

E-mail: