This equation describes the expected reward for taking the action pres的繁體中文翻譯

This equation describes the expecte

This equation describes the expected reward for taking the action prescribed by some policy pi .

The equation for the optimal policy is referred to as the Bellman optimality equation:

V^{*}(s)=max _{a}R(s,a)+gamma sum _{s'}P(s'|s,a)V^{*}(s').
It describes the reward for taking the action giving the highest expected return.


Extremely important and useful
recurrence relations
Can be used to compute the return from a given policy or to compute the optimal return via value iteration
0/5000
原始語言: -
目標語言: -
結果 (繁體中文) 1: [復制]
復制成功!
這個方程描述了採取行動規定的一些政策 pi 期望的獎勵。方程的最優策略都被稱為行李員最優性方程:V ^ {} * = {a} max _ R(s,a) + gamma sum _ {s'} P(s'|s,a) V ^ {*} (s')。。它描述了採取行動給予最高的預期的回報獎勵。非常重要和有用遞推關係可以用來計算返回從給定的策略或計算通過值反覆運算的最優回報
正在翻譯中..
結果 (繁體中文) 2:[復制]
復制成功!
該方程描述了預期的獎勵採取一些策略圓周率規定的動作。方程式的最優策略被稱為貝爾曼最優等式:V ^ {*}(多個)= 最大_ {一個} R(小號,A)+ 伽瑪總和_ {S'} P(S'|,S,A)V ^ {*}(S')。它描述了獎勵,同時給予最高預期收益率的作用極為重要,有用的遞推關係可用於計算從給定政策返還或通過計算值迭代優化收益









正在翻譯中..
結果 (繁體中文) 3:[復制]
復制成功!
這個方程描述了採取行動的一些政策 PI規定的預期回報。

方程的最優政策稱為Bellman最優方程:

V *
{ }(s)= 最大_ { } R(s,a)Gamma和_ {“} P(S | S,A)V
{ * }(S),
描述採取的行動給予最高預期回報的獎勵。


極其重要和有用的
遞推關係
可用於計算給定策略的返回值,或通過值反覆運算計算最優返回值
正在翻譯中..
 
其它語言
本翻譯工具支援: 世界語, 中文, 丹麥文, 亞塞拜然文, 亞美尼亞文, 伊博文, 俄文, 保加利亞文, 信德文, 偵測語言, 優魯巴文, 克林貢語, 克羅埃西亞文, 冰島文, 加泰羅尼亞文, 加里西亞文, 匈牙利文, 南非柯薩文, 南非祖魯文, 卡納達文, 印尼巽他文, 印尼文, 印度古哈拉地文, 印度文, 吉爾吉斯文, 哈薩克文, 喬治亞文, 土庫曼文, 土耳其文, 塔吉克文, 塞爾維亞文, 夏威夷文, 奇切瓦文, 威爾斯文, 孟加拉文, 宿霧文, 寮文, 尼泊爾文, 巴斯克文, 布爾文, 希伯來文, 希臘文, 帕施圖文, 庫德文, 弗利然文, 德文, 意第緒文, 愛沙尼亞文, 愛爾蘭文, 拉丁文, 拉脫維亞文, 挪威文, 捷克文, 斯洛伐克文, 斯洛維尼亞文, 斯瓦希里文, 旁遮普文, 日文, 歐利亞文 (奧里雅文), 毛利文, 法文, 波士尼亞文, 波斯文, 波蘭文, 泰文, 泰盧固文, 泰米爾文, 海地克里奧文, 烏克蘭文, 烏爾都文, 烏茲別克文, 爪哇文, 瑞典文, 瑟索托文, 白俄羅斯文, 盧安達文, 盧森堡文, 科西嘉文, 立陶宛文, 索馬里文, 紹納文, 維吾爾文, 緬甸文, 繁體中文, 羅馬尼亞文, 義大利文, 芬蘭文, 苗文, 英文, 荷蘭文, 菲律賓文, 葡萄牙文, 蒙古文, 薩摩亞文, 蘇格蘭的蓋爾文, 西班牙文, 豪沙文, 越南文, 錫蘭文, 阿姆哈拉文, 阿拉伯文, 阿爾巴尼亞文, 韃靼文, 韓文, 馬來文, 馬其頓文, 馬拉加斯文, 馬拉地文, 馬拉雅拉姆文, 馬耳他文, 高棉文, 等語言的翻譯.

Copyright ©2024 I Love Translation. All reserved.

E-mail: