跳至內容

近端策略優化

維基百科,自由的百科全書

近端策略優化(英語:Proximal Policy OptimizationPPO[1]OpenAI公司於2017年開發的一系列無模型強化學習算法。該算法採用了策略梯度算法,這意味着它們的做法是搜索策略空間而非狀態-動作對的值。

近端策略優化包含了置信域方法的一些優點,如更易於實現,更通用,並且具有更好的樣本複雜度。[2]該算法是通過使用不同的目標函數來完成的。[3]

另見

參考文獻

  1. ^ 郭子聖. 事後近端策略優化於增強式學習之演算法 (碩士論文). 國立交通大學. 2018. 
  2. ^ Schulman, John; Wolski, Filip; Dhariwal, Prafulla; Radford, Alec; Klimov, Oleg. Proximal Policy Optimization Algorithms. 2017. arXiv:1707.06347可免費查閱. 
  3. ^ Proximal Policy Optimization. OpenAI. 2017 [2023-05-13]. (原始內容存檔於2023-02-23). 

外部連結