本發明公開了一種基于并行架構的內在獎勵強化學習方法,包含如下步驟:執行模塊與模擬環境交互,獲取一整幕經驗數據并存入緩存組件;同步學習模塊的最近更新的策略;取出定量的經驗數據進行評估,獲得獎勵值;對經驗數據的狀態價值函數進行估計,獲得內部狀態價值函數與外部狀態價值函數;處理內部狀態價值函數與外部狀態價值函數,獲得總狀態價值函數并改寫成近似狀態價值函數;外部的智能體對預測網絡的參數進行優化,并更新策略網絡的當前策略,獲得新策略;執行模塊更新新策略。本發明解決了現有技術中價值函數估計不準、收斂到局部最優策略的缺陷,避免了優化結果出現偏差的問題,具有更高的單位時隙吞吐率、更好的性能和更快的學習速度。
聲明:
“基于并行架構的內在獎勵強化學習方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)