本發明公布一種面向分布式機器學習的參數通信優化方法。本發明將機器學習迭代?收斂算法的容錯特性進行擴展,提出了動態有限容錯特性,并基于動態有限容錯性實現了一種分布式機器學習參數通信優化策略,通過動態調節各計算節點與參數服務器的同步策略結合性能檢測模型,充分利用各計算節點的性能,保證機器學習模型準確率;保證計算資源充足,模型的訓練過程不受分布式計算資源動態變化的影響;將訓練算法和系統硬件資源進行解耦,解放了開發人員憑經驗手工進行計算資源的分配以及數據通信調優的過程,有效的提高了程序在各種集群環境下的擴展性和較高的執行效率。本發明可應用于分布式機器學習參數通信的優化、集群計算性能的優化等領域中。
聲明:
“一種面向分布式機器學習的參數通信優化方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)