Experience-Driven Computational Resource Allocation of Federated Learning by Deep Reinforcement Learning

换个方向。

在本文中,我们提出通过降低训练组中速度较快的移动设备的cpu周期频率来提高联邦学习的能源效率。由于所有设备都是通过迭代同步的,因此只要它们在每次迭代中最慢的设备之前完成训练,联邦学习速度就会保持不变。基于这一思想,我们提出了一个优化问题,旨在使系统总成本最小化,系统总成本定义为训练时间和能量消耗的加权和。

针对非线性约束的复杂性和网络质量的不可感知性,设计了一种基于深度强化学习(DRL)的经验驱动算法,该算法可以在不了解网络质量的情况下收敛到近最优解。

•我们研究了一种新型的联邦学习移动计算资源分配问题,该问题通过利用移动设备及其网络连接的异质性,综合考虑了学习时间和能量效率。

•我们提出了一种基于DRL的经验驱动算法来解决该问题,该算法可以有效地学习最适合移动计算资源分配的策略。

•我们在小规模测试平台上进行了实验和大规模模拟,以评估所提出算法的性能。我们将我们的方法与最先进的解决方案进行了比较,结果进一步证明了我们方法的优越性。

网络质量如何影响联邦学习的学习速度和能源效率。

-> 每个移动设备的训练时间由两部分组成,一是使用本地数据训练模型的计算时间,二是将训练好的模型上传到参数服务器的通信时间。

-> 由于参数服务器需要收集所有设备的模型来生成更新的全局模型,因此每次迭代的训练时间由最慢的设备决定。

-> 导致了浪费。

-> 这一观察促使我们放慢设备B和C上的计算速度,以减少CPU/GPU的能耗,只要它们的训练时间不晚于最慢的那个。

-> 但是网络质量会发生变化,在实践中无法准确预测。另一方面,缓慢的计算可以提高能量效率,但会导致更长的训练时间。其次,优化计算资源配置以实现较短的学习时间和较低的能源效率的问题是困难的。

-> 我们不再纠结于网络质量预测和基于优化的算法设计,而是采用深度强化学习来决定移动设备应该以多快的速度训练它们的本地模型。

看得差不多了,这篇文章对我没有意义,不看了。

dark
sans