北卡罗来纳州达勒姆——杜克大学的计算机工程师开发了一种新的 AI 方法,可以在几乎不使用任何计算能力的情况下,准确预测任何类型计算机处理器每秒超过 1 万亿次的功耗。该技术被称为 APOLLO,已在现实世界的高性能微处理器上得到验证,可以帮助提高效率并为新微处理器的开发提供信息。
该方法在 MICRO-54:第 54 届 IEEE/ACM 国际微体系结构研讨会(计算机体系结构的顶级会议之一)上发表的一篇论文中有详细介绍,并被选为会议的最佳出版物。
“这是一个经过深入研究的问题,传统上依赖于额外的电路来解决,”该论文的第一作者、杜克大学电气和计算机工程教授 Yiran Chen 实验室的博士候选人谢志耀说。“但我们的方法直接在后台的微处理器上运行,这带来了许多新的机会。我认为这就是人们对此感到兴奋的原因。”
在现代计算机处理器中,计算周期约为每秒 3 万亿次。跟踪这种极快转换所消耗的功率对于保持整个芯片的性能和效率非常重要。如果处理器消耗过多功率,它可能会过热并造成损坏。电源需求的突然波动可能会导致内部电磁并发症,从而降低整个处理器的速度。
通过实施可以预测和阻止这些不良极端情况发生的软件,计算机工程师可以保护他们的硬件并提高其性能。但这样的计划是有代价的。跟上现代微处理器的步伐通常需要宝贵的额外硬件和计算能力。
“APOLLO 接近了一种理想的功率估计算法,它既准确又快速,并且可以以低功耗轻松构建到处理内核中,”谢说。“而且因为它可以用于任何类型的处理单元,所以它可能成为未来芯片设计中的一个通用组件。”
APOLLO强大的秘密来自于人工智能。谢和陈开发的算法使用人工智能来识别和选择处理器数百万个与其功耗最密切相关的信号中的 100 个。然后它根据这 100 个信号建立一个功耗模型并监控它们以实时预测整个芯片的性能。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!