AI 运算需要大量电力,美国研究团队目前已开发出一种技术,可将 AI 处理所需能源降低至少 1,000 倍。
根据明尼苏达大学双城分校研究人员发表的论文,在目前 AI 运算中,资料会在处理资料的元件(逻辑)与储存资料的地方(记忆体/储存空间)之间传输,这种不断来回穿梭的资讯,将消耗多达 200 倍的计算能量。
因此,研究人员转而采用计算随机存取记忆体(CRAM)来解决这个问题。研究团队开发的 CRAM 将高密度、可重新配置的自旋电子记忆体运算基板放置於记忆体单元中。
这与三星 PIM 技术等现有记忆体内处理解决方案不同,三星解决方案将处理运算单元(PCU)置於记忆体核心内。资料仍需从记忆体单元传送至 PCU,再从 PCU 传回资料,只是传送距离较短。
如果使用 CRAM,资料从未离开记忆体,而是完全在电脑的记忆体阵列中进行处理。研究团队指出,这让执行AI 运算应用程式的系统,在能源消耗上的改善比最先进解决方案高 1,000 倍。
此外,在另一项用於训练 AI 系统辨识笔迹的测试,CRAM 能效比使用 16 奈米技术的近记忆体处理系统高出2,500 倍,速度则高出 1,700 倍。
目前这项论文发表在《自然》(Nature)同行评审期刊《npj 非常规计算》(npj Unconventional Computing)上。研究团队已根据这项技术申请数项专利,计画与半导体相关厂商合作,提供大规模示范并制造硬体,协助推进 AI 功能。
- New memory tech unveiled that reduces AI processing energy requirements by 1,000 times or more
(首图来源:shutterstock)