【CNMO新闻】谷歌、苹果、IBM、英特尔已经建立了加速神经网络的神经处理器,它们大多被部署为运行AI模型的协同处理器。但随着对智能应用程序需求的增长,系统也将做出更多的调整。
人工智能
在计算机视觉的常用应用中,移动多帧高分辨率视频强调了I/O子系统。目前,架构师和计算机科学家仍在学习如何优化数据结构和数据表示方式。例如,Medusa中所指出的,多端口DNN加速器和宽DRAM控制器接口的互连。每个端口都具有独立的DRAM访问权限,因此,必须使用内存互连才能将宽DRAM控制器接口互联到大量窄读写端口,并同时保持最大的带宽效率。
当DRAM带宽跨DRAM端口均匀分区时,DNN是最有效的。由于DRAM可以占到总能源消耗的90%,最小化内存逻辑就可以为计算机节约成本了。内存访问不是传统工作负载和人工智能工作负载之间的唯一区别,但随着人工智能应用程序的复杂化,x86和ARM将越来越不相关。