AI的“大脑” 研究成果和专利正呈现出爆炸式增长资讯
未来30年,国家间科技竞争的一个重要焦点领域是大数据人工智能,同时,这也是数字经济的关键驱动产业。算力是AI发展的核心要素之一,AI芯片是人工智能计算硬件的“大脑”。从最初的利用图形处理器作为深度学习加速芯片开始,到当下人们为AI定制的专用芯片,短短几年的时间里,AI芯片就飞速发展成为一个新兴的产业。
AI研究成果和专利正呈现出爆炸式的增长, AI领域如今已经变成了一片辽阔的“森林”。图文并茂的《AI芯片:前沿技术与创新未来》从AI的发展历史讲起,涉及目前最热门的深度学习加速芯片和基于神经形态计算的类脑芯片的相关算法、架构、电路等,并着重介绍了用创新的思维来设计AI芯片的各种计算范式,一本书带领读者直抵人工智能前沿领域。
AI的快速发展一直受限于算力,而基于CMOS的硅基芯片的制造工艺已经精细到3纳米。不仅AI算力提升将遭遇瓶颈,而且由于AI计算的特点,有些计算功能较少使用,所以普通CPU已经实现的算力中,有相当大的部分是AI无法使用的。这就是AI芯片出现的客观要求。比如深度学习所需要的主要是矩阵乘法(张量乘法),用GPU的效率就明显高于使用计算速度更高的CPU。
今天用于深度学习的主要是图形处理器(GPU)芯片,可以达到每秒 100 万亿次浮点运算以上的运算速度,是超级计算机Cray-3运算速度的6000多倍。但是,这相比人类大脑还差得远。人脑大约有1000亿个神经元,有超过100万亿个突触介入神经元信号传导。大脑能够以闪电般的速度识别模式、记住事实并同步并行处理其他工作,功耗不到20瓦。
随着“后摩尔时代”的到来,硅基芯片的计算速度已经接近顶点,同时出现了另一个问题,就是这种计算结构更适合结构化数据,而对于处理大数据这样的非结构化数据,提高芯片计算密度的方法是无效的。按照作者给出的数据,加工工艺高于10纳米之后,尽管芯片的计算速度还在快速提升,但是处理大数据的相对效率反而越来越低了。按照目前的技术水平,如果并行使用多个GPU,功率很容易超过1000瓦。2016 年AlphaGo对战围棋九段高手李世石时,运行该AI程序的服务器功耗达1兆瓦,将近人脑功耗的5万倍。人们必须寻找其他的芯片材料,采用适宜大数据人工智能的计算架构、模型和算法。在这方面,已有华人科学家作出了重大贡献。1971年蔡少棠教授基于电路理论推理发现并证明存在一种新的基础电路元件——忆阻器。2008年,惠普公司的斯坦利·威廉首次在实验室里支撑了第一个基于二氧化钛薄膜的原型产品。这种新器件可以显著降低计算时的功耗,是深度学习加速器和类脑芯片的一个潜在硬件解决方案。
虽然 AI 芯片的开发主流都是基于深度学习算法,目前的主要技术路线是将用于加速处理深度学习的专用 AI 芯片和多核CPU处理器集成到同一块芯片中。在半导体芯片领域,目前,开发FPGA和ASIC是一个重要方向。更前沿的研究是设计“可进化”芯片,它基本上接近通过芯片的“自学习”来提升芯片自身的性能。
AI 芯片的最终目标是能够“自我学习”,即芯片能够自己学习“如何学习”;另外一个重要目标是做到智能机器之间(相当于AI芯片之间)的相互学习和协调,从而使智能机器自己得到更多的知识。这种“自我学习”的性能,很可能随时间呈指数级提升,并将最终导致智能机器的智能水平超越人类。这类芯片在设计过程中往往会尽可能贴近大脑的生物特性,因而被称为类脑芯片或者神经形态芯片。这种芯片基于新的芯片架构,关键组成部分包含脉冲神经元、低精度突触和可扩展的通信网络等。
中国已将芯片列为必须自主掌控的技术,而在与欧美国家差距极小的大数据人工智能已经成为下一个必须占领的科技高地。目前在硅基半导体芯片领域的基础专利多被欧美占据,很难沿着这个路线超车。AI芯片给我们带来了一个难得新机会,类脑芯片和基于新神经网络算法、量子启发算法、自然仿生计算、存内计算和新型存储器,以及基于量子计算和量子机器学习等领域的研发,还处于实验室样片或少量试用阶段,这些可以作为中国芯片科技弯道超车的目标。
本网站转载文章仅为传播更多信息之目的,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证信息的正确性和完整性,且不对因信息的不正确或遗漏导致的任何损失或损害承担责任。