在 AI 技术中,基于 DNN 的深度学习得到长足发展,以此为基础的 AI 芯片也已形成了一个新兴产业。目前,大部分的 AI 芯片是根据 Yann LeCun 和 Hinton 于 10 年前发表的概念,然后不断作些改进而设计的。这些芯片都是用传统的硅基 CMOS 电路设计和制造的,仍然受到如冯·诺依曼架构、暗硅等现象的很大限制。随着 NVM 器件的日益成熟和产业化,基于模拟计算和存内计算、以 NVM 为基本架构的 AI 芯片会在不久的将来得到广泛应用。这是因为这类芯片的性能和能效远高于目前的深度学习加速器。根据一些基于 NVM 的新型 AI 芯片原型的初步测试结果,这类芯片在功耗极低的情况下可以实现 30,000 倍的加速。例如,需要在多个 GPU 上进行几天训练的 ImageNet 分类问题,在基于 NVM 的单个加速器芯片上只需要不到 1 分钟。
深度学习算法是目前 AI 领域最热门的研究课题。然而,业内人士一般认为,就算沿着深度学习这条路线出现指数级的进步,也不能期望实现可以被认为达到人类水平的 AI。因此,需要有一种从根本上与此完全不同的方法来达到 AI 的终极形态(如图 17.1 和图 17.5 所示的最后阶段)。从近期阶段来看,基于神经形态计算的类脑芯片很有发展前景。
我们今天所知道的 AI,无法将在一项任务中学到的结果应用于另一项新任务。神经网络也无法成功地将初步获得的知识与上下文结合起来。此外,人类通过记忆,只用一次的经验就可以学习到一定的知识,如「不能碰热炉子」「不要让蚊子叮咬」等。与此相对应,如果想让基于神经网络的 AI 学习,就需要庞大的样例。目前还不清楚如何在不使用大量数据的情况下用当前的 AI 技术来解决问题,如用小数据即可识别图像,而不需要大数据。我们可以回想美国莱斯大学研究人员在 2007 年发明的基于压缩感知技术的单像素摄像机,只用一个像素,就可组合生成一整幅图像。这类技术可能会给研究人员以启示,创造出只用很少的数据生成并重构对象的新 AI 系统。
目前,AI 芯片与人类相比并不是那么「聪明」。不过,它本身已经达到初步的「聪明」程度。在未来,它不会变笨,一定只会变得越来越聪明。AI 芯片正在取得飞快的进步。如果通过促进半导体工艺技术、计算机算法和架构、芯片设计和脑科学的进步,使 AI
(本章节未完结,点击下一页翻页继续阅读)