按照 AI 的发展趋势,一般都认为它最后将达到人类智能的水平。但是,达到人类级别的智能已经被证明是困难的,进展缓慢。很多工作仅仅是为了满足当前的应用需求,导致许多人错误地重新定义 AI。
人类可以做的许多任务,计算机还做不了。如果对人类智力如何运作有足够的了解,我们就可以模拟它。但是,我们没有足够的能力通过观察自己或他人直接了解我们的智力如何运作。因此,充分了解人类大脑以模仿其功能,需要在心理学和逻辑学方面取得理论和实验上的成功。在 AI 的主要关注点中,知识表示、不确定性管理和近似推理构成了密切相关的研究领域,其中逻辑起着非常重要的作用。
数学逻辑被设计为把确切的事实和正确的推理用数学公式来表示。它的创始人莱布尼兹(Leibniz)、布尔(Boole)和弗雷格(Frege)希望将它用于表达常识事实和推理,但他们没有意识到常识语言中使用的概念的不精确性往往是一个必要的特征,并不一定就是出错。数学逻辑的最大成功在于将纯粹的数学理论形式化,它不需要不精确的概念。
现在所有的由 CPU、GPU、FPGA 或绝大多数 ASIC 实现的 AI 芯片,最基本的理论依据就是布尔逻辑。尽管半导体器件线宽尺寸的逐渐缩小是摩尔定律的基础,但能效却是新的限制因素。能效将不再由器件的线宽尺寸决定,而是被系统设计中普遍使用的布尔逻辑的局限性所限定。未来将需要布尔逻辑的替代设计,这样就可出现新的半导体器件级的创新。
布尔逻辑并不适合脑神经科学。它只能表达人类智能中精确计算的一面,而从不考虑人类常识语言的不精确性,不能反映出人类智能中识别、分类、推理、预测等这类非精确计算的一面。而这一面恰恰成为现今最热门的 AI 研究课题。现在的状况是使用并不适合非精确计算的逻辑表达来试图解决这些 AI 课题。
由于常识信息需要使用不精确的事实和不精确的推理,因此使用数学逻辑来获得常识的成功非常有限,这导致有研究人员设计了扩展的逻辑语言甚至扩展的数学逻辑形式。自 20 世纪 50 年代以来,研究人员一直试图找到其他方法,但仍然没有成功地获得任何可以应用于常识信息的方法或思路。
但是,这种思路可以从一些传统哲学思想中找到。W. R. Zhang 受中国古代老子的哲学思想启发,提出了基于平衡的阴阳逻辑系统 [281-283
(本章节未完结,点击下一页翻页继续阅读)