我们大多数人都熟悉摩尔定律。最先观察到计算机容量指数增长的戈登·摩尔谈到了集成电路中晶体管的密度,但其他人(包括著名未来学家雷·库兹韦尔)后来重新表述了“定律”,指的是处理能力相对于成本的增加——在计算机芯片上每花100美元每秒可以进行多少次计算。这使得该定律对技术变化具有鲁棒性,并在集成发明之前向后延伸,并且在未来新技术可能取代当前硅基芯片时可能向前延伸。
但我们可能很快就需要替代技术,因为我们已经接近硅芯片所能达到的水平。世纪之交以来,单个处理器内核的性能增长大幅放缓。从1986年到2001年的15年间,处理器性能的年均增长率为52%,但到2018年,这一速度放缓至每年仅3.5%——几乎处于停滞状态。这种放缓有几个原因。最重要的是,我们正在接近制造小型晶体管及其在集成电路中的封装密度的物理极限。这意味着Dennard标度的终结——另一个计算机“定律”指出,随着晶体管变得越来越小,它们的能量需求也将缩小,即使晶体管包装得更密集,单位面积的能量需求也将大致保持不变。如果我们现在想给芯片增加更多的晶体管,它需要更多的空单元和更多的能量。相反,我们可以提高计算机的时钟速度,也就是晶体管进行计算的速度。但是,当时钟速度增加时,能量需求和热量输出开始快速上升,超过一定速度,这实际上限制了这种增加处理能力的方法。这也是过去15年CPU时钟速度几乎停止增长的原因,尤其是不容易配备大风扇的便携式电脑。如今的大多数笔记本电脑甚至没有风扇,因为它们的硬盘已经被SSD卡取代,这大大降低了它们的整体能源需求和热量输出——但提高时钟速度或向CPU加载更多内核会增加它们的热量输出。把笔记本电脑放在膝盖上或者把智能手机拿在手里会很不舒服。在过去的15年中,计算机容量的惊人进步主要是由于处理器中安装了更多的内核。15年前,典型的个人电脑只有一个内核;现在我们有双核、四核甚至八核CPU。然而,添加更多内核不同于提高时钟速度。基本上,每个内核都作为一个独立的处理器运行,这只有在计算机的任务可以在并行运行的多个内核之间拆分时才有用。尽管一个程序可能有多个任务(或者用技术术语来说是线程)并行运行,但线程通常必须等待来自其他线程的结果,从而降低了效率。这种效率的降低自然会随着并行运行的线程数量的增加而增加,也就是说内核的数量会翻倍。有了它,能量输入和热量输出不会使我们的计算机的有效容量增加一倍,除非是非常专业的任务,如图形。图形处理单元(GPU)确实可以并行运行许多任务,同时更新屏幕的不同部分——但一旦达到所需的最佳分辨率(HD?4K?8K?),您将不再通过并行运行更多任务来获得任何进展。超级计算机取得了比个人计算机更快的增长速度。目前,超级计算机的顶级计算能力每年都在以40%左右的速度递增,20年相当于1000倍。然而,不到十年前,这个增速是每年80%,实现千倍处理能力只用了11年。这是因为超级计算机是由许多普通的计算机芯片组成的。现在的顶级超级计算机基本都是百万核的PC。一旦计算机芯片停止改进,你需要将更多的芯片打包在一起,这将变得越来越难以管理,更不用说需要更多的能量来运行和冷却超级计算机。摩尔定律的未来从上面可以看出,我们已经达到了现有芯片技术所能达到的极限。按照最初的定义,芯片上的晶体管密度每两年增加一倍,摩尔定律已经失效十年甚至更久。然而,在未来的几十年里,可能会有其他方法来实现计算机性能的增长。
一方面,我们可以将晶体管封装得更深,这将减小芯片尺寸。这已经在内存存储芯片中实现,其中晶体管堆叠 128 层或更深。这种紧凑的芯片非常适合智能手机等小型设备或越来越多的可穿戴设备,更不用说为物联网提供动力的无数小型联网设备了。然而,动态随机存取存储器 (DRAM) 更难以深入分层,因为几乎每个部件都一直处于供电状态,从而导致能源和发热问题——但正在研究这些问题的解决方案。
也有可能使用人工智能来设计使用当前芯片技术的更高效的芯片架构。尤其是3D芯片,AI可能比简单的分层扁平架构更好地利用额外的维度,AI可以利用机器学习来找到最需要优化的地方以及如何实现。借助进化算法,人工智能可以设计不同的解决方案,让它们在人工环境中相互竞争,然后让最好的设计变异并再次竞争,一代又一代,直到经过数千代人发现一个卓越的设计,随着进一步的突变,感知能力得到改善。这种设计可能与人类大脑可以设计的任何东西都不一样,但在速度方面明显优于早期设计,
激进的新技术也可以提高处理能力。超导计算机可以用很少的能量运行,相应的热量输出也很小,从而允许非常密集的三维芯片架构。仍处于起步阶段的量子计算机理论上可以比传统计算机更快地处理某些类型的任务(实现量子霸权),在几秒钟内解决一些最快的普通计算机在宇宙生命周期中无法完成的问题。然而,两者都需要冷却到极低的温度,这使得它们对于台式计算机来说是不切实际的,更不用说便携式设备了。其他新技术在理论上是可能的,但可能过于昂贵而无法实用。
我们可以询问个人计算机或智能手机所需的所有计算能力是否必须驻留在设备本身中。云计算已经普及了很长一段时间,它允许设备将处理和存储外包给外部计算机和服务器。为少量的大型集中式计算机和服务器供电和冷却比每个小型家庭或袖珍设备更实用,如果所有重要数据都存储在设备中,用户不必担心设备丢失或损坏。
但是,连接速度是一个问题,尤其是在一直来回发送大量数据的情况下。毕竟,请求在互联网上传播数百公里比在 CPU 内传播几毫米需要更多时间——随着处理速度的提高,这个问题变得越来越重要。对此的部分解决方案是边缘计算,其中设备访问位于用户附近的存储和处理能力。边缘计算设备可以处理所有处理和数据存储,或者它们可以充当网关设备,在将数据发送到云存储之前对其进行处理。许多设备发送大量数据进行实时分析的物联网将不得不依靠边缘计算来减少延迟。5G 无线通信可以通过提供比 4G 更大的带宽和更短的延迟来帮助实现这一点,很可能 5G 将主要用于物联网设备,而不是智能手机和台式电脑等个人设备,4G 可能对大多数用户来说仍然足够,除了极端游戏玩家。借助云计算和边缘计算,您的设备只需要具有足够的处理能力来处理最常见的日常任务,而处理使用的高峰则外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。您的设备只需要有足够的处理能力来处理最常见的日常任务,处理使用高峰外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。您的设备只需要有足够的处理能力来处理最常见的日常任务,处理使用高峰外包给外部服务器。当然,这需要更多地依赖连接稳定性,而当数据离开建筑物时,安全性总是较弱。
最终,我们必须问一个典型用户真正需要多少处理能力。除了最需要图形的电脑游戏,今天一台使用了 5 年的旧电脑可以轻松处理大部分需要做的事情,无论是在家里还是在工作中,而且凭借 TB 的容量,存储空间已不再是问题大多数用户。很难想象我们将需要比当今高端设备提供的更高的屏幕分辨率。现实的虚拟现实很可能在十年左右的时间内通过个人设备实现,即使当前处理能力的进步缓慢——任何滞后都可能是连接不良的结果,而不是处理速度慢的结果。创建能够处理大多数人工任务的人工智能(我们觉得让人工智能处理很舒服)可能更多的是设计问题,而不是处理能力。