ZKX's LAB

“大流行前有所准备”“硅谷教父”谷歌母公司董事长解析下一代神经网络计算机

2020-10-30新闻16

摘要:解决方案在于做出特定领域的专业处理器,“那不属于过去普遍使用的通用型计算机,也不需要它来运行所有代码。”

10月30日,2020第三届世界顶尖科学家论坛在沪开幕,“科技,为了人类共同命运”主题会议在开幕式后举行。作为2017 年图灵奖得主、谷歌母公司——美国阿尔法特公司的董事长、美国斯坦福大学前校长,约翰·轩尼诗就人工智能(AI)发表视频演说。

约翰·轩尼诗认为过去10到15年人工智能为人类带来了赋能性突破。比如,自动驾驶从模糊概念成为现实,一经普及可每年拯救成千上万条生命,以及相关车祸导致的数亿美元损失。而在生命健康领域同样如此,如果AI发展到成熟阶段,“人们就可以在疫病大流行发生之前就有所准备。”

约翰·轩尼诗当然提到了“阿尔法狗”,以及其后一系列超重量级的AI系统,从自主学习棋谱到战胜世界围棋冠军。它们的计算能力在10年间增长了30万倍,比早期的“推理机”拥有1亿倍以上的算力。

然而,事实证明,“每18个月芯片上的晶体管数目就翻倍”的摩尔定律已经进入终结阶段,增长曲线越来越慢。约翰·轩尼诗展示的曲线图表明,摩尔定律的高峰出现在1986到2003年,大约在20年间提高了1000倍,但过去几年每年仅有百分之几的提高。因此,他认为,“我们不能再依赖半导体技术的突破,也不能仅仅靠晶体管数量增加。”

“我们熟悉的方式将不再正确。”这位“硅谷教父”表示,解决方案在于做出特定领域的专业处理器,“那不属于过去普遍使用的通用型计算机,也不需要它来运行所有代码。”为此,他们正在建立“神经网络”计算架构,训练下一代神经网络。

据悉,基于这样的超级密集型算法,其处理器TPU每秒可执行92万亿次运算。与英特尔等传统芯片相比,TPU用于通用型计算的硅区面积只占总体的2%,绝大部分硅区得以“解放”。为了深层神经网络计算,构建起相适应的软件架构,并兼顾硬件匹配,“乐观者估计10年内可以实现,至晚在30、40年左右。”

“大脑为什么在那么多方面做得比机器更好?”在约翰·轩尼诗眼中,这样的神经网络更像人的大脑。通过AI训练,比如识别和认知,需要给AI看千万张图片,“看猫的照片,看狗的照片,但婴儿可不是这样学习的……”他认为,大脑无疑是有史以来最好的学习机器,不像现有的AI那样虽然知道猫和狗的区别,但不知道是为什么。

此外能耗效率方面,大脑的功率只需要20瓦,而神经网络消耗功率可达1000倍,因此下一代神经网络计算与人脑相比还差距很大。

#行业互联网#AI人工智能#谷歌

随机阅读

qrcode
访问手机版