新氦类脑智能江伟杰:类脑技术突破人工智能瓶颈|数字经济100人谈

2883 字丨阅读本文需 6 分钟

立于百年机遇变革潮头,数字经济已成中国经济高质量跃迁新引擎。加速数字产业化、产业数字化,是当下发展数字经济及数字化转型的重要命题。到底什么是数字经济?数字经济现处何种阶段?数字经济的发展方向在哪里?如何实现数字化转型?……

江伟杰博士现任全球半导体联盟亚太区执行长,拥有丰富的实际应用和芯片开发工程经验。全球半导体联盟拥有近400家成员公司,产值占半导体行业75%以上。

世界上最复杂的东西是什么?

答案不是机器,不是AI,是我们的大脑。

神经学家说,人脑是世界上最复杂的东西,它复杂得让试图解释它的简单模型可笑,让精致的模型无用。生物学家说,人的大脑是否能理解它自己,是最古老的哲学问题。

在人工智能的发展中,一直存在着两大技术路径,一条是以模型学习驱动的数据智能,另外一条是以认知仿生驱动的类脑智能。前者即我们通常所指的“人工智能”技术,它已广泛应用于人脸识别、机器视觉等各大领域;后者作为全新的技术才刚刚开始,具备巨大的想象空间。

近日,亿欧EqualOcean采访了新氦类脑智能平台总经理江伟杰,试图探究:类脑技术究竟意义何在?其未来将如何发展?

算法世界的成本瓶颈

先用一组数据来感知计算机世界和人脑世界的差距:

曾排名世界第一的超级计算机天河一号,装有3.2万颗主CPU和4.8万个协处理器,其计算力相当于13亿人同时用计算器算上1000年,但耗电量惊人,满负荷下一天电费超30万,一年费用超1亿;

日本曾将算力排名世界第4的超级计算机与人脑作PK实验,结果出乎意料地显示,这台超级计算机在模拟1%人脑活动的时候就消耗了将近40分钟,而我们的大脑执行这样的工作只需要1秒钟;

人脑消耗的能量如果用电量来衡量的话,功率是25W,相比之下,标准计算机仅识别1000种不同的物体,就需要消耗250W的能量。

这些事实都指向一个问题:算法成本有多高?

聪明的算法模型固然提高了人们的工作效率,但要进一步发展以执行更复杂任务,将不可避免面临高功耗、低效率所带来的成本瓶颈。

计算机的世界里,这一切都源于“冯·诺依曼结构”。1946年,第一台通用计算机ENIAC诞生,在它27吨的庞大身躯里,CPU负责加工处理数据,内存负责存储。自此,存储单元和运算单元分离,成为计算机的基本架构。

但两相分离的产业格局,导致内存技术与处理器技术发展不同步。在过去的20多年中,处理器的性能以每年大约55%的速度快速提升,而内存性能的提升速度则只有每年10%左右。内存的存取速度严重滞后于处理器的计算速度,“内存墙瓶颈”导致高性能处理器难以发挥出应有的功效,对高性能计算形成极大制约。

但在人脑结构下,计算和存储发生在同一神经突触中,数以百万亿的神经元同时进行着存储和计算,让信息处理变得快速而高效。

怎样模仿人类神经系统工作原理,开发出快速、可靠、低耗的运算技术?类脑技术即由来于此。

低功耗、高智能的类脑技术

类脑技术采用了和传统计算机完全不同的架构,利用基于时序的脉冲神经网络结构,处理复杂的计算任务。江伟杰举了一个形象生动的例子,解释基于时序的脉冲编码和传统二进制编码的差别。

假设房间里装了智能摄像头,为了达到安防效果,它需要随时在线,即使房间里大部分时间空空荡荡,它也必须一帧一帧拍摄下去。

但脉冲结构是事件驱动的,类脑技术的神经单元只有在接收或发出尖峰信号时才处于活跃状态。这种结构下,系统只有在房间里有人闯入时才做出反应,若无事件发生,系统将保持闲置状态,这将大大缩减计算量。

除此之外,类脑的计算原理与计算机二进制亦不同。江伟杰介绍,计算机二进制的世界是非黑即白的,只有对错两种选择,但类脑的模拟计算世界不是简单的二元论。

类脑芯片元件模拟了神经元被流过突触的离子激活的工作原理,它通过交换梯度信号或权重信号激活,达到模拟人脑处理信息的目的。和人脑一样,类脑芯片擅长的不是“粗暴”的二进制计算方式,而是高进制的复杂运算,例如推理、识别。

“类脑模拟计算的密度比二进制大很多,但精度上有所欠缺。”江伟杰告诉亿欧。

“很多人谈到类脑技术,总是要把它定位成比人工智能更高级的存在,但这种态度我并不认同。”他直言,“人工智能在很多方面有非常独特的优越性,类脑技术和人工智能的关系,应该是互补而不是替代的关系。在技术应用中,我们的态度很简单,哪个好用就用哪个”。

举例来说,AlphaGo用精妙的算法打败世界冠军李世石,展示了人工智能的巨大潜力。在9*9的棋盘上,规则是固定的,系统只需要大量数据作为输入,通过不断训练检查结果,再校对调整参数,即能得到最优拟合方程。

“但下棋不会是类脑技术所涉猎的领域。”江伟杰说,“类脑擅长的是推理,是在小样本、高噪声环境下解决问题。”

如果说人工智能长于应对大样本条件下的经典问题,那么类脑技术则是解决鲜有先例、不易总结的“疑难杂症”。在现实应用中,两种技术互为补充,让各行各业更“智能”。

类脑前沿应用

2013年,欧盟人脑旗舰计划发布,该项目如是表明类脑技术的重要性:“在未来10到20年内,谁要引领世界经济,谁就必须在这个领域领先。”

在此后的多年里,类脑技术在全球取得了飞速进展。

2014年,美国IBM开发出与人脑类似的TrueNorth系统。它模仿人类大脑结构,每颗芯片内置100万个模拟神经元和2.56亿个模拟神经突触,组成具有4800万个神经元的网络,智力水平抵得上一只小老鼠,而能耗仅为2.5瓦。

2019年7月,在美国国防部高级研究计划局电子复兴峰会上,英特尔隆重展示了其“Pohoiki Beach”芯片系统。它含有800多万神经元,在人工智能任务中执行速度比传统CPU快一千倍,能效提高一万倍,已能胜任触觉感知、假肢控制、玩桌足球等简单任务。

时隔半月后,清华大学类脑计算研究中心施路平团队发布“天机”芯片,登上《自然》(Nature)封面,实现了中国在芯片和人工智能两大领域《自然》论文零的突破。这款芯片包含了大约4万神经元和1000万突触,被搭载在自动行驶自行车上,能够实现目标探测和追踪、语音识别、避障、平衡控制、自主决策等多项功能。

“尽管芯片产业西方领先,但在类脑这一全新技术上,大家在同一起跑线上。”江伟杰说。

天机芯不仅是世界首款异构融合类脑芯片,也是首款既支持脉冲神经又支持人工神经网络的智能芯片。它融合了计算机科学和脑科学领域的技术优势,成为第六届世界互联网大会上15项世界互联网领先科技成果之一。

在类脑技术研发上,中国比肩西方,甚至走在了前列。而在行业应用上,江伟杰所在的新氦类脑智能平台,致力于为整个产业共享核心资源,孵化类脑技术的具体应用。

江伟杰向亿欧介绍了几个类脑技术的应用案例。

例如,某药企在产品销售过程中,经常发现有渠道利用规则漏洞作虚假交易,以骗取业绩提成。传统方法是请审计专家做风险提示,准确率大概在15%左右。后来药企诉诸AI技术,但当专家测试交易模型后,却发现结果的准确率仅达到5%,原因在于复杂的高噪声环境中,算法模型准确性大大降低。

而当类脑技术被用于检查虚假交易时,系统仅仅用最原始的个别交易记录,通过本地学习、推理演绎,便将风险提示命中率提高到60%左右,大大节省了人工成本。

再例如,某些大型工厂需要检查设备是否出现裂缝,由于数据量稀少,AI算法在小样本环境下近乎失效。但类脑系统利用推理方式,可以通过已有的模型去适应这些样本或小样本场景,很好地解决了这一问题。

“在垂直应用上,类脑技术还有很大的发挥空间。”江伟杰说道。目前,类脑技术在个别高噪声、小样本场景下已有尝试,对于经典人工智能算法表现好的场景,倒不见得有优势。

“我们不仅要懂技术,更要理解中国广阔的应用场景,理解社会环境。”当谈到未来,江伟杰如是展望,“我相信未来10年,中国类脑技术一定会取得大发展。”

相比于计算机“单纯”的零一世界,类脑的世界复杂、多样,充满了重重挑战。当前,无论在前沿技术研发,还是垂直行业应用上,中国都取得了卓越的进步。在制度不断完善、技术不断改进的未来,人脑读懂人脑,将不是梦想。

作者:黄依婷    

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:亿欧网
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...