人工智能从感知向认知演进
◎浙江大学计算机科学与技术学院副院长、浙江大学人工智能研究所所长吴飞:
人工智能是引领这一轮科技革命、产业变革和社会发展的战略性技术,具有溢出带动性很强的头雁效应。当前,新一代人工智能正在全球范围内蓬勃发展,促进人类社会生活、生产和消费模式巨大变革,为经济社会发展提供新动能,推动经济社会高质量发展,加速新一轮科技革命和产业变革。
我们也必须明确,人工智能在赋能应用同时,正面临“勇闯无人区”巨大挑战,如感知智能适应性差、认知机理不明、通用智能发展乏力等。从感知智能向认知智能迈进以赋予机器推理之术、由机器单独完成单一任务转成机器相互协作来完成城市级复杂使命、对隐藏在数据这一人工智能燃料引擎中的隐私予以重视以推动数据共享、有机协调存算能力来破解冯诺伊曼架构中“内存墙”桎梏,都是推动新一代人工智能发展的有力抓手。
◎清华大学计算机系副主任唐杰:
人工智能发展到今天大概经历了三个主要的阶段:符号推理与感知机、概率学习与知识库、深度学习与知识图谱。目前的智能系统在感知方面已经达到甚至超越人类水平,但在可解释性、安全可靠等方面还存在很多不足。
反观人的认知系统则不同,认知理论认为人的认知系统包含两个子系统:System 1即直觉系统,主要负责快速、无意识、非语言的认知,比如当人被问到一个问题的时候,可能下意识的或者说习惯性的回答,这就属于System1的范畴。System 2是逻辑分析系统,是有意识的、带逻辑、规划、推理以及可以语言表达的系统。人在通过System 2处理问题的时候,往往要收集相关数据、进行逻辑分析和推理,最终做出决策。
今年在NeurIPS 2019大会上图灵奖得主Yoshua Bengio指出当前的深度学习主要就在做System 1的事情,而缺少System 2所需要的推理和逻辑处理能力。发展具有认知能力的人工智能系统是人工智能发展的未来。这不仅是未来深度学习需要着重考虑的,更可能是下一代人工智能兴起的基础。一个可行的思路是认知图谱=知识图谱+认知推理+逻辑生成,但如何实现认知智能亟须学术界和工业界的进一步深入研究。
◎中科院自动化所模式识别国家重点实验室研究员王金桥:
人工智能最早是在1956年提出的,最早提出是希望机器具有人的感知、行动、推理与决策的能力,而随着时代的演化,目前从研究领域讲,希望机器能够拥有自主的智能,机器在数据与场景的基础上,不仅能够代替人类重复性的劳动,同时能够和人一样进行自我进化、思考,从“感知智能”向“认知智能”进行转变,同时自主进化和混合智能的发展也在不断完善和成熟,这是目前人工智能领域对人工智能新的定义,未来很长一段时间都会是人机混合智能阶段。
当今,城市正成为产业互联网最大的应用场景,随着5G、人工智能和大数据等技术的不断完善与场景化落地,人们看到了更多的发展前景。以城市视频多维数据为核心,融合智能社区、轨道交通、医疗、教育等多种场景,各行各业积极利用多种前沿技术,不断加快创新,构建城市级的数据平台,打破不同场景的数据孤岛,打造面向城市智能的数据湖、算力中心和AI赋能平台,并实现城市智能的不断升级,实现城市智能的自主进化,打造新一代的智能城市。
基于智能城市的自主进化模型,实现知识和数据联合优化的人机混合智能,用以驱动城市治理和管理决策,实现服务城市规划、政务、产业、民生的价值输出。随着人工智能、边缘计算、芯片等技术发展,能从视频中提取的有价值的内容会越来越丰富、快速和准确,视频数据必将成为未来城市治理核心数据之一。而且持续增加的海量数据的积累,也给智能城市计算带来了巨大的挑战,因此海量视频数据实时性端边云的融合计算、自主进化、人机混合智能成为城市数据治理关键,通过深层应用价值和行业数据融合应用实现智能城市建设。
工业互联网与产业融合
◎中科院自动化所模式识别国家重点实验室研究员王金桥:
人工智能纯技术和算法的投资机会已经过去,目前机会在场景和技术融合的碎片化深度应用阶段。目前推动人工智能发展的是需求与场景,当今时代的快速发展,场景与需求发生着变化,传统产业成本高、效率低、招工难等弊端的频繁暴露,推动着传统产业智能化升级的脚步,将机器自动化不仅能够提高产业发展的效率,更可以实现产业的升级换代,形成新业态,催生新的经济增长点。
比如,在传统纺织行业,人工智能就起到了很好的推动作用。该行业原来的生产力低下,主要原因在于原来的纺织技术多半仍旧依赖于传统手工生产、制作及检验。人工验布的缺点是精度低、速度慢和招工难,所以数字化、智能化的改造势在必行。
计算存储一体化突破人工智能算力瓶颈
◎清华大学长聘教授尹首一:
回顾集成电路发展历程,存储器芯片的发展速度远低于处理器芯片的发展速度,两者之间的缺口仍在不断拉大,存储墙成为制约处理器性能进一步提升的主要瓶颈之一。这一问题尤其对访存密集型任务影响最为明显,以深度神经网络为代表的AI算法恰好具有访存密集的特点。
从物理本质角度来讲,拉近计算部件与存储部件的距离,减少单位数据搬运的成本,是解决存储墙问题的根本手段。近存计算、存内计算和存算融合都是解决存储墙问题的有益尝试。近年来,相关技术百花齐放、百家争鸣,尚属于竞争前技术。在新器件、新机理、新电路、新架构方面的突破,将有望带来颠覆性变革。
◎复旦大学微电子学院教授韩军:
在冯诺依曼架构下,“存储墙”即中央处理器和存储器之间的性能鸿沟一直是困扰计算系统的瓶颈问题。对于人工智能这类海量数据所驱动的应用,传统架构的缺陷更加暴露无遗,其算力完全受制于访存带宽,同时总体功耗因计算与存储之间的高带宽数据流动而急剧飙升。
将数据存储和计算相融合的存内计算技术是解决这一困境的重要途径,它将成为突破AI算力瓶颈的关键抓手之一。传统架构的优势是其相对成熟的工具链和可靠的设计流程,因此实现存内计算技术在AI芯片上的广泛应用还必须进一步着眼于发展包括算法框架、编译器、仿真器、电路设计与器件模型在内的整套技术体系。
模块化降低芯片设计门槛
◎清华大学长聘教授尹首一:
当前集成电路技术和产业正处在关键变革窗口期:一方面,摩尔定律经过五十余年高速发展后不可避免地遭遇物理极限,制造工艺迭代愈发缓慢;另一方面,云计算、物联网和人工智能催生出大量碎片化、定制化应用需求。传统集成电路设计产业模式以追求“量大面广”为目标,未来“小步试错、快速迭代”将成为重要趋势。
开源IP核、Chisel语言以及芯粒(Chiplet)技术在不同层次上成为实现芯片敏捷开发的使能技术。开源IP核降低了芯片设计的进入门槛,Chisel语言提高了硬件抽象层次,而芯粒则为系统级芯片设计提供了崭新途径。尤其是未来随着异质集成、三维集成等技术的成熟,摩尔定律将在全新维度上得以延续。
◎中科院计算所研究员包云岗:
纵观处理器设计方法发展历程,正是一个将处理器芯片设计不断模块化、解耦化的过程。每一次设计方法的变革都大幅提升设计效率,不仅降低芯片设计门槛,同时也孕育出新的世界领军企业。例如,1980年的无晶圆厂(Fabless)模式是将设计与制造解耦,降低了设计门槛,从而孕育出nVidia、Xilinx等企业;“IP核+SoC集成”模式是对芯片设计阶段的进一步解耦,孕育出ARM、高通等一批世界级企业。
如今开源芯片、敏捷设计、Chiplet等一系列新的芯片设计方法与模式开始快速发展并相互融合形成化学反应,有望在未来进一步对芯片设计进行解耦,提高芯片模块的复用度,从而缩短芯片设计周期、降低芯片设计成本。未来当芯片设计的门槛实现数量级地降低,将有可能颠覆IT技术开发模式——当软件工程师通过几个月开发出新的软件功能,芯片设计工程师很快便能实现出相应的加速芯片,从而形成更高效的软硬件协同的解决方案。芯片设计门槛的降低,也将有助于人才的培养,有助于释放芯片产业的创新活跃度,吸引更多资本投入,从而繁荣整个产业。
◎复旦大学微电子学院教授韩军:
周期长、效率低且不易迭代维护确实是传统芯片设计模式的痛点,敏捷设计方法和开源芯片技术将持续推动芯片的设计方法学和相应产业生态环境的变革。
通过采用高度模块化和高度抽象性的硬件建构语言(例如伯克利开发的Chisel或斯坦福开发的Spatial),能够快速完成芯片原型的搭建,从而面对市场不断变化的需求实现性能的尽快评估和设计的迭代优化。
另一方面,RISC-V开源指令架构在全球的迅速推广已经催生了开源芯片的生态系统。各类SoC芯片在RISC-V的赋能下可以快速开发出来,从而迅速满足多样化的应用需求。今后应该进一步加强开源芯片社区的基础设施建设,产学研各界提供更多的技术赋能,使上下游企业都能受益于新的芯片设计模式。同时努力实现产教融合,利用新模式开放度高、实践性强的优势大力培养芯片设计的优秀人才。
规模化生产级区块链应用走入大众
◎中国人民大学大数据区块链与监管科技实验室主任教授杨东:
2019年,区块链产业的发展打开了巨大的想象空间。区块链应当用来解决实际问题,服务实体经济,产生社会价值。当前,区块链技术应用已延伸到数字金融、数字政府、智能制造、可信司法、供应链管理、社会民生建设等多个领域。在所有技术中,区块链比起人工智能、大数据等其他技术,它的关键优势在于能够改造和提升旧的生产关系,成为数字经济下的“基础设施”。
对区块链技术的重视,不仅是对其本身技术特征的推崇,更是应当把握技术革新带来的制度变革契机,进一步关注区块链金融创新与国家治理的有机融合。
◎复旦大学经济学院教授李洁明:
数字经济活动发展加速,需要各行业配合更为高效和透明。实时、可信、极低沟通成本的区块链技术恰好满足了数字经济企业的上述现实需求。“云+区块链”技术的发展也降低了传统企业向区块链转型的门槛。区块链规模化应用并走入大众确实可期。
新材料推动半导体器件革新
◎中科院物理所特聘研究员沈洁:
2020年,我预计新材料将推动半导体器件革新:
20世纪90年代科学家在实验上成功做出首个量子比特,人们发现之前玄而又玄的量子比特居然能实现,这引起学术圈极大震动。借助于微纳米器件合成工艺的进步,科学家们发现人工操控电子已经在技术层面上具备了可行性。
2019年,谷歌43个量子比特的实现,从某种意义上来说,构架起一个从实验室走向工业化的桥梁,给了我们一个将实验室基础科研成果和工业集成化体系进行高效率结合的范本。
拓扑材料是过去十年凝聚态领域里的一颗璀璨明珠,它使得凝聚态这门比较古老的学科焕发出了新生,得以在21世纪各种新概念和新科技的夹攻下继续昂首挺进。它也引导了一种理论指导实验的研究方式。将它与量子计算结合,是1+1>2。拓扑量子计算,有望成为2020年后十年的潜力科技。