2024年
亚杰年会系列
Series
Annual Meeting
On site guest sharing
►►►
2024
11
17
汪玉教授的演讲聚焦于人工智能领域的算力发展与应用。他首先回顾了从电子计算机到多核CPU的技术演进,随后分享了自己在人工智能(AI)加速器领域的科研与创业经历,强调了算力、数据和算法对AI发展的重要性。
最后,汪教授展望了未来AI与机器人的融合,强调应加强与物理世界的交互,实现人与机器的智能混合。(本文根据汪玉教授现场发言内容整理而来,文章配图来源汪玉教授PPT中)
0
1
AI算力的历史演进与核心挑战
——《Thinking, Fast and Slow》,图源百度百科
书中提出两个思维系统:一是快速直觉反应,二是慢速理性分析。
人类智能包括:
第一类系统(直觉/感知)是“大脑快速、自动、直观的方法”;
第二类系统(推理/认知)是“思维的慢速,理性占据主导地位的分析模式”。
下面进入正片~
(一)从通用计算到专用加速
—— 硬件人的y=f(x)视角
接下来,我要翻到第二页,这一页与文老师(文继荣)的内容有些相似。因此,我曾一度考虑是否还有必要继续讲述。大家看大屏幕,我也在讨论y=f(x)这个话题,但我是从硬件工程师的视角来阐述的。
在上世纪40、50年代,半导体技术的出现推动了计算机的发展。
作为硬件工程师,我们的任务就是在保持结构不变的前提下让这个“f”的计算变得快一点,一方面改进CPU架构,另一方面优化半导体工艺,从微米级一路缩减到纳米级,以提升每个操作的速度。最初,我们的目标是打造电脑,即用电来模拟大脑,实现“f”的快速计算。
人工智能阶段1:计算智能
人工智能阶段2:感知智能→人类智能系统I
人工智能阶段3:认知智能→人类智能系统II
说到我的个人经历,我毕业是在2007年,那时多核CPU已经出现。如果大家还记得的话,2005年就已经有了多核CPU。这意味着我们可以用更多的核来并行处理任务。
在我毕业之际,杨华中教授作为我的导师,给了我一个宝贵的建议:若想在清华担任教授职位,探索与导师不同的研究领域会是一条更有利的道路,因为清华电子系倾向于接纳具有独特研究视角的人才,避免在同一领域内过度重叠。如今,作为系主任,我也温和地提醒各位,当考虑留下学生继续深造或工作时,鼓励他们开辟与自己略有差异的研究方向或许会更加有益,这样不仅能促进学术的多元化发展,也能为每位学生提供更广阔的成长空间。
我之前是做EDA(ElectronicDesign Automation) 的,即为集成电路设计提供设计工具。主要解决的是尺寸微缩时遇到的功耗和可靠性问题。(通过改进CPU架构和缩小工艺尺寸,提升计算速度。)虽然我是写代码出身的,但我对集成电路也有一定的了解。
后来,为了寻求不同的发展道路,我去了微软亚洲研究院(Microsoft Research Asia, MSRA),与继荣(文继荣)成为了院友。之后我又去了英特尔Intel,帮助微软内部唯一一个做硬件的组进行硬件加速,用于搜索任务。我们用一块卡就替代了几十台机器。当时我觉得这种方式很有前景,即用硬件来替代软件的做法。后来,我参与了一系列加速器的研发,并将这一领域作为我回到清华大学后的学术研究方向即针对特定应用领域的架构设计(domains specific architecture design )。
大家现在最熟悉的GPU(Graphics Processing Unit)就是针对图形图像处理领域设计的特殊处理器。(专用加速器如GPU、DPU等应运而生,针对特定任务进行优化,显著提升计算能效。)
然而,每个加速器的市场规模都有限。在座的各位如果创业的话,就会知道市场规模的重要性。如果市场不够大,就无法实现规模化发展。
对于芯片行业来说更是如此,芯片是按个数来卖的。如果你一年能卖出一个亿的手机,那么手机里所用的所有芯片都能上市,因为需求量足够大。但如果你只是做一个压缩算法的加速器,可能全世界的需求量相对较小,这样的产品通常很难上市,只能作为科学研究项目。
(二)神经网络加速器的兴起
—— 1. AI加速器的转折点
CNN的兴起:
AlexNet:2012年,AlexNet在ImageNet图像识别竞赛中取得了突破性进展,标志着CNN在计算机视觉领域的兴起。
VGG、GoogleNet:在2014年,VGG和GoogleNet等模型进一步推动了CNN的发展,提升了图像识别的准确率。
CNN的兴起为AI加速器提供了新机遇。⬇
直到2011、2012年,我们见证了CNN和DNN的兴起,神经网络以一种全新的方式展现了统一世界的潜力。
那时,深度学习的魅力在于,只要提供足够的标注数据(x和y),就能拟合出复杂的函数f。这正是我们当初研发AI加速器,特别是在CNN和DNN领域时所遵循的逻辑。这样的加速器能够应用于语音识别、图像处理等领域,这些领域以往难以用公式精确描述,或公式描述效率低下。而数据驱动的深度学习实现了一种“看图即知结果”的高效能力。
汪教授团队开发了面向CNN和DNN的加速器,通过软硬件协同优化,实现高效能计算。⬇
汪玉——联合创始人:11年体系结构研究经验,时任清华大学电子系长聘副教授,清华大学电子系党委副书记,国家自然科学基金“优青”获得者 ,ACM FPGA技术委员会亚太唯一成员,IEEE/ACM Senior Member。
韩松——联合创始人:全球最前沿深度学习压缩与体系结构研究 ,MIT EECS助理教授,斯坦福大学博士,师从Bill Dally教授 ,Deep Compression技术提出者 ,ICLR 2016 最佳论文。
姚颂——联合创始人&CEO:清华大学电子系毕业,斯坦福大学电子系访问学者,前清华大学电子系科协主席,MIT Tech Review 35岁以下35名创新者,福布斯亚洲30 Under 30。
单羿——CTO:清华大学电子系博士,伦敦帝国理工联合培养,IBM PhD Fellowship ,前百度IDL异构计算方向创始成员,前地平线机器人FPGA技术负责人。
(以上为创业时期介绍,仅供参考,以实际为准)
在2011、2012年左右,我开始着手这个项目,并组建了一支团队,其中包括韩松、姚颂和单弈等人。由于当时人事制度尚未改革,我还不能指导博士生,直到2013年才开始带硕士生,因此我主要依赖清华的本科生力量,而他们的表现确实非常出色。
到了2015年9月,经过一段时间的努力,我们团队中的本科生们终于完成了初步的研究成果,并随后投稿学术论文。
值得一提的是,就在15年年底,我获得了清华的长聘副教授职位,这意味着在清华改制后,只要我遵守规定,就能长期留任。
于是,在2015年12月,我们开始撰写商业计划书(BP),向外界介绍我们研发的面向CNN和DNN的通用加速器,对各行各业产生积极的推动影响。
紧接着,在2016年2月,正如继荣所提及的,AlphaGo的崛起让我们的初创公司受益匪浅。由于AlphaGo对算力的巨大需求,我们的公司估值因此翻倍。这一事件再次证明了算力研究的重要性及其潜力。
这是我们的第二个重要发展阶段。
(二)神经网络加速器的兴起
—— 2.深鉴科技的成功创办与并购
深鉴科技的成功创办与并购,推动了FPGA深度学习加速器的产业化,为全球AI芯片市场带来了创新力量。⬇
到了2018年,我们决定将公司出售给赛灵思。在此之前,市场上已有寒武纪、地平线和深鉴三家知名公司,而我们作为其中的第三家,估值相对稳健,达到了34亿美金。当时,周边房价飞涨,而我们的“房价”(即公司估值)却保持稳定。最终,我们被赛灵思收购,现在成为了其AMD部门的一部分。
出售公司后,我回到了学校,学生们纷纷询问我们接下来在学校的研究方向。大家讨论出,AI芯片领域已经竞争激烈,我们需要找到新的突破口。恰好,我的好朋友唐杰正在研究知识图谱(Knowledge Graph),我萌生了将深度学习与知识图谱相结合的想法。我认为,稀疏加速器正是处理这种稀疏数据结构的理想选择,因此我们将深度学习与知识图谱进行了融合尝试。
然而,在实践过程中,我们发现这一方向并不如预期般顺利。尽管如此,我们一直没有放弃对这个方向的探索,并持续关注着相关领域的进展。我们每年都在努力理解图中各个对象之间的关系,并尝试实现推理功能。直到大模型或人工智能2.0的出现,我们又看到了新的机遇,于是决定再次踏上创业之路。
0
2
AI算力的核心要素与未来趋势
0
3
面向未来的AI算力应用与展望
0
4
结论与展望