百度“昆仑”暴露中国AI芯片野蛮生长,自研潮流下的重大问题

互联网
百度“昆仑”暴露中国AI芯片野蛮生长,自研潮流下的重大问题
麻省理工科技评论 2018年7月10日

2018年7月10日

近几年 AI 议题火热,似乎只要各种行业沾上了 AI,无穷的“钱景”就会随之而来。
人工智能 机器人 芯片
近几年 AI 议题火热,似乎只要各种行业沾上了 AI,无穷的“钱景”就会随之而来。

上周,百度在其开发者大会上宣布了其最新的 AI 芯片与自动驾驶进展,然而在光鲜华丽的发表会下面,百度是否真的做出了独有创意?还是只为近来 AI 浪潮中再多增加一个泡沫?而根据百度在发布会上公开的信息,昆仑芯片最高算力可达到 260 TOPS,已经是 NVIDIA 的最新算卡 V100 的两倍以上,但是这个算力指标靠不靠谱?对百度云计算的规划是否真能发挥作用?其实 DT 君抱以存疑的态度。

首先,算力的计算有很多层次,就以 TOPS 这种每秒整数操作次数,还可分为不同精度,以及稀疏计算模式的启用与否,以寒武纪为例,其在 5 月发布的专业算卡架构在性能指标方面就可分为多种模式,且该架构不用 TOPS 作为性能指标,而是采用基于浮点计算的 TFLOPS,性能从倍精度、单精度到半精度,算力跨度从 16 TFLOPS 到 166 TFLOPS,昆仑仅提供单一数据,且只有公开最大整数计算能力,其实背后隐含着该架构可能在均衡性有所欠缺,只能少数状况下拥有较高性能表现的可能。

另外,若以昆仑芯片的 TOPS 参数和 NVIDIA 的 V100 比较,表面数字上的确赢了不少,但是昆仑芯片并没有公布芯片的规模,只有宣布其整合了数万个小核心,那么从这些简短信息来判读,昆仑芯片采用的是一般乘加法器的大量叠加来增加其算力,但 NVIDIA 的 CUDA 单元或寒武纪等计算架构都具备可编程的弹性应用能力,NVIDIA 更是拥有业界最成熟的 CUDA 工具套件,可以让硬件架构更好的发挥,而昆仑芯片在开发环境上能否让昆仑芯片百分之百地发挥亦是令人存疑。

近几年 AI 议题火热,似乎只要各种行业沾上了 AI,无穷的“钱景”就会随之而来。一向反应最快的中国市场,更带领了一波芯片与产业服务的 AI 创新。

在产业、官方以及学术界的通力合作之下,中国 AI 技术的发展似乎已经领衔全球,我们可以看到各种先进的方案、算法,以及应用不断冒出头,与之搭配的各种芯片方案也纷纷被创造出来,不论从视觉识别,自然语言、终端、边缘、云计算的 AI 方案也一应俱全,但其中的一个大问题是,各家厂商并没有形成共通生态,而是走向各自为政。虽然,从理论上讲,光是现有产业的 AI 化就已经具备可以支撑整个产业的需求规模,即便芯片生态分散,仍应能找到自己的生存空间。但自有芯片对应用或者是云计算厂商是一种必要投资,还是“”自有“”这两个字已经被过度强调之下的产物?或许值得我们再三思考。

就好比为了喝牛奶而养牛,我们要有专门环境,专人照顾,食料、疾病防治,加上挤牛奶的设备、牛奶的保存,这些不只要资金维持,也要很多的时间成本。AI 芯片亦不外如是。芯片设计出来除了芯片架构本身,开发环境、各种框架的整合,以及与现有架构的互换性,若没有互换性,那又需要重头设计整套生态,因此,看芯片不只是看芯片本身,更要看周边生态的搭配,这些都是人和钱堆出来的产物。

MIT-Neural-Chip_0.jpg

当然,政府为了推动半导体产业发展,其实通过很多种补贴方式来鼓励芯片设计行业开发自己的方案,就好比为了喝牛奶想养牛,政府就会真的补助一条牛,但怎么养,怎么生产牛奶就要自己想办法。很多企业因此在真正考虑营收获利模式之前就先开个芯片再说,其出发点可能是为了配合政策,也可能是有了补贴不开白不开,但开了芯片之后能有什么作用?单纯仿照其他人的作法做出架构类似的 AI 计算架构,又是否真能帮助自己的计算事业更上层楼?这会不会甚至模糊了自己的固有优势?

除了开发芯片的成本低以外,还有另外一个原因,那就是要根据行业别不同而进行定制化的需求。

其实,不少企业开发芯片的理由,都是“找不到适合的芯片”,比如说语音芯片或者是视觉识别芯片可能需要不同前后端设计,通用方案可能无法完全满足这些厂商的需求,这种设计可能就有其价值,但以昆仑这种通用 AI 芯片,似乎就没有太大的必要。前面也提到,由于现在推出“自有”AI 芯片的厂商已经多如牛毛,且因为各行其是,难以形成足够强大的聚落,当然,目前业界其实也有像寒武纪或 Arm 这种可提供授权,具有一定生态基础的架构可使用,但自古“文人相轻”,况且 AI 芯片基础架构大同小异,差别只在算法软件和平台的配合,若能关起门来能自己赚那又何乐而不为?毕竟采用别人方案肯定会削薄利润。

但事实真是如此吗?

我们可以回头看看过去 NVIDIA 在发展 AI 计算以及相关环境时,在芯片以外的东西投注了多少心力,光是 CUDA 这个开发环境,就已经花费了十年以上的心力,不仅是完善本身的架构,也积极与业界、学界合作,从底层稳扎稳打做起。虽然现在的 AI 计算环境早就已经不是过去极度贫乏的状况,各种开发环境都摆在那边,框架也都帮你设计好,只要在程序中直接引用即可,但这种“自有”又是“”真的自有“”?

而厂商的各行其是,等于是各家厂商都花费了许多时间在做类似的工作,推出类似的方案,对全国研发资源而言,更可说是一种浪费,如果能够集中这些资源,让厂商不用重复发明轮子,而是集中精力,想办法让现有、已经够好的轮子有更好的应用方向,那是否会对整个中国 AI 产业能有更正面影响和帮助?DT 君认为是有这个可能的。只可惜国内厂商们在“自有”这条路上走的太远,像昆仑这样的通用 AI 芯片方案此起彼落,是真正对个别厂商,或对整体中国 AI 产业能产生帮助,还是造成研发资源的浪费,恐怕还需要时间证明。

麻省理工科技评论

From Tech to Deeptech