三次转型后 Intel第四次对自己“动刀” 能成功吗?
更新时间:2019-12-24 09:37:12 浏览次数:956+次2010年代的最后三年,英特尔浩浩荡荡开始了转型革命,这是英特尔第四次向自己“动刀”。回顾英特尔历史上曾发生过的三次转型:
上世纪八十年代中期,安迪·格鲁夫和戈登·摩尔主张放弃存储业务,聚焦微处理器,由此英特尔才成为一家芯片公司;
20世纪90年代,克雷格?贝瑞特将单一微处理器产线打散,抓住互联网机遇,完成了到 “互联网经济的构件供应商”的战略转型;
2010年代,移动时代让巨人英特尔步履蹒跚,尽管英特尔做了诸多努力,成效却并不十分明显,今年4月英特尔宣布退出5G智能手机调制解调器芯片,也是对自己上个时代转型未果的作别。
两次成功,一次行至中盘,错失移动互联网时代也让英特尔快速开启下一次转型,倘若英特尔在移动互联网时代再度成功,想必是不会如此之快开启自己的下次进化,失之东隅收之桑榆,谁又能说得清呢?
英特尔中国研究院院长宋继强
对外豪掷千金的收购、对内不断演进的技术路线,英特尔用三年时间时间构建了自己“以数据为中心”的技术版图。英特尔中国研究院院长宋继强总结了英特尔这三年来为转型做作的努力,并且给出了一些技术预判。
“数据”是主线
英特尔“以数据为中心”的战略不是说说而已,英特尔正是沿着数据产生、采集、传输、处理、增值、存储的流向,将其作为指导构建了自己的技术全景图,同时不断查漏补缺。
IDC 预测, 全球数据圈将从 2018 年的 33ZB 增至 2025 年的 175ZB。当下每天有超过 50 亿消费者与数据发生互动,到 2025 年,这一数字将上升到 60 亿,相当于全球人口的 75%。2025 年,每个联网的人每隔 18 秒就会有至少 1 次数据交互。
由此产生的不仅是数据金矿,更是数据灾难。数据增长读懂计算、存储和传输需求,而数据的的规模与复杂性,远远超出当前分析、理解这些数据的能力。
英特尔认为,未经处理的数据毫无价值,只有将数据转化为业务价值,才能创造新的服务和体验。数据的新需求在哪里,英特尔就在哪里。
宋继强表示,数据无处不在,意味着多远计算时代来临,从云到端,不仅仅是PC,服务器或其他设备,人工智能、云数据中心、物联网、下一代网络、自动驾驶等新型数据密集型工作负载不断涌现,正驱动计算架构快速演进并呈指数级扩展,未来十年,架构创新将成为计算创新的关键驱动力。
早在2017年,英特尔便确立了“以数据为中心”的转型目标,但是为了这个转型,英特尔的准备还可以追溯到更早期,如上图所示,英特尔从2015年就开始了布局,涵盖战略、收购、产品创新、生态合作等方方面面,图中所列甚至都不能完全概括英特尔究竟做了多少事,但可以确定的是,英特尔很努力不想错失万物互联时代。
自2015年收购Altera起,英特尔先后收购了Nervana、Movidius、Mobileye、eASIC、NetSpeed Systems、Habana Labs,成为收购最频繁的科技巨头之一。结合战略发布、生态合作,英特尔每年带来惊人的产品创新能力,根据Q3财报,英特尔以数据为中心业务营收已与PC业务持平,仅刚刚过去的11月,英特尔就连续发布了Nervana神经网络处理器NNP、Movidius Myriad视觉处理单元、基于Xe架构的通用GPU等产品,英特尔通过丰富的产品布局牢牢抓住“计算”的主动权。
截至今年10月,英特尔经过三年多的转型,“以数据为中心”的业务营收与“以PC为中心”的业务营收持平。“以前我们大部分的营收是来自以PC为主,现在已经至少一半是来自“以数据为中心”的业务。这是非常大的变化,而且以后就会越来越高。”宋继强肯定的表示。
计算是英特尔“以数据为中心”战略版图上的明珠,为了更好的面向新的计算时代,英特尔在2018年提出了“六大技术支柱”战略,从制程和封装、XPU架构、内存和存储、互连、安全、软件这六个方面确立了如何驱动未来的创新。
异构计算重要且有效,但是异构计算也带来新的难题,掌握不同架构开发编程技术的人才少之又少,所以英特尔推出了oneAPI,其最重要的作用是统一和简化跨架构编程,将CPU、GPU、AI、FPGA等关键技术打通连接,使它们可以按照需求进行灵活组合,从而为客户提供跨架构、跨平台的组合式解决方案。而异构整合EMIB和Foveros及今年7月推出的Co-EMIB技术则从封装角度展现了英特尔基于六大支柱的创新能力。
对于六大技术支柱,宋继强坦率表示,“50多年来,英特尔作为一家IT行业的领先公司,也不可能所有部分全部做到第一,但我们在这几个驱动未来的关键领域都做到了第一梯队,有些是第一,这就保证我们产品总体的软件到硬件的配合、性价比、稳定性,或者说从端到端的整合计算、存储和通讯,我们的领先度是绝对有保证的,而且是有持续可靠的产品供应体系。”
技术是未来
如果说互联网时代,模式创新还能成就一家巨头,那么万物互联时代,没有硬核技术作为后盾,即使找到创新模式,也无法构建企业竞争壁垒。技术布局如英特尔,也认为面向未来,仅靠现在所拥有的产品是无法满足需求的,智能计算和人脑相比还有显著的差距。
英特尔在2017年推出了Loihi神经拟态芯片,内置128个核,拥有13万个神经元和1.3亿突触,还包括了片上存储结构。能提供高度复杂的神经网络拓扑,支持多种学习模式的扩展和片上学习能力。Loihi系统部署学习机制后,它将边工作边学习边自行改进,这已经在向人脑的运行模式去靠拢。
神经拟态芯片就是英特尔重点押注的未来技术之一,Loihi芯片架构设计整合了计算和存储,不再是冯·诺依曼架构,128个同构的核,每个核里都放了一千个神经元的计算模型、计算部件和存储,同时还通过每一个小的神经元,进行信息收发。英特尔用一套硬件架构和模拟类似于人脑的工作方式。
相比人脑的860亿神经元,Loihi的13万神经元还差的很远,人脑的能耗也只有20瓦,目前神经拟态芯片的瓶颈在内存、I/O和能耗三个方面,神经拟态计算的发展前路漫漫。目前神经拟态的应用领域还相对比较集中,体现在智慧工厂、恶意软件检测、自适应假肢等方面。
日前大热的量子计算也是英特尔持续投入的重点方向,不过相比沸沸扬扬的“量子霸权”英特尔更关注量子计算实用性。客观地讲,实验室成果值得庆祝,但实际应用是大问题。
量子计算的目标是处理经典计算机搞不定的大规模计算问题,通常是组合爆炸问题,比如密码破解,128位密钥、256位密钥,经典计算需要几十上百年,甚至数千年都算不出来,但是量子计算可以迅速破解加密方式,这也体现出量子计算的特长。
“量子计算最擅长的是它可以直接模拟量子的形态,量子态的东西最适合模拟,通过很多种不同的组合可以实现化学发现,发现一种新物质,发现一种新材料、这些都可以用量子计算来解决。”宋继强提到。
当然量子计算想要实现并不容易,量子计算中量子跃迁所需要量子位是脆弱的,跃迁结果难以被测试,也很容易受到条件因素改变而改变。同时,量子位是不容易叠加新的态,或者让多个态之间进行纠缠的,如此一来量子位缺少数量优势,难以实现量子计算爆发的效率优势。制造更多的量子位,解决量子位的纠错,解决量子位之间的连接和测试问题,这是庞大而又系统性的工程。
不管是创造更多的量子位还是监测量子跃迁状态,都需要在可测试的条件下进行,所以英特尔目前所做的主要是在不影响量子位和跃迁状态的情况下对量子位进行测试。以此路径,英特尔带来了首款49量子位超导量子测试芯片“Tangle Lake”,并打造了全球第一台低温晶圆探测仪,它也是目前量子计算首款测试工具。在刚刚过去的12月,英特尔推出首款低温量子位控制芯片,令量子位达到量子计算所需要的叠加态、纠缠态,可实现-269摄氏度低温环境下工作。
“以数据为中心”和“六大技术支柱”是英特尔遵循的战略主线,仍在丰富的XPU产品组合,异构整合和oneAPI软件平台推动英特尔超异构计算愿景。围绕数据的来去,英特尔提供一套完整的数据处理、存储和传输的解决方案,同时面向未来,英特尔也正在在神经拟态计算、量子计算等前沿计算领域不断探索,这就是英特尔对即将过去的2010年代交出的技术转型答卷。