X86处理器面世42年了,已确认进入了不惑之年,回头看看它的发展过程,究竟都在哪几个方面有了突变呢?
我们都看得到是功用,这些年来X86功用不断进步,开端频率不过5MHz,现在现已增加1000倍到5GHz,也从开端的单核一路扩展到了双核、四核、八核等,这能够说是X86的第一种算力。
第二点便是功用,X86处理器开端便是单纯的CPU,后续不断扩展,20多年前开端整合浮点单元,10年前开端整合GPU单元,它能够看作X86的第2次算力革新。
现在已确认进入到了21世纪第三个十年,这几年来人们对算力的要求也不相同了,AI人工智能兴起,各种AI芯片方兴未已,这些厂商动不动便是吊打CPU处理器,这也让X86处理器有些落寞。
已然这个趋势不可避免,那就拥抱它吧——X86老迈Intel这两年来便是这么做的,从10nm Ice Lake处理器开端给X86处理器参加AI加快功用,促成了X86处理器史上第三次算力兴起。
Tiger Lake处理器:三位一体加快AI、6倍AI功用
Intel是最早一家赋予X86 CPU处理器AI加快功用的公司,早在上一年的Ice Lake处理器上就初次集成了AI加快,其时是经过DL Boost指令集完成的。
所谓DL Boost,指的是DeepLearning Boost(深度学习加快),深度学习是现在最炽热的AI技能之一,但它与CPU、GPU惯例的运算指令又不相同,依照惯例办法跑功率很低,而DLBoost是专门用于加快AI运算的指令,因而运算功率十分高,速度要快许多。
DLBoost指令集中最重要的包括AVX512VNNI以及Bfloat 16,它全面支撑Windows ML、Intel OpenVINO、苹果CoreML等结构,兼容现在干流的AI渠道,便于开发者在十代酷睿上推动各种AI运用。
依据之前的测验,Ice Lake支撑DL Boost之后,在INT8运算相关的AIXPRT测验中,Ice Lake处理器的功用可达前代处理器的 2倍到2.5倍之多。
在Ice Lake小试牛刀之后,Intel在第二代10nm处理器Tiger Lake进步一步加强了AI功用,除了原有的DL Boost及低功耗加快器之外,Tiger Lake上这次的Xe图形架构GPU进一步进步GPU对AI的加快功用,将Ice Lake上的CPU+GPU+GNA的AI加快功用进步到新的高度。
在Tiger Lake处理器上,根据Xe图形架构的内置显卡是其亮点之一,该图形架构是Intel时隔22年之后重返高功用GPU商场的根底,经过Xe图形架构就能一起掩盖笔记本、台式机、工作站、HPC超算等低功耗到高功用图形核算渠道。
除了高功用核算之外,AI加快也是Intel的Xe架构不同于其他GPU的当地,Intel用于极光”(Aurora)百亿亿次级超级核算机的GPU也是Xe架构的,代号Ponte Vecchio,它跟Tiger Lake中的Xe GPU仅仅规划巨细不同。
那实践功用怎么呢?先不说更强壮的Tiger Lake,只需求现在的Ice Lake处理器出马,其AI加快功用就已达到了竞品的数倍,最高可达6倍功用。
不光是理论功用占优,实践上AI加快在PC上现已有了许多运用,触及图画、音频、视频、语音等各个领域,许多时分我们或许并没有感觉到罢了。
在CES现场,Intel邀请了Adobe公司的开发人员上台,演示了Photoshop软件的AI加快,上图中原图是一张分辨率较低、噪点较多的相片,经过AI加快能够在几秒钟内变成一张个高分辨率、高画质的大图片,细节清楚、作用锋利。
根据AI加快,Photoshop软件还能够主动抠图,省心省力,这样下去设计师都要赋闲了。
除了图片,AI技能在视频处理中也相同能够大显神通,PR软件现已能够靠AI完成横屏与竖屏的主动处理,相同能够进步设计师的功率,简化工作量。
消费级CPU补齐缺失的一环 Intel全渠道AI起航
关于AI人工智能的远景,现在没人置疑它会在未来改动人类的科技树,不同的是之前大部分公司都是经过专用AI芯片来跑AI加快,不认为CPU这样的通用处理器合适加快AI,可是Intel做的有点不相同,在两代10nm处理器上都不断加强AI算力,补齐了消费级CPU没有AI加快的这一环。
上一年12月中旬,Intel公司宣告斥资20亿美元收买了以色列草创公司Habana,后者是由David Dahan和Ran Halutz于2016年创建的,总部在以色列,致力于进步AI芯片的处理功用并下降其本钱和功耗,其AI芯片首要针对深度神经网络练习的特定需求,更合适云端AI练习。
收买Habana公司之后,Intel又获得了一种AI加快芯片——AI推理及AI练习专用芯片。假如再把之前Intel已有的AI相关芯片联系起来,那么我们就能够正常的看到Intel现已在全渠道芯片上推动了AI战略。
CPU处理器中,新一代酷睿及至强处理器都开端支撑DL Boost为根底的AI加快指令,FPGA中有Agilex系列AI芯片,神经网络芯片有Moviduis以及Nervana系列,GPU加快的AI芯片有Xe图形架构,能够说Intel现已集齐了各式各样的AI芯片,不管哪种AI芯片都有自己的全套处理计划。
这种大面积撒网的布局使得Intel在未来的AI商场之间的竞赛中有更强的底气,也更简略发挥协同效应,CPU能够跟GPU、FPGA芯片调配,灵敏应对高功用或许低功耗等AI处理计划,反正从PC到工作站再到数据中心、超算,从本地到云端,从练习到推理,业界需求什么样的AI计划,Intel这边便是“全都有”。
Intel的AI之道:全AI芯片打地基 OneAPI开路
Intel具有的多种AI芯片中,除了CPU、GPU是自己研制之外,FPGA、Moviduis、Nervana及Habana都是收买来的,不过这也不要紧,Intel具有地球上最先进的制程工艺,这些芯片晋级改善之后很快都会运用自家的先进工艺出产,FPGA、Moviduis、Nervana等芯片现已这样做了,连续运用Intel自己的14nm、10nm及未来的7nm工艺出产。
在处理AI芯片之后,Intel还在推OneAPI软件战略,简略来说便是经过一套开发工具满意不同渠道、不同芯片的软件开发,这是Intel“软件先行”战略的重要表现,Intel信任这一战略将界说和引领一个人工智能日益交融、异构及多架构的编程年代。
跟着Intel硬件及软件战略的推动,毫无疑问未来AI会成为各种芯片算力的要害。就酷睿处理器来说,AI也成为CPU、GPU标配算力,并且它的功用增加潜力要比传统核算更大,未来几年里动辄数倍的功用进步会是常态。