9月6日,CNBC的一篇文章报道说,苹果、亚马逊、特斯拉等科技巨头们正在急于开发自己的芯片。
上一年11月,苹果宣布抛弃英特尔的CPU,推出了首款自研芯片M1,用在电脑和ipad上。
本年8月,百度宣布量产昆仑2代人工智能芯片,首要用在智能驾驭、智能交通等需求大算力的场景中。
另外,在AI芯片方面,还有阿里推出了“含光”,华为推出了“昇腾”,亚马逊推出了“Inferentia”。
最近引人注意的是,8月份特斯拉推出了一款具有高核算功用的芯片D1,并方案用D1打造世界上最强壮的人工智能核算机,专门用来练习神经网络,对各种视频进行分析,帮助车辆在主动驾驭时作出相应的抉择方案。
你会发现,确实有越来越多的科技巨头加入到了自研定制芯片的行列,满足特定使用的需求。
为什么我们会忽然扎堆,开发定制化芯片呢?
这是由于假设和竞赛对手用相同的通用芯片,你就做不到功用更好,本钱更低,无法差异化竞赛。
其实在上一年10月的【科技特训营】里,我们就讲过芯片工业的未来机遇。
以前的芯片工业是单芯片时代,比较的是单一芯片的功用,英特尔的X86架构CPU一直占有着主导地位,但是现在,我们迎来了一个新机遇!
就是当人们进入人工智能+云核算的时代,面对海量数据需求处理的时分,以前的通用芯片CPU现已不能满足需求了,具有高带宽、高并发的异构核算,在这时分就显得特别重要。也就是说,芯片工业进入了异构核算时代。
那究竟什么是异构核算呢?
异构核算,就是多种核算单元(例如CPU、GPU、ASIC、FPGA)的集成和交融。
异构核算的芯片中既有通用核算单元,也有高功用的专用核算单元,复杂但轻松的任务交给通用核算单元,简单但深重的任务交给专用核算单元,整体上就具有了高功用、低功耗等长处。
一般来说CPU的结构中,算术逻辑单元占的面积很小,大部分电路都被做成了操控电路和缓存,所以它更擅长做操控和任务分配,核算功率并不高。
后来人们发现,既然CPU算力不够,那就多找几个好帮手,让他专心做分配任务的事就行了。
GPU就是其间一个好帮手。
GPU就是专用途理器的一种,在结构上和CPU大不相同。它的操控部分很少,核算单元占有了大部分电路,具有上千个算术逻辑单元,可以组成大规模并行核算架构,算力能抵达CPU的几十上百倍。
所以通常是一个任务来了之后,CPU先分析下任务的性质,然后抉择分配给谁,遇到许多的重复性作业时,就分给GPU做并行核算。
跟着5G、边沿核算的开展,有一种趋势越来越显着,就是未来会需求更多的功用更高的专用核算,来解决职业的特定问题。这时分通用芯片就不是最好的解决方案了,专用的定制化芯片会更加适宜。
例如ASIC(Application Specific Integrated Circuit)专用集成电路,就是一种定制化的芯片。
与CPU、GPU 的通用性相比,ASIC就只做一件作业,针对具体的某个任务来说,它的处理速度更快,能耗更低,但是本钱相对比较高。
谷歌的TPU(Tensor Processing Unit 张量处理器),就是专门为深度神经网络运算而研发的芯片,是一款ASIC定制化芯片。
与同期的CPU和GPU相比,谷歌的TPU可以提供15-30倍的功用进步,以及30-80倍的功率进步,可以大规模的用于神经网络,还能把本钱操控在可接受的程度上。
其实谷歌TPU功用强劲的诀窍,就是由于专心于神经网络核算。单用途的TPU不需求考虑缓存、分支猜测等问题,所以操控单元更小,更简单规划,给运算单元留下了更大的空间,TPU的大小只需其他芯片的一半,硅片越小,本钱越低,良品率也越高。
还有一种神经网络处理器也经常出现,叫做NPU,你或许猜到了,NPU也是一款ASIC定制化芯片,是专门用于神经网络算法与加速的。
当然,除了ASIC还有其他的专用芯片,例如FPGA(Field Programmable Gate Array 现场可编程门阵列)就是半定制芯片。
ASIC是专门根据特定需求规划电路后,就交给芯片厂家流片,功用就固定了,不能再随便更改。而FPGA是根据需求规划好电路后,下载到芯片里,随时还可以修正。
一般来说,许多异构芯片都是CPU+GPU,CPU+ASIC,CPU+FPGA等,它能让多种不同类型的核算核心高效协同,然后抵达整个体系芯片的功用突破。
例如,特斯拉的全主动驾驭FSD芯片,就是一款异构核算芯片。芯片内部集成了CPU、GPU和NPU,能更高速且低能耗地处理摄像头信号,让体系算力大幅进步。
可以预见,跟着人工智能进入打开期,初步进入各个职业,许多渠道完结差异化竞赛的关键,或许就在于为特定使用而规划的专用芯片。
免责声明:本网站所有信息仅供参考,不做交易和服务的根据,如自行使用本网资料发生偏差,本站概不负责,亦不负任何法律责任。涉及到版权或其他问题,请及时联系我们。