2019-09-30 15:44 来源:融100 编辑:融仔
2019年杭州云栖大会上,阿里首款AI芯片含光800虽然只有短短几分钟的介绍,却成了外界最为关注的消息。 互联网 巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出
2019年杭州云栖大会上,阿里首款AI芯片含光800虽然只有短短几分钟的介绍,却成了外界最为关注的消息。互联网巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出和商用的宣布,依旧会吸引了无数的关注。
不少人应该也会疑问,这是不是芯片巨头们要被替代的开始?
互联网巨头造芯的初衷
在互联网企业造芯的路上,谷歌跑在了最前面。早在2006年,谷歌就开始考虑在其数据中心部署 GPU或者 FPGA,或专用集成电路(ASIC),当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。
情况在2013年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片(ASIC)用于推理,买现成的 GPU用于训练。
谷歌的目标是将性价比提高 10 倍,为了完成这项任务,谷歌在其数据中心设计、验证、构建并部署了 TPU(张量处理器,Tensor Processing Unit),这一过程用了15个月。
2016年,谷歌I/O开发者大会上,谷歌正式发布了首代TPU。不过,TPU刚开始只仅限谷歌内部使用,直到2018年2月,谷歌才在其云平台博客上宣布TPU服务开放的消息,价格大约为每云 TPU 每小时 6.50 美元,而且数量有限。
也就是说,2018年,谷歌才开启了TPU的商业化。同年的I/O大会上,TPU 3.0宣布推出,计算性能相比TPU 2.0提升八倍,可达 100PFlops(每秒 1000 万亿次浮点计算)。
可以明确,谷歌TPU的推出,主要还是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且,TPU作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。
阿里的自研芯片之路与谷歌类似。1999年以淘宝起家的阿里,如今的业务早已横跨电商、金融、物流、云计算、大数据、全球化等场景。不同的场景就有不同的计算需求,比如淘宝里的拍立淘商品库每天新增10亿商品图片,使用传统GPU算力识别需要1小时。除了需要花费1小时的时间,这个时间里GPU的耗电量也非常巨大。
雷锋网(公众号:雷锋网)此前报道,数据统计显示,2017年中国有40个中小型数据中心,这些中小数据中心2017年消耗电量比三峡大坝的发电量还多,等量的碳排放量两倍于民航的碳排放量。对于阿里和谷歌这样拥有大型数据中心的科技公司,电量消耗也带来了巨大的成本。
如果谷歌和阿里想要通过购买算力更强的最新款GPU来提升效率,GPU高昂的售价也是科技巨头们无法忽视的问题。
因此阿里也开启了自研芯片之路。2017年的云栖大会上,阿里宣布成立达摩院,由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。
2018年云栖大会,阿里又宣布成立独立芯片企业“平头哥半导体有限公司”,由中天微与达摩院芯片团队整合而成。
还是云栖大会宣布者还是张建锋,2019年阿里首款AI云端推理芯片含光800正式推出。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。
Copyright © 2002-2019 融100_金融理财平台 Inc. All Rights Reserved. 版权所有