高通公布了5G,高通宣告正式进入云端AI芯片市场

兴发官方网站

图片 9

高通公布了5G,高通宣告正式进入云端AI芯片市场

| 0 comments

电工电气网】讯

晓查 发自 深圳

图片 1

一直以来,高通在推动终端侧人工智能芯片的应用方面不遗余力。现在这家全球最大的手机芯片提供商又推出了面向数据中心推理计算的云端AI芯片Cloud
AI 100,正式宣告进入云端AI芯片市场。

量子位 出品 | 公众号 QbitAI

其实该业内人士的观点,的确反映了当前AI芯片产业的一些现状。经过几年时间的沉淀,真正有实力的企业开始实现产品落地。

迄今为止,作为终端侧最主流的人工智能芯片解决方案,骁龙人工智能芯片已经为市面上超过10亿部智能手机提供AI运算加速,越来越多的手机用户享受到人工智能芯片带来的智慧体验与便利。显然,高通并不想只局限于终端侧人工智能芯片领域,随着Cloud
AI
100这款云端AI芯片的发布,高通把终端侧AI的技术和规模优势转移到云端AI芯片领域,全新的Cloud
AI
100云端AI芯片和其他云端AI芯片解决方案(GPU、CPU和FPGA)相比,在性能功耗上能够达到10倍的提升,和高通骁龙处理器的终端侧AI计算能力相比则至少有50倍的提升。这款云端AI芯片的问世将为当今数据中心AI推理加速市场树立全新标杆。

图片 2

近日,在由智东西、AWE和极果共同主办的GTIC
2019全球AI芯片创新峰会上,来自中外的专家和企业家齐聚一堂,围绕“AI芯生态·产业新格局”主题做了精彩的演讲,国际电子商情记者摘取了个别演讲嘉宾的核心言论。

据市场调研公司预测,用于数据中心的云端AI芯片市场规模将从2018年的25亿美元增长到2023年的212亿美元。仅AI推理这一细分市场从2018年到2025年将有10倍的增长,达到170亿美元。从云端AI芯片的用量来看,AI推理芯片使用场景广泛,需求量巨大。在2019年旧金山举办的AI
Day会议上,高通宣布推出的这款Cloud AI
100云端AI芯片,就是专为满足急剧增长的云端AI推理处理的需求而设计。同时将基于骁龙AI芯片的终端侧AI技术优势拓展至数据中心,从云到端全面塑造人工智能生态。

“让AI触手可及”,这是高通今日举办的AI开放日活动主题。

魏少军:AI Chip 0.5至 2.0的演变

经过多年的技术演进,骁龙AI芯片已经成为智能手机处理器行业的标准,在性能不断提高的同时,低功耗、少发热已经成为骁龙AI芯片在设计上的核心优势,现在这两个优势不仅可以被手机终端消费者所享受,现在也惠及到云端服务器、数据中心。一直以来,降低用电、减少发热都是服务器、数据中心迫切想要实现的目标。当前AI服务器行业使用的其他计算架构,很可能会出现明显的电力损耗、产生大量热能等问题,Cloud
AI
100这款云端AI芯片从高通自家的骁龙AI芯片的架构设计和制造工艺中汲取灵感,使云端AI芯片的运行效率有了极大改善,因此其同等性能下的功耗只有竞争对手们的十分之一。此外Cloud
AI
100这款云端AI芯片,还有一个明显的优势,那就是这款云端AI芯片并非特别隶属服务器应用项目,而是卡式设计作为协同处理器提供运算加速,同时在整体配置上也没有做太大限制,主要针对运算规模进行弹性布署,可以将云端AI芯片以插卡形式“即插即用”到云端服务器上,使用非常方便。

作为一家以移动通信技术闻名的公司,中国区董事长孟朴一开始就强调了高通的技术优势。

中国半导体行业协会IC设计分会理事长、清华大学微纳电子系魏少军教授表示,当前的AI服务基本都在云上,很少出现在其他地方,其原因在于先驱者们在云上做了大量工作,这些工作包括:智慧家庭、图像认知、智慧医疗、AI翻译等。

不仅使用方便、功耗低,更重要的是Cloud AI
100云端AI芯片性能强悍。由7纳米制程工艺打造,支持业界领先的软件栈,包括PyTorch、Glow、TensorFlow、Keras和ONNX,这个云端AI芯片的峰值AI性能将达到350
TOPS,可以高速执行密集的浮点和整数运算。与传统的现场可编程门阵列相比,Cloud
AI
100这款AI芯片在推断任务方面比目前最先进的AI推理解决方案平均速度要快10倍左右。区别于纯CPU、CPU+FPGA之后的第三代高性能AI计算体系,Cloud
AI
100这样的专用于推理计算的云端AI芯片在架构上本身就更适合专门类型的机器学习推理计算。

孟朴认为,2019年是5G元年,而且5G展开的速度比4G要快得多。今年已经有20多家运营商将开始部署5G网络,还有20多家OEM厂商将推出5G终端设备。

不过,从“云”走向“边”,从Cloud到Edge是必然的现象。魏教授举例表示,Google在2018年峰会上提出,无论怎样的AI都要从现实社会中摄取,把原始数据转化成语义化的数据,再让Cloud来处理。“这是必然现象。”他也补充说:“目前,AI走向边缘的过程主要以‘通用’为主驱动力,但是从未来几年发展看,终端应用为主或将占主导地位,专用AI芯片将起到非常重要的引领作用,这也是未来发展的重要方向。”

凭借更高的AI算力、更节能环保的设计、更方便的快捷的使用方式,Cloud AI
100云端AI芯片将为服务提供商带来更强大的在线AI体验,让用户真正体会到AI的好处。在这个“应用为王”的时代,将云端AI芯片作为新的游戏平台,这便是Cloud
AI
100的“完美应用场景”之一。一直以来,游戏过程中的延时和卡顿都是让玩家痛心疾首的致命伤,在云端服务器上执行的高能效AI推理可以减轻移动终端的AI处理负荷。在2019年深圳人工智能开放日活动上,高通联合vivo、腾讯王者荣耀开发团队和腾讯AI
Lab,一起演绎了一场专业游戏电竞赛。通过MOBA类游戏场景的实验环境来不断提升和优化AI电竞战队的实力,为移动电竞带来体验的升级和优化,由此可以看出移动游戏将是最能发挥Cloud
AI 100极致性能的应用。而腾讯云也可能成为国内首批Cloud AI
100云端AI芯片的用户。

另一方面,AI技术在移动端的推广速度也在飞速增长,根据高通数据,2019年,终端侧的AI应用率还不到10%,而到2025年将达到100%,实现全面普及。

图片 3

显而易见,Cloud AI
100这款人工智能芯片的发布是高通正式参与云端AI芯片领域的标志,凭借Cloud
AI
100云端AI芯片的性能优势,预计到2025年,该芯片市场规模将达到6630万美元。云端人工智能芯片领域一个有很大增长潜力的新兴市场,高通以全新的云端AI芯片产品切入进去将为自身业务开辟新的领地。当Cloud
AI
100云端AI芯片量产后,其强悍性能会真正落在实处,为消费者带来智慧生活体验的全新改变。

作为全球少数几家掌握5G通讯技术的公司,高通将自己的强项与AI技术相结合,给未来更大的想象力。

另外,魏教授还谈到‘软件定义芯片’的话题,他从软、硬件的可编程性来切入。“最好的架构能解决能量效率的问题,什么样的芯片具备这样的架构?我们把软、硬件的可编程性分为四个象限。传统的CPU、DSP在第二象限,专用集成电路在第三象限,FPGA、EPLD在第四象限。第一个象限具备很好的软、硬件可编程性,如果这两者都成立,就是‘软件定义芯片’。”

高通预测,到2035年,5G产品和服务市场规模将达到12.3万亿美元,而AI衍生产品的市场规模将3.9万亿美元。智能手机、汽车等终端侧到2025年实现100%的AI应用率,去年这一不到10%。

最后,魏教授畅想了AI Chip 2.0的愿景以及实现路径。“AI Chip
0.5是非常早期的阶段,像Intel CPU、Nvidia
GPU、AD的DSP,这些产品不是作为AI Chip而出现的;AI Chip
1.0包括Google的TPU、MIT Eyeriss、Nvidia SCNN、KAIST
UNPU,这类产品专门为AI设计,是一种领域专用的东西或某种拓展。AI Chip
1.5开始探索通用性,像Tsing Micro Thinker、Wave Computing
DPU都属于1.5,它们具备半通用、可重构、可配置的特性,也可能兼顾了两个内容;而AI
Chip
2.0到今天为止还没有答案,也许是通用、自适应、具备智慧化的东西。”他说道。

因此,5G+AI将带来巨大的经济效益。

李维兴:5G成就AI,AI成就5G

组建王者荣耀AI战队

图片 4

首先,高通在论坛环节公布了今日活动最接地气的产品——AI打王者荣耀。

高通技术副总裁李维兴围绕着终端侧AI介绍了高通对人工智能、云端、终端侧的看法和产品规划。他的核心观点是:5G和AI的关系密不可分,一方的进步推动另一方的发展。

上周末,OpenAI的人工智能打败了人类Dota
2冠军队伍OG。现在AI将进军热门的手游领域。

2018年,高通正式成立Qualcomm人工智能研究院,关注AI产品研发、制造以及与合作伙伴的项目。截至今日,高通共发布了四代AI平台。第一代骁龙820是高通首个针对AI
Engine的平台,用CPU的方式将AI的使用场景呈现出来;第二代骁龙835支持Caffe
2,通过它支持神经网络的SDK开始使用CPU、GPU、DSP。第三代骁龙845支持的项目非常多,通对iOS端的支持将人工智能的运算做到更优化。

届时高通将联合vivo、腾讯王者荣耀和腾讯AI
Lab把AI带到王者荣耀上,四方将基于高通第四代AI引擎,共同推动和探索终端侧的人工智能应用。

图片 5

据vivo创新创意领域总经理王友飞透露,他们正共同打造一支AI电竞战队“SUPEX”,将与人类玩家对战,

第四代骁龙855集成了Kryo 485 CPU、Adreno 640 GPU、Hexagon
690处理器、骁龙X24调制解调器、全新的Spectra 380
ISP以及WiFi、蓝牙模块、安全模块等。在AI方面,855支持第四代多核Qualcomm人工智能引擎AI
Engine,可实现7 TOPs运算,性能是845的三倍。值得注意的是,Hexagon
690处理器增添了一个全新设计的Hexagon张量加速器,四个Hexagon向量扩展内核,还增加了四线程标量内核。基于此,骁龙855成为2019全球5G发布重要的平台。

在现场体验区,参会者与AI现场对打,两局都败给AI。至于AI究竟发展到什么水平,还需要留待顶级电竞玩家的测试。

他还认为,AI训练、推理可在云端做,也可往终端走。“大家对与云相关的使用场景都非常振奋,但后续的规模化需要与半导体及软件行业提供联结的使用机会。传感器一定在边缘,实时接触也在边缘。如何保持工厂和汽车自动化的个性化,保护好隐私,维持可靠性?将AI运算分布到全网是必然趋势。”他说。

图片 6

最后,李维兴表示,5G可将AI从云端加上边缘化,AI的使用场景可将5G的商业模式开发出来。研发、投资,将无线、通讯、边缘计算通过感知、推理、行动的过程中迭代是高通在5G+AI领域上可为业界做出的贡献。

腾讯与vivoAI还能并希望通过AI不断提升和优化AI电竞战队的实力,推动人类选手的科学训练。

Andrew Grant:Imagination AI芯片方案助力自动驾驶

AI加速器

图片 7

我们熟知的高通更多的手机芯片领域,但在AI时代高通不满足于单一市场,汽车、安防、电脑等都有很大的市场。高通也一直没有放弃进入数据中心领域。

Imagination Technologies视觉及AI部门高级总监Andrew
Grant为现场观众描述了云端的工作,还解释了智能物联网和边缘设备的如何运作原理。他表示,在智能摄像头监控、智能驾驶以及其他更多的领域都会使用到边缘设备,其演讲主要围绕这些领域展开。

高通估计,到2025年,AI数据中心市场规模将增长到170亿美元,6年内增长10倍。

Imagination的AI芯片方案可以面向监控摄像头、智能汽车以及智慧城市的边缘设备进行拓展。Andrew
认为,当前智能汽车是非常热的话题,神经网络在汽车上的应用,可让ADAS、汽车自动化、摄像头监测等性能得到明显提升,而精准地识别前方路况,需要车载配件以及神经网络相互协调工作。

传统CPU并不是为AI数据中心优化,预设FPGA进入数据中心,将AI性能提升了10倍。

图片 8

高通认为,为数据中心加上AI加速器,还能在FPGA基础上再提升10倍。这就是高通最近发布的Cloud
AI
100。它能降低终端与数据中心的延迟,提高AI云端效率,用5G与边缘计算的结合变革用户体验。

在智能汽车上,Imagination的PowerVR可支持自动驾驶的路径规划、道路标志识别、导航、司机疲劳监测预警等功能,当汽车与摄像头通过车联网连接在一起时,在车联网的辅助下,智慧交通将成为可能。不过,自动驾驶水平从最低级到最高级也代表着越来越高的要求、越来越强大的功能,其所需的算力也将涨至500+Tops,这需要低能耗、高算力的芯片。

图片 9

同时,Andrew
以智能相机为例,探讨了边缘与云的关系。他表示,单一的智能相机能检测到移动的物体,但不能区别鸟和可疑的人。如果它在神经网络和加速器上面,我们就可以把这个视频放在神经网络上,就能知道他们在做什么。这就是边缘更强大带来的益处,这个边缘可以去帮助云,同时云也可以帮助边缘。

相关文章

发表评论

Required fields are marked *.


网站地图xml地图