Qualcomm Cloud AI 100 提供 5G 云端

高通在上週于旧金山的 AI OPEN DAY 活动中推出针对云端运算加速应用而生的 Qualcomm Cloud AI 100 处理器,这次在深圳中也同时进行发布,与终端装置使用的 Snapdragon 665、730、730G 系列不同,Qualcomm Cloud AI 100 是专门处理海量终端资料进行 AI 处理的辅助处理器,搭配将来的 5G 网路达到最大的 AI 巨量资料处理目的。


高通技术产品管理副总裁 Ziad Asghar 表示「无线边缘」(这名词泛指各种无线终端设施,包括手机、汽车、智慧穿戴、物联网设施…等等)的巨量资料可实现 5G+AI 的全部潜力:

高通的主要专长就是在工艺製程(S820为14nm,到S855时已经进展到7nm)、低功耗表现(ARM架构优势)、规模化(一年七亿颗处理器销售)与各种信号处理(拍照、视频、音频、XR、手势…)的技术优势:

而云端 AI 资料处理的架构由传统的处理器到 FPGA架构处理器搭配GPU 的运算效能已有10倍的提升,而像 AI 100 这类的 AI 加速器能够有多超过10倍的效能提升:

预估到2025年,全球 AI数据中心的规模将达 170亿美金之谱:

而高通要做的就是将 AI 运算的海量需求由终端的手机透过 5G 大频宽连接到云端,经过高速运算后再将结果回传到末端设备中:

举例来说,脸书内建的翻译功能(大家只要看到其他语言的FB贴文下方就有一个翻译提示),每天的翻译量高达 59.5 亿次。更别说其他类似的大型公司,如微软、Google等公司,每天所花费在XR(VR、AR、MR)、自然语言处理(语音辨识、翻译、电脑视觉)相关巨量 AI 运算的资源相当可观,所以低功耗高算力的 AI 辅助处理器就相当重要:

这样的巨量需求相当的可观与耗费主机运算资源与电力消耗,每年也成倍数成长,但只要外挂 Qualcomm Cloud AI 100 这类的 AI 加速处理器,就能将大量的 AI 运算转给 AI 100 处理,可大幅度的降低资讯中心的主机运算 Loading 与功耗:

看这段影片大家比较容易了解 Qualcomm Cloud AI 100 究竟在处理哪些海量 AI 资讯:

Qualcomm Cloud AI 100 加速处理器相容ONNX、Glow、XLA,以及包含TensorFlow、PyTorch、Keras、MXNet、PaddlePaddle等市面常见框架,降低服务开发难度与时间:

以 AI 算力来说的话 Qualcomm Cloud AI 100 的峰值运算效能是目前高通最强处理器 Snapdragon 855 的 50 倍以上,而且具备高扩展性可以多卡堆叠同步运算,并可外挂到任何形式的资料中心中进行辅助运算:

Qualcomm Cloud AI 100 採用7奈米製程设计,与目前市面上其他的商用方案(如 NVIDIA、Google)相比,每瓦特功耗的所发挥的性能提升十倍,AI 运算性能峰值超过 350 TOPs(每秒兆次运算),相当惊人!Qualcomm Cloud AI 100 处理器预计在 2019年下半提供样品,2020年上市届时应该会有许多商用的资料中心使用:

您也许会喜欢:【推爆】终身$0月租 打电话只要1元/分最新科技新闻不漏接,设定电脑王阿达抢先看 ai运算处理器qualcommcloud资料处理高通辅助