越来越多的AI应用发生在云端,尤其是对于智能技术需求高的行业而言,他们甚至可以说是被AI逼上公有云,而那些原本使用私有云的企业用户,也由私有云跃迁到了混合云。
数据和算力是维持AI的两大要素,而传统的计算环境是难以满足二者的指数级增长的。举个例子,数据的类型大体可分为结构化数据、非结构化数据、半结构化数据。一个数据从产生到落地要经过收集、传输、分析、检索、挖掘等阶段。如果要让机器像人一样去“看”数据,恐怕穷尽一生也无法分析完。
如果在云端借助Hadoop集群和Spark这样的通用计算引擎,或者是Storm等计算框架,就可以将数据分解为多个部分,对每一部分的数据进行分析,之后将效果汇总经过多轮计算筛选出结果。对于机器学习来说,它们或许会找到一些新的特征,并对这些特征进行归纳来识别出一把新的椅子。这一过程中,需要有海量、不同的椅子照片供给计算机去学习。而这一切,没有数据中心的庞大算力支持是无法实现的。
当人工智能走向云端,开发者既是第一批受益者,又成为了云服务商手中的核心资源。微软将在AI领域20多年的研究成果汇聚成Azure云端的认知服务,以API的形式开放给开发者,开发者只需要几行代码,即可调用认知服务API获得对应的能力,并将这样的能力跨设备、跨平台应用到Windows、iOS、Android上。这些API包括人脸识别API、情绪识别API和计算机视觉API等等。拿情感识别来说,开发者可以通过人脸API针对图像中的每张人脸返回情感集的检测置信度以及人脸的范围框,检测到的情感可以是快乐、悲伤、意外、愤怒、恐惧、蔑视、厌恶或中性。
此外,就像微软不惜重金收购GitHub、谷歌开源TensorFlow一样,核心的开发者群体或社区贡献着数以万计的应用资源,而背后的这些数据资源如果悉数运行在Azure或谷歌云平台上,对于微软和谷歌的云业务发展势必是不错的助力。
就像当下比较火热的AI芯片TPU方案,作为谷歌自主研发的针对深度学习加速的专用人工智能芯片,专为TensorFlow设计,AlphaGo使用的就是TPU 2.0芯片。在TPU 3.0中,其计算能力最高可达到100PFlops,是TPU 2.0的八倍多。为了更快地训练和运行机器学习模型,谷歌还推出了Cloud TPU,单个Cloud TPU的计算能力达到180万亿次浮点运算,具备64 GB高带宽内存,为云端超算打下了基础。
落地到行业,对云上智能先知先觉的传统企业深有感触。以物流为例,物流企业比拼的已不止是车队数量和仓储空间,而是学会借助大数据、物联网和AI技术,深入到每一个环节打造智慧的物流平台。这一过程中,云计算扮演着至关重要的角色。过去,写一套完整的物流系统需要调动研发、运维、安全、网络等多个部门的人。如今一个显著的现象是,管理数千辆车规模车队的运营负责人已经可以是学算法专业的年轻人。为什么会有这种变化?原因是这些人会利用算法处理大数据,通过优化运输环节从而提升物流运转的效率。
对于物流企业来说,每天会产生数亿条数据,对海量信息进行处理离不开云计算。具体到实际场景中,车载设备从位置定位、油耗传感器、温度、速度搜集的数据会交由云端处理,例如IoT组件可以通过规则引擎组件中编写类SQL语句无缝对接大数据套件,进行车辆路径、车辆规划、司机排班等的优化,而兼容MySQL协议和语法的腾讯云分布式云数据库DCDB还支持自动水平拆分的高性能分布式数据库,即业务显示为完整的逻辑表,数据被均匀拆分到多个分片中,每个分片默认采用主备架构,可以提供涵盖灾备、恢复、监控、不停机扩容的全套方案。
当然,并不是任何一家传统企业都会先尝试公有云,但他们也会为获得全栈的AI能力去尝试部分上云。工业互联网时代产生的数据量比传统信息化要多数千倍甚至数万倍,并且是实时采集、高频度、高密度的,动态数据模型随时可变,甚至良品率的细微变化都会带来数据模型重建。这样一来,如果做不到工业数据实时更新,智能制造就无从谈起。
以福耀玻璃为例,其借助IBM云平台重构了端到端的竞价流程,通过开放API让客户实时看到订单的执行状况将原来分散在ERP、CRM、采购、物料等数十个系统中的成本因素进行智能分析,并在云端建造了1:1尺寸的3D可视化虚拟工厂,将研发、工艺、生产、制造、优化、仿真、服务等环节的状态以三维建模的形式实时模拟出来,未来更有望在虚拟端解决80%的质量、效率、成本问题。将敏感数据放在本地,把重资产业务放在云端快速处理,利用混合云环境的微服务、容器、API来获取商业智能的能力,这也是源于AI的推动。
各行各业的数据指数级增长,使得人们对于信息的处理方式有了重新思考,将其智能化当前是重要途径之一,而背后的基础支撑离不开云计算。也可以说,企业对智慧化转型的迫切需求推动了云计算的发展。