极客之家 > 聚焦 > 正文

首个大数据批流融合国家标准正式发布阿里云为牵头起草单位

来源: 中国网 时间:2024-10-20 18:13:20 阅读量:16161   

近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准牵头起草单位为阿里云计算有限公司,将于2025年2月1日起正式实施。

《信息技术 大数据 批流融合计算技术要求》对批流融合技术作了清晰定义,规定了批流融合系统需能同时支持实时和离线计算模型,并应具备统一资源管理、统一计算框架、统一API、统一SQL接口、统一作业管理、统一权限管理及弹性拓展等关键能力。

批流融合是大数据领域重要的新兴技术趋势。随着互联网的发展,企业在电商推荐、交通物流、金融交易监控等众多场景对大规模实时数据计算的需求不断攀升,传统批量计算范式在时延方面难以满足要求,将实时处理数据的流式计算与批量计算在统一技术框架下融合成为行业必经之路。

以流计算兼容批计算的开源计算引擎Apache Flink是大数据计算的后起之秀,允许用户以一套代码进行流处理或批处理,节省了大量开发成本。2019年,阿里收购Apache Flink母公司,结合自身电商场景实践,投入大量研发力量优化Apache Flink产品,使其达到高吞吐、低延迟、高可用、高准确性的企业级应用标准,并持续为全球开源社区贡献,成为推动社区和技术创新的主导力量。目前,Apache Flink已成为行业内批流融合计算的事实标准,阿里巴巴、蚂蚁集团、字节跳动、小米、快手、小红书、哔哩哔哩、滴滴、中国联通等上百家企业都在使用Apache Flink进行实时计算。

作为国内大数据领域领导者,阿里云在2019年发起了批流融合计算技术的国家标准立项和编制工作,并联合行业内各单位共同起草完善。融合了阿里云实时计算Flink版的打造经验和丰富的行业实践,国家标准《信息技术 大数据 批流融合计算技术要求》将更好地推动批流融合计算的技术发展,指导国内批流融合计算系统的设计、开发和部署,并进一步帮助批流融合技术在各行业中落地应用。

据了解,阿里云在大数据领域积累了深厚技术实力。阿里云拥有从大数据处理分析、数据仓库到AI工程化服务的全栈技术能力,自主研发的MaxCompute、Dataworks、Hologres等旗舰产品可提供业界最高水平的数据处理性能、伸缩弹性和稳定性;同时,阿里云积极贡献并维护了一系列顶级开源项目,包括Apache Flink、Apache Paimon等,为开发者提供丰富的工具选择,并提供全托管式云服务。

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

line
Copyright @2010- home.jikefix.com. All Rights Reserved 极客之家 版权所有  备案号:皖ICP备2023007381号
本站所有资源来源于互联网网友交流,只供网交流所用、所有权归原权利人,如有关侵犯了你的权益,请联系告之,我们将于第一时间删除!邮箱:bgm1231@sina.com