您当前的位置: 首页 > 生活

双十一支付峰值技术演变十二年后终建云平台

2019-03-12 12:30:06

双十一支付峰值技术演变 十二年后终建云平台

作者:佚名来源:赛迪

2017年双十一热度不减,天猫全球狂欢节开场仅5分22秒便刷新了往年的支付峰值,每秒达25.6万笔。没错,这些数据就是今年阿里突破的新纪录,同时,阿里还创造了数据库处理峰值达4200万次/秒,是近年双十一以来首次对外公布的一项数据。

回顾2016年,支付宝交易峰值达到12万笔/秒,而当天支付宝遭遇支付峰值,离数据库崩溃只剩四秒,当天为此提供技术保障的仅不到30人。有了2016年的经历,那么今年支付宝会配备多少技术人员为双十一瞬间支付峰值做保障的?答案是今年技术保障人员已降为十几人。你可能会惊讶,难道支付宝要在同一个地方再次跌倒?

随着2017年阿里对外公布的双十一所创造的各项数据,我们已然清晰的看到往年所遭遇的问题已不复存在。接着上面提到的问题,今年应对双十一支付峰值技术支撑人员再次减少到十几人,难道今年有什么新的技术可满足瞬时流量增长?答案必然是肯定的!蚂蚁金服自主研发的数据库OceanBase实现了新的技术突破,可在瞬时支付峰值来临前,采用离线借调的方式调用闲置计算资源,形成离线机房,在应对支付峰值后自动将多余的闲置资源归还,保障任一时间段支付顺利。用数据说话,上文所提到的数据库处理峰值达4200万次/秒,这一数据意味着OceanBase在一秒以内可处理4200请求数。

回顾过往,支付宝的技术架构从未停止的研发改造,

双十一支付峰值技术演变十二年后终建云平台

经历了起初的烟囱型、中期的面向服务型、再到蚂蚁金服自研的云平台型三个时期。

代烟囱型系统适用于小团队开发,核心系统为一个小的集群,只有一个数据库,难以满足日益增长的业务量。2006年开始,从烟囱型开始向分布式架构研发,到2007年,支付宝正式开始投入分布式架构的深度开发,对整个系统进行分布式,加强伸缩性,在遭遇业务峰值,可随时增加调用资源。经历了三年的时间,已完成了两大块的改造搭建云支付的基础,形成第三代架构,构建分布式系统,一是使用底层云计算技术,二是将上层服务上云形成云服务。

再到2017年,支付宝技术团队自主研发数据库OceanBase,采用了分布式异地多活的架构,仅双十一当天,OceanBase作为支付峰值技术保障已节省资源达2000多台服务器,意味着现今中国已拥有自主研发分布式数据库的能力,同时OceanBase在应对双十一支付峰值时的从容淡定也从侧面印证了中国自研数据库已进入全球数据库先进水平。

推荐阅读
图文聚焦