您所在的位置:红商网·新零售阵线 >> 新零售频道 >> 正文
这个双十一 考验的不仅是支付宝们

  本周日,2018年“双十一”将拉开帷幕。作为国民级的支付工具,支付宝走到今天做出了颠覆性的变革。

  今年,支付宝开始了霸道总裁人设,继“中国锦鲤”后,11月1日至10日豪掷11.11亿元开展“码上双11”抢红包活动。

  这次我们想得到红包,不用像去年的“捉猫猫”活动那样,大冷天满街跑找红包,今年只需要在支付宝上“养养鸡、种种树”,线下扫码消费,便可获得抽奖资格。

11.jpg

  与支付宝活动同样备受关注的还有11日午夜支付速度问题,毕竟支付速度能够决定关注了两周的东西能不能到手。

  我想网友们应该可以感觉到,2017年和2016年双十一凌晨支付排队的状况已经有了明显的好转,为此阿里的技术团队付出了七年的汗水。

  而今年,由于“断直连”政策的实施,支付速度又成了未知数……(不介意的话点开这里了解下“断直连”与宝宝们的关系吧~)

  被倒逼的支付速度

  十年“双十一”,不仅造就了中国无与伦比的电商环境,更推动支付宝搭建了一个运行能力近乎变态的云架构。

  2010年是支付宝技术革新的关键年。

  当时支付宝已经完成二代架构升级,而且2010年“双十一”前,技术人员已经规划出100%的系统余量,大家都觉得能够从容应对。而当“双十一”当天零点刚过,交易量便骤增至平时的三倍,并且到7点还有下降,整个技术团队意识到危机将至,立刻“搬资源,砍业务”。

  大家在极度紧张的气氛中坚守着这一天,眼看胜利在望。就在最后一分钟,支付宝核心账务系统突然报警,“嘀嘀嘀的警报声让每个人发急,负责数据库的同事冲过来喊‘资源马上耗尽!赶紧杀掉非关键应用!’”在去年支付宝的技术交流会上,一位支付宝技术人员回忆说。

  经历了这次危机,技术团队深知,如果不作出调整,未来是不可能支撑支付宝如此庞大的业务增量的。而在分析了整个业界架构后,支付宝发现“双十一”面临的问题任何当时业界现有的技术都无法解决,必须靠自己。

  当时阿里采用的一直是Oracle数据库,而以“双十一”每年井喷式的数据增长量,再使用下去运营成本将高出天际。

  在这两方面的压力下,阿里给了技术部门绝对的支持,研发自己的云计算架构。

  阿里自2009年就开始云计算的研究,2010年分布式数据库OceanBase的开发与其并行。

  终于

  2014年“双十一”,支付宝将10%的交易数据链搬到了OceanBase上。

  2015年“双十一”,OceanBase替换了支付宝支付系统中的Oracle数据库,同年,支付宝第四代架构升级,全面采用蚂蚁金融云架构。

  2016年“双十一”,整个账务库都搬了过来。

  2017年,蚂蚁金服全面去IOE,即去掉IBM的小型机、Oracle数据库、EMC存储设备,以自己在开源软件基础上开发的系统代之。

支付宝.png

  这一步步的突破,支撑支付宝一次次打破纪录,成就了支付宝这个超级APP。

  “网联”能否跟上节奏?

  网联后的第一个“双十一”能否扛住压力是业界十分关注的话题。

  11月2日,央行发文通知加强“双十一”支付清算保障工作,并强调网联清算有限公司负责牵头保障工作,积极协调各单位,制定详细的保障方案和应急预案。可见网联压力之大。

  目前,就发卡侧而言,网联已经接入了支付宝90%的交易量和财付通87%的快捷交易量。

  去年“双十一”仅支付宝一家的支付峰值达每秒25.6万笔。

  而今年4月时,网联技术负责人强群力曾表示,在三地六中心满配情况下,估算可以达到18万笔/秒的性能指标。

  对此有消息人士表示,支付宝和银行为用户体验考虑打算采取两手准备:“先走网联,如果网联的系统撑不住,不排除回切直连网络系统的可能”。

  “网联”能否喜提自己的第一个“双十一”,3天后便可揭晓。

  不晓得又要有多少程序员通宵加班啦。

  来源: 艾瑞网-Liz

极致视界提前锁定 百年夏普超薄4K液晶电视迎战双十一

再开30家,双十一苏宁联手欧尚开启家电零售新浪潮

双十一红利 这是国产手机的救命稻草吗?

一片雪糕66元 钟薛高双十一的逆战思维

“双十一”:十个电商包裹两个来自拼多多

搜索更多: 双十一