当前位置:系统粉 >   IT资讯 >   业界资讯 >  互动数达208亿次 百度揭秘春晚红包背后的云技术

互动数达208亿次 百度揭秘春晚红包背后的云技术

时间:2019-02-05 来源:互联网 浏览量:

互动数达208亿次 百度揭秘春晚红包背后的云技术(1)

    “除夕当晚,全球观众参与百度APP红包互动活动次数达208亿次”,这是作为本届春晚独家网络互动平台与红包互动平台的百度,刚刚公布的春晚红包活动数据。难能可贵的是,由此百度成为第一个扛住巨大春晚流量冲击的公司。

互动数达208亿次 百度揭秘春晚红包背后的云技术(2)

     实际上,春晚抢红包对百度来说主要存在三大挑战:短期的机器资源和网络带宽资源需求量巨大;临时用户登录量极大;瞬间出现巨大流量峰值。 

       据悉,2019年春晚,百度提供了4轮9亿的红包。每轮活动,用户的任务都不相同,有的去摇一摇、有的去feed流中搜索、还有进入小程序或小度商城。涉及百度数十个产品、百多种用户场景。再加上新增的AI玩法,这会给百度APP带来高并发、大流量,给百度云的服务器、带宽等基础设施带来巨大冲击。

互动数达208亿次 百度揭秘春晚红包背后的云技术(3)

      但百度整个系统在除夕夜显示出了良好的弹性,全自动自如扩容缩容。数万台机器支持快速扩展,快速响应数亿网民的需求。当遇到流量洪峰时,系统会智能化调度,根据用户任务的不同,层层计算,匹配适应的容量,满足每秒亿级的服务请求,整个过程,就像有一个多层漏斗化解流量洪峰,优雅调控确保用户流程体验。

      在春节期间,中国网络还存在一个特殊的迁徙现象。很多网民会从一线城市回到三四线城市。这使得流量结构发生变化。百度春晚技术保障项目管理团队根据往年春节用户迁移路线,提前规划好了不同地区的所需要的网络资源。百度云的智能调度系统,能够分钟感知不同地区资源紧张程度,并进行相应的资源调度和补给。

互动数达208亿次 百度揭秘春晚红包背后的云技术(4)

       整个系统处理能力能够如此伸缩自如,依赖于百度早已成熟的网络架构。过去十多年,百度网络架构经历了百度自有业务规模快速增长和To B业务多样需求的考验,具有很好的高可扩展性和灵活性,可以快速调配服务器,支撑快速接入带宽资源,调度系统可以很好的支撑节点的快速扩容。

      在最短的时间内,用最少的资源满足数亿网民的需求,这是百度对本次春晚红包项目技术的另一个考验。因为相比往年同行平均3个月的准备期,春晚红包项目只有30天时间。对于负责数据中心机架供应、服务器扩容和网络建设的百度系统部,很多项目甚至要求3周内完成。数千万用户短时间冲击登录系统的难题,对于百度云短信平台来说,也只有20多天的解决时间。

      基于百度 “蜂巢”预制模块化数据中心专利技术,全程支持高功率密度的整机柜服务器交付,在北京顺义华威机房8小时内完成10000台服务器的物理上架,16小时完成自动化上线交付业务使用,创造了业界服务器交付速度的新纪录。IDC网络和CDN建设在3周内完成了相当于2018年全年的建设量。

       百度云短信平台部门在20天内,将短信承载能力至少提升了数十倍,一键登录功能也在最短时间布局云上。百度云还提供了最先进的存储、计算等技术,保障小度商城等产品的流畅用户体验。

互动数达208亿次 百度揭秘春晚红包背后的云技术(5)

       领先的技术架构,创新的解决方案,执行力高效的技术保障服务团队,帮助百度扛过了春晚炼狱。这三大能力的结合,对百度云的AI to B 战略同样至关重要。在产业互联网时代,云服务商已不能只提供存储、计算等基础设施服务,再提供AI、大数据、IoT等技术能力之外,还要针对不同行业和企业的特性,量身定制面向场景和业务的专属解决方案。

       这意味着,云服务商要升级为技术服务商。能够贴近产业、企业和业务,去深刻理解业务需求。而且与 to c 市场还有不同的是,整个项目实施和交付的综合能力,对于B端客户来说同样重要。

       2018年,互联网巨头纷纷布局To B市场,2019年,市场竞争将更加激烈。业内人士认为,经历过春晚红包场景的洗礼,百度云向市场证明了其服务的成熟技术能力、创新产品能力和稳定保障能力,将充满实力面对2019年的市场竞争。

我要分享:

最新热门游戏

版权信息

Copyright @ 2011 系统粉 版权声明 最新发布内容 网站导航