1. 云栖社区>
  2. 全部标签>
  3. #双11#
双11

#双11#

已有0人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

促促促,如何确保系统扛得住 | 《尽在双11》抢鲜预览

引言:对技术而言,每一年的双11都是一场严峻的考验,从被流量冲击得溃不成军,被迫奋起抗击,到现在通过技术的力量不断改写双11的用户体验和参与感,阿里的技术伴随着双11成长起来,强壮起来,自信起来。对各位而言,希望大家可以从书中学习更多,掌握更多。

双11 阿里巴巴

【重磅预告】揭秘阿里双11技术进步历程!

对技术而言,每一年的双11都是一场严峻的考验,从被流量冲击得溃不成军,被迫奋起抗击,到现在通过技术的力量不断改写双11的用户体验和参与感,阿里的技术伴随着双11成长起来,强壮起来,自信起来。对各位而言,希望大家可以从书中学习更多,掌握更多。

双11 阿里巴巴

蹲下来是为了跳得更高-2016 天猫技术这一年

这句阿里土话,很土很生猛,揣摩一下,却有几分道理。天猫技术这一年,在供应链、营销导购一体化、商家运营上不断的做出技术突破。成为全球最懂商业的技术团队,仍是我们2017年继续前进的目标。在业务发展的过程中我们积累了大量的经验,这些喵君都希望在2017年正儿八经的分享给大家,也希望大家多提建议。

架构 双11 开源 天猫技术

【双11背后的技术】双11晚会背后的技术

作者:邵雍   回顾2015年在鸟巢举行的第一届双11晚会,我们可以称之为“全民互动”的晚会。因为不止是现场的几千位观众,全国所有在电视机面前的观众朋友,都可以拿起手机,打开天猫客户端或淘宝客户端,参与到晚会现场的各个明星互动游戏中来,进行红黑押宝,获胜的人,还能抢到一元商品。

双11 线程 互联网 同步 控制台 AR 数据结构 直播

【双11背后的技术】Weex 双11会场大规模应用的秒开实战和稳定性保障

作者:鬼道  前言 Native 开发的诸多亮点中,流畅体验和系统调用是最多被提及的。流畅体验体现在页面滚动/动画的流畅性,背后是更好的内存管理和更接近原生的性能;同时又是 Web 的痛点:资源首次下载、长页面内存溢出和滚动性能、动画性能、传统 web 性能(如JS执行效率)。

ios android native 性能优化 双11 性能 模块 Weex 移动开发

【双11背后的技术】基于深度强化学习与自适应在线学习的搜索和推荐算法研究

作者:灵培、霹雳、哲予 1. 搜索算法研究与实践 1.1 背景 淘宝的搜索引擎涉及对上亿商品的毫秒级处理响应,而淘宝的用户不仅数量巨大,其行为特点以及对商品的偏好也具有丰富性和多样性。因此,要让搜索引擎对不同特点的用户作出针对性的排序,并以此带动搜索引导的成交提升,是一个极具挑战性的问题。传统

深度学习 算法 双11 搜索 函数 在线学习 排序 推荐算法 神经网络

【双11背后的技术】双11背后的大规模数据处理

【双11背后的技术】总目录:https://yq.aliyun.com/articles/68637 —————————————————————— 作者:惠岸 朋春 谦乐  1. 实时数据总线服务-TT TimeTunnel(TT)在阿里巴巴集团内部是一个有着超过6年历史的实时数据总线服务,它是前台在线业务和后端异步数据处理之间的桥梁。

大数据 架构 双11 性能 数据处理 阿里巴巴 集群 存储 流计算 MaxCompute

【双11背后的技术】双11数据大屏背后的实时计算处理

作者:藏六  黄晓锋  同杰 1. 双11数据大屏的实时计算架构  1.1 背景 2016年的双11我们的实时数据直播大屏有三大战场,它们分别是面向媒体的数据大屏、面向商家端的数据大屏、面向阿里巴巴内部业务运营的数据大屏。

架构 数据可视化 双11 性能 阿里巴巴 集群 数据大屏 流计算

【双11背后的技术】内容+:打造不一样的双11

1. 站上风口的内容经济 内容永远是最优质的流量入口。如果不是,那说明你没做对。  今年是淘宝全面内容化、社区化的元年;今年的双11,也是一场具有丰富内容、精彩互动的购物狂欢。从必买清单、大咖直播,到KOL草地、人群市场,双11零点时分经历的淘宝网红经济爆发,都是今年独特而又亮丽的风景线。

双11 配置 淘宝 运营

【双11背后的技术】集团AliDocker化双11总结

作者: 林轩、白慕、潇谦 前言     在基础设施方面,今年双11最大的变化是支撑双11的所有交易核心应用都跑在了Docker容器中。几十万Docker容器撑起了双11交易17.5万笔每秒的下单峰值。

docker 双11 性能 镜像 集群 阿里中间件 中间件 电商 容器 磁盘

【双11背后的技术】17.5W秒级交易峰值下的混合云弹性架构之路

前言 每年的双11都是一个全球狂欢的节日,随着每年交易逐年创造奇迹的背后,按照传统的方式,我们的成本也在逐年上升。双11当天的秒级交易峰值平时的近10多倍,我们要用3-4倍的机器去支撑。但大促过后这批机器的资源利用率不高,到次年的双11会形成较长时间的低效运行。试想一下,电商交易有大促峰值,而

架构 服务器 双11 性能 混合云 集群 中间件 电商

【双11背后的技术】万亿级数据洪峰下的分布式消息引擎

作者:冯嘉、誓嘉、尘央、牟羽  前言 通过简单回顾阿里中间件(Aliware)消息引擎的发展史,本文开篇于双11消息引擎面临的低延迟挑战,通过经典的应用场景阐述可能会面临的问题 - 响应慢,雪崩,用户体验差,继而交易下跌。

分布式 架构 算法 双11 高可用 集群 阿里中间件 同步 解决方案 分布式系统 消息引擎

【双11背后的技术】AliCloudDB——双11商家后台数据库的基石

作者:玄惭 前言 2016年天猫双11购物狂欢节已经完美落下帷幕,千亿成交的背后,作为整个天猫商家后台数据库的基石,AliCloudDB是如何保障在零点洪峰来临时候稳定、安全和顺畅?如此庞大规模的数据库实例集群又是怎样一步步成长起来的?AliCloudDB团队核心老司机玄惭,为你带来,双11是这

安全 架构 RDS 双11 性能 SQL 高可用 数据库 同步 AliCloudDB 索引 数据同步 数据中心

【双11背后的技术】永不停止的脚步——数据库优化之路

作者:佳毅 前言 2016年双11已经顺利落下帷幕,在千亿电商流量的冲击下,集团数据库整体表现完美。完美表现的背后,隐藏着数据库团队对技术的执着追求。这是一个什么样的团队,他们究竟做了什么,是什么支持着双11这一全民狂欢的数字一次次突破?笔者以一个亲历者的角度来给大家揭开双11背后,阿里巴巴数据库团队的神秘面纱。

双11 memcached 性能 SQL 数据库 DRC 阿里巴巴 集群 电商 同步 数据同步 应用服务器 存储 异地 数据库优化

【双11背后的技术】阿里视频云ApsaraVideo是怎样让4000万人同时狂欢的

作者:蔡华  前言 在今年的双11中,双11天猫狂欢夜的直播成为一大亮点。   根据官方披露数据,直播总观看人数超4257万,同时观看人数峰值达529万,在云端实现了高计算复杂度的H.265实时转码和窄带高清技术。其实不光是双11,直播已经成为了2016年互联网最火爆的话题。除了内容的大规模

算法 阿里云 双11 阿里巴巴 cdn 云服务 带宽 视频云 ApsaraVideo

【双11背后的技术】万亿交易量级下的秒级监控

作者:郁松、章邯、程超、癫行 前言 2016财年,阿里巴巴电商交易额(GMV)突破3万亿元人民币,成为全球最大网上经济体,这背后是基础架构事业群构筑的坚强基石。 在2016年双11全球购物狂欢节中,天猫全天交易额1207亿元,前30分钟每秒交易峰值17.5万笔,每秒支付峰值12万笔。

架构 监控 双11 日志 线程 配置 reduce agent 日志分析

双11狂欢节台下的“十年功”

作者|长胜 编辑|喵君 2016年双11零点高峰的秒级创建达到17.5万,在这具有历史意义的数据背后,系统稳定性至关重要,稳定意味着决定一切。在稳定性保障过程中,有一个“模拟考”的重要角色,他的职责和内容就是确保狂欢节前的每一场‘考试’都能更高效地接近当天的场景,这个神秘的“模拟考”角色就是

分布式 算法 双11 模块 配置 集群 qps 数据类型 天猫技术 全链路压测

致云栖社区的2016:入宝山行囊满载

回顾2016,9场云栖大会,42+话题,46+专题,82+支技术团队博客,113个直播,无数技术美文,都在云栖社区。展望2017,把酒当歌歌云上实践,闻鸡起舞舞技术创新。新的一年快乐!

云栖社区 架构 阿里云 双11 云栖大会 高并发 个性化推荐 电商 运营 专题

何云飞:双11计算的本质是脉冲计算

“所谓的脉冲计算,就是指在一个确定的时间内发生的海量信息事件,且必须在这个确定的极短时间内处理完的计算事件。”何云飞认为,这样的事件在互联网时代会变得越来越普遍。而双11就是这样的一个典型场景。

架构 飞天 阿里云 服务器 双11 互联网 阿里巴巴 电商 淘宝 金融云 余额宝 云服务 数据中心

4
GO