【Spark Summit EU 2016】基于Spark与Cassandra的电信产品化解决方案

简介: 本讲义出自Brij Bhushan Ravat在Spark Summit EU上的演讲,主要介绍了爱立信公司研发的基于Spark与Cassandra的电信产品化解决方案Voucher Server。

更多精彩内容参见云栖社区大数据频道https://yq.aliyun.com/big-data;此外,通过Maxcompute及其配套产品,低廉的大数据分析仅需几步,详情访问https://www.aliyun.com/product/odps

本讲义出自Brij Bhushan Ravat在Spark Summit EU上的演讲,主要介绍了爱立信公司研发的基于Spark与Cassandra的电信产品化解决方案Voucher Server。


Brij Bhushan Ravat从什么是产品化这个命题入手,分享了关于产品和Voucher Server
进化的观点,并对Voucher Server这款产品进行了简单介绍,并分享了Voucher Server面对的挑战与其发展进化的过程以及关于产品的运行和维护的挑战。


82e9c7a65762ff9fd68235109e516d58de4f1fc3

524028c812c83c6e1a71b298b981dca3b41b2aeb

19490d97f3ee8d9882515c2ad94eef4330c2097b

061c1e3085b44063e503d4f340797640bad82d6f

31212cf6776512c86424c1581aa83a89c9423e27

fc0ae452de1ecb7dee1ef71bf2aa9d9f68042159

44cb5b93be66dfd6399411f506a5fd406caa0038

556cc52deeefc2a3a921d9f6a1219fb8e0757ff2

d303b6b1da689b6ec1536827cb30a79f8d60ea9e

7491343e47eed3d75966753387a7e357be21b0e5

43e9e7e083584f707944f294bfc9f2fcced390e2

7c6cf90503e5ae03baeb750e93a4b617432a4022

433df8532717fe18fcc72a296e9d0d056726d1fc

786c2337d02d2c7703a46be9212393eda70aa8af

ea16f8015cbc54ab2ef0f06dda6c2ddb7b839de0

785ca8872df82be53d6ce24336b6beeef3dc760a

2575558830e69fa0ca7521f23ea15b0ef2f9fa55

6c08fb384119f7d936c46e55311982b8c246b3e6

1562a381c888b08d8f3ae3d8b8b9563441997cc6

7e48028207ff05fd1bce87fb9c72751c1c9fc654

701d62938b5be61376c180291a05d4877a2bf437

56b1ea2e071dda67160ab2c5190a511ff2027069

d1f7852f5503eea9bd5cd752c9c3cc02f76f6cf0

686e59a852050c5090829544855c7a0af8036a36

eb00da44d171f32dfe73417197236a5f8e38c59e

b41d68d40cd9bcc5799fb9465664eba2e6894921




相关文章
|
3月前
|
存储 分布式计算 NoSQL
Spark与Cassandra的集成与数据存储
Spark与Cassandra的集成与数据存储
|
SQL 存储 分布式计算
HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】
开端: 今天咱先说问题,经过几天测试题的练习,我们有从某题库中找到了新题型,并且成功把我们干趴下,昨天今天就干了一件事,站起来。 沙问题? java mapeduce 清洗 hive 中的数据 ,清晰之后将driver代码 进行截图提交。
287 0
HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】
|
SQL 分布式计算 关系型数据库
使用Spark 编码 写入 hive 的过程中 hive字段乱码 [解决方案]
由于元数据中的表结构中包含中文,我在抽取到spark过程中已经解决了一次乱码问题,具体显示为问题????,解决方法是在mysql连接上加参数 spark 字段乱码
344 0
|
分布式计算 Kubernetes 监控
一站式Flink&Spark平台解决方案——StreamX
一站式Flink&Spark平台解决方案——StreamX
755 0
一站式Flink&Spark平台解决方案——StreamX
|
人工智能 分布式计算 Spark
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
|
机器学习/深度学习 人工智能 分布式计算
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题介绍
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题
|
分布式计算 Prometheus Kubernetes
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题发布
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题
|
3月前
|
机器学习/深度学习 SQL 分布式计算
Apache Spark 的基本概念和在大数据分析中的应用
介绍 Apache Spark 的基本概念和在大数据分析中的应用
157 0
|
7天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。