E-MapReduce中Spark 2.x读写MaxCompute数据

简介: 最新的`aliyun-emapreduce-sdk`将`MaxCompute`数据以`DataSource`的方式接入Spark 2.x,用户可以使用类似Spark 2.x中读写`json/parquet/csv`的方式来访问MaxCompute.

最新的aliyun-emapreduce-sdkMaxCompute数据以DataSource的方式接入Spark 2.x,用户可以使用类似Spark 2.x中读写json/parquet/csv的方式来访问MaxCompute.

0. DataSource

a) DataSource提供了一种插件式的外部数据接入SparkSQL的方式,数据源只要实现相应的DataSource API即可以整合进SparkSQL,它的特点如下:

  • 通过DataSet/DataFrame/sparkSQLText等标准方式来访问数据源
  • SparkSQL引擎优化
  • scala语言接入后,Spark支持的其它语言也可以进行访问,如pyspark等

Spark 2.x内置支持的数据源:

  • json
  • csv
  • parquet
  • orc
  • text
  • jdbc

Spark 2.x 访问数据源示例:

b) 读数据

  val df = spark.read.json("pathToJson")
  
  // 提供schema信息
  val schemaType = StructType(Seq(
    StructField("year", IntegerType, nullable = true))
  spark.read.schema(schemaType)json("pathToJson")

  // 带一些参数设置,如csv的分隔符等
  spark.read.option("header", "false").option("sep", ",").csv("pathToCsv"")
  
  // load api, 等同于spark.read.json("pathToLoad")
  spark.read.format("json").load("pathToLoad")
  
  // sql方式访问
  df.createOrReplaceTempView("t")
  spark.sql("select * from t")

c) 写数据

  val df = Seq(1, 2, 3).toDF("a")
  df.write.json("jsonWritePath")
  
  // 等同上面写法
  df.write.format("json").save("jsonWritePath")

  
  // 带参数
  df.write
    .option("header", "true")
    .option("compression", "gZiP")
    .csv("csvWritePath")

  // 路径存在,则覆盖
  df.write.mode("overwrite").json("jsonWritePath")

d)sparkSQLText using DataSource

   spark.sql("create table t(a string) using json")
   spark.sql("insert int table t select 1")
   spark.sql("select * from t")
   ...

1. MaxCompute以DataSource接入Spark 2.x

如上介绍了DataSource的特点以及读写方式,MaxCompute作为一个数据源,通过E-MapReduce的aliyun-emapreduce-sdk也可以通过上述方式来访问。

1.1. aliyun-emapreduce-sdk

Git地址

branch: master-2.x

1.2 SparkSQL读写MaxCompute

a) option参数设置

访问MaxCompute表中的数据,需要一些参数,如下:

parameter optional value
odpsUrl No 内网地址: http://odps-ext.aliyun-inc.com/api 公网地址:http://service.odps.aliyun.com/api
tunnelUrl No 内网地址: http://dt-ext.odps.aliyun-inc.com 公网地址:http://dt.odps.aliyun.com
accessKeySecret No 阿里云accessKeySecret
accessKeyId No 阿里云accessKeyId
project No MaxCompute项目空间
table No MaxCompute表名
numPartitions Yes 表的Partition个数,默认 1
partitionSpec Yes 分区信息,如pt=xxx,多个用逗号分开pt=xxx,dt=xxx
allowCreatNewPartition Yes 分区不存在是否创建,默认 false
b) 写数据
  • MaxCompute中必须已经存在表()),若没有需要去MaxCompute控制台进行创建
  • DataFrame中的数据写入MaxCompute的表中
val df = Seq(("Hello", "E-MapReduce")).toDF("a","b")
df.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("overwrite") //覆盖写
  .save()
  
case class MyClass(a: String, b: String)
val df1 = Seq(MyClass("Hello", "World")).toDF
df1.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("append") //append追加
  .save()
  
  
// 写分区表 建表:create table t1(a string) partitioned by(b string)
val df2 = Seq("E-MapReduce").toDF("a") // 不包含分区列
df2.write.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t1")
  .option("project", "test_odpss")
  .option("partitionSpec","b='Hello'") // 分区描述
  .option("allowCreatNewPartition","true") //若分区不存在,是否创建
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .mode("append") //append追加
  .save()
  

备注:

DataFrame的列名和类型必须和MaxCompute的表中一致

不支持spark.write.parititonBy

不支持动态分区

  • MaxCompute控制台查询表数据进行验证
序号 a b
1 Hello E-MapReduce
2 Hello World
c) 读数据
  • 从上述表中读取数据到DataFrame
val df = spark
  .read
  .format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t")
  .option("project", "test_odpss")
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .load()

df.show(false)

+-----+-----------+
|a    |b          |
+-----+-----------+
|Hello|E-MapReduce|
|Hello|World      |
+-----+-----------+

// 读出为DataFrame后可进行DataFrame的各种操作,如join
val df1 = Seq(("Hello", "AliYun")).toDF("a", "c")
df.join(df1, "a").show(false)

+-----+-----------+-------+
|a    |b          |c      |
+-----+-----------+-------+
|Hello|E-MapReduce|AliYun|
|Hello|World      |AliYun|
+-----+-----------+-------+

// 也可注册为Spark的临时表
df.createOrReplaceTempView("test_t")
spark.sql("select * from test_t").show(false)

df1.createOrReplaceTempView("test_t_1")
spark.sql("select * from test_t join test_t_1 on test_t.a = test_t_1.a ")


// 读分区表 建表:create table t2(a string) partitioned by(b string)
spark.read.format("org.apache.spark.aliyun.maxcompute.datasource")
  .option("odpsUrl", "http://odps-ext.aliyun-inc.com/api")
  .option("tunnelUrl", "http://dt-ext.odps.aliyun-inc.com")
  .option("table", "t2") // table t2
  .option("project", "test_odpss")
  .option("partitionSpec","b='Hello'") // 分区描述
  .option("accessKeyId", "your accessKeyId")
  .option("accessKeySecret", "your accessKeySecret")
  .save()
  
+-----------+
|a          |
+-----------+
|E-MapReduce|
+-----------+
d) sparkSQLText
  • 不支持在sparkSQLText直接对MaxCompute表进行相关操作
  • 可以通过上述读数据的方式使用DataFrame注册成临时表的方式,进行相关操作(insert不支持)
相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
2月前
|
分布式计算 DataWorks IDE
MaxCompute数据问题之忽略脏数据如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
47 0
|
2月前
|
SQL 存储 分布式计算
MaxCompute问题之下载数据如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
38 0
|
2月前
|
分布式计算 关系型数据库 MySQL
MaxCompute问题之数据归属分区如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
35 0
|
11天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
8天前
|
数据采集 搜索推荐 大数据
大数据中的人为数据
【4月更文挑战第11天】人为数据,源于人类活动,如在线行为和社交互动,是大数据的关键部分,用于理解人类行为、预测趋势和策略制定。数据具多样性、实时性和动态性,广泛应用于市场营销和社交媒体分析。然而,数据真实性、用户隐私和处理复杂性构成挑战。解决策略包括数据质量控制、采用先进技术、强化数据安全和培养专业人才,以充分发挥其潜力。
11 3
|
10天前
|
运维 供应链 大数据
数据之势丨从“看数”到“用数”,百年制造企业用大数据实现“降本增效”
目前,松下中国旗下的64家法人公司已经有21家加入了新的IT架构中,为松下集团在中国及东北亚地区节约了超过30%的总成本,减少了近50%的交付时间,同时,大幅降低了系统的故障率。
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks报错问题之dataworks同步rds数据到maxcompute时报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
存储 监控 大数据
数据仓库(11)什么是大数据治理,数据治理的范围是哪些
什么是数据治理,数据治理包含哪些方面?大数据时代的到来,给了我们很多的机遇,也有很多的挑战。最基础的调整也是大数据的计算和管理,数据治理是一个特别重要的大数据基础,他保证着数据能否被最好的应用,保证着数据的安全,治理等。那么数据治理到底能治什么,怎么治?
65 0
|
2月前
|
JSON 分布式计算 MaxCompute
MaxCompute问题之创建数据集失败如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
33 0
|
2月前
|
存储 分布式计算 DataWorks
MaxCompute数据问题之数据不一致如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
36 0