Apache Carbondata on Preto

简介: 1.downloadapache carbondata - 1.5.3apache carbondata - 1.5.4apache spark - 2.3.2apache hadoop - 2.7.

1.download

apache carbondata - 1.5.3
apache carbondata - 1.5.4
apache spark - 2.3.2
apache hadoop - 2.7.2
presto server - 0.210
presto client - 0.210

2.Configurations

mkdir -p etc/catalog -- in presto server
touch carbondata.properties -- in presto server /conf

a).vi config.properties

######## Coordinator Configurations ##########
#
#coordinator=true
#node-scheduler.include-coordinator=false
#http-server.http.port=8086
#query.max-memory=5GB
#query.max-total-memory-per-node=5GB
#query.max-memory-per-node=3GB
#memory.heap-headroom-per-node=1GB
#discovery-server.enabled=true
#discovery.uri=http://hostname:8086
#task.max-worker-threads=4
#optimizer.dictionary-aggregation=true
#optimizer.optimize-hash-generation = false
#
##############################################
########## Worker Configurations####
#
#coordinator=false
#http-server.http.port=8086
#query.max-memory=5GB
#query.max-memory-per-node=2GB
#discovery.uri=<coordinator_ip>:8086
#
####################################

b).vi jvm.config

-server
-Xmx16G
-XX:+UseG1GC
-XX:G1HeapRegionSize=32M
-XX:+UseGCOverheadLimit
-XX:+ExplicitGCInvokesConcurrent
-XX:+HeapDumpOnOutOfMemoryError
-XX:OnOutOfMemoryError=kill -9 %p

c).vi log.properties

com.facebook.presto=INFO

d).vi node.properties

node.environment=production
node.id=c5a9ab1a-a9fe-11e9-96d8-000c2909bcd1
node.data-dir=/home/carbondata/presto-server-0.210/data

3.plugin

mkdir -p plugin/carbondata -- in presto server

cp apache-carbondata-1.5.3-bin-spark2.3.2-hadoop2.7.2.jar /home/carbondata/presto-server-0.210/plugin/carbondata

4.start server

./presto-server-0.210/bin/launcher start

./presto-server-0.210/bin/launcher run

5.presto-cli

mv presto-cli-0.210-executable.jar presto

./presto
目录
相关文章
|
消息中间件 Kafka 流计算
Apache Carbondata接入Kafka实时流数据
1.导入carbondata依赖的jar包 将apache-carbondata-1.5.3-bin-spark2.3.2-hadoop2.7.2.jar导入$SPARKHOME/jars;或将apache-carbondata-1.
1637 0
|
2月前
|
消息中间件 Kafka Apache
Apache Flink 是一个开源的分布式流处理框架
Apache Flink 是一个开源的分布式流处理框架
478 5
|
29天前
|
消息中间件 API Apache
官宣|阿里巴巴捐赠的 Flink CDC 项目正式加入 Apache 基金会
本文整理自阿里云开源大数据平台徐榜江 (雪尽),关于阿里巴巴捐赠的 Flink CDC 项目正式加入 Apache 基金会。
1247 1
官宣|阿里巴巴捐赠的 Flink CDC 项目正式加入 Apache 基金会
|
1月前
|
SQL Java API
官宣|Apache Flink 1.19 发布公告
Apache Flink PMC(项目管理委员)很高兴地宣布发布 Apache Flink 1.19.0。
1110 1
官宣|Apache Flink 1.19 发布公告
|
1月前
|
SQL Apache 流计算
Apache Flink官方网站提供了关于如何使用Docker进行Flink CDC测试的文档
【2月更文挑战第25天】Apache Flink官方网站提供了关于如何使用Docker进行Flink CDC测试的文档
139 3
|
1月前
|
Oracle 关系型数据库 流计算
flink cdc 同步问题之报错org.apache.flink.util.SerializedThrowable:如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
XML Java Apache
Apache Flink自定义 logback xml配置
Apache Flink自定义 logback xml配置
144 0

热门文章

最新文章

推荐镜像

更多