1. 阿里云>
  2. 云栖社区>
  3. 主题地图>
  4. A>
  5. apache怎么使用

当前主题:apache怎么使用

apache怎么使用相关的博客

查看更多 写博客

Apache Flink 进阶入门(二):Time 深度解析

作者:崔星灿 整理:沙晟阳(成阳) 前言 Flink 的 API 大体上可以划分为三个层次:处于最底层的 ProcessFunction、中间一层的 DataStream API 和最上层的 SQL/Table API,这三层中的每一层都非常依赖于时间属性。

阅读全文

月活用户达7.55亿,阿里淘系如何在后流量时代引爆用户增长? | 9月17号栖夜读

点击订阅云栖夜读日刊,专业的技术干货,不容错过! 阿里专家原创好文 **1.月活用户达7.55亿,阿里淘系如何在后流量时代引爆用户增长? ** 当下,流量为王的时代慢慢走远,获取用户的难度越来越大,成本越来越高。阿里巴巴是如何用最少的成本获取流量,真正将用户

阅读全文

为什么它有典型FaaS能力,却是非典型FaaS架构?

阿里妹导读:FaaS—Function as a service,函数即服务。它是2014年由于亚马逊的AWS Lambda的兴起,而被大家广泛认知。FaaS能力是NBF中的一项非常重要的能力,NBF是一个非典型的FaaS架构,但是具备了典型的FaaS能力。

阅读全文

从校招生到核心架构师,支付宝研究员李俊奎谈如何成为一名优秀的程序员 | 9月16号栖夜读

点击订阅云栖夜读日刊,专业的技术干货,不容错过! 阿里专家原创好文 1.从校招生到核心架构师,支付宝研究员李俊奎谈如何成为一名优秀的程序员 校招进入支付宝,11年时间,从一线工程师成长为支付宝安全核心架构师,这个技术牛人就是李俊奎。李俊奎一直聚焦风控平台的技

阅读全文

如何在 Apache Flink 中使用 Python API?

作者:孙金城(金竹)整理:韩非 本文根据 Apache Flink 系列直播课程整理而成,由 Apache Flink PMC,阿里巴巴高级技术专家 孙金城 分享。重点为大家介绍 Flink Python API 的现状及未来规划,主要内容包括:Apache

阅读全文

Apache Flink 在同程艺龙实时计算平台的研发与应用实践

本文主要介绍 Apache Flink 在同程艺龙的应用实践,从当前同程艺龙实时计算平台现状、建设过程、易用性提升、稳定性优化四方面分享了同城艺龙实时计算平台的建设经验,供大家参考。 1.背景介绍 在 2015 年初,为了能够采集到用户在 PC,APP 等平

阅读全文

Apache Flink 进阶(一):Runtime 核心机制剖析

作者:高赟(云骞) 1. 综述 本文主要介绍 Flink Runtime 的作业执行的核心机制。首先介绍 Flink Runtime 的整体架构以及 Job 的基本执行流程,然后介绍在这个过程,Flink 是怎么进行资源管理、作业调度以及错误恢复的。最后,本

阅读全文

深入剖析 Delta Lake:详解事务日志

事务日志(Transaction log)是理解 Delta Lake 的一个关键点,很多 Delta Lake 的重要特性都是基于事务日志实现的,包括 ACID 事务性、可扩展元数据处理、时间回溯等等。本文将探讨什么是事务日志,如何在文件层面实现,以及怎样

阅读全文

apache怎么使用相关问答

查看更多 提问题

Spark 【问答合集】

如何使用spark将kafka主题中的writeStream数据写入hdfs? https://yq.aliyun.com/ask/493211 当Spark在S3上读取大数据集时,在“停机时间”期间发生了什么? https://yq.aliyun.co

阅读全文

阿里新服务--seata问题,求解决~~~~~~~~

在使用框架的时候遇到了如下错误:com.alibaba.druid.sql.ast.expr.SQLInListExpr cannot be cast to com.alibaba.druid.sql.ast.expr.SQLBinaryOpExpr。是在使用

阅读全文

Flink 的 Scala API 怎么指定 时间字段

代码如下 ```scala import com.alibaba.fastjson.JSON import com.alibaba.fastjson.serializer.SerializeFilter import org.apache.flink.

阅读全文

StreamingFileSink写parquet文件的问题

在使用 StreamingFileSink 写parquet文件时,由于需要使用forGenericRecord方法,那么toAppendStream 需要的参数类怎么构建或者定义? 下面的代码是直接使用的GenericRecord接口的class。

阅读全文

2018spark技术问答集锦,希望能给喜欢spark的同学一些帮助

小编发现问答专区中有很多人在问关于spark的问题,小编把这些问题汇总一下,希望能给喜欢spark的大家一些启示和帮助 本帖不定期更新,喜欢的可以收藏哦 **如何在Apache Beam中实现类似Spark的zipWithIndex?** htt

阅读全文

如何使用scala将特定函数转换为apache spark中的udf函数?[重复]

我在apache spark中有一个数据框,使用Scala创建。此数据框有两列Array [String]类型。我写了一个简单的函数,它接受这两列并返回单词的交集(返回常用单词的数量:Int)。我的数据框的一个例子如下所示。 数据框示例及其列 功能

阅读全文

怎么获取我的hbase所有支持的配置项

hbase 0.9x, 1.1.x, 1.2.x...等一系列版本,后面的版本往往还有新的配置项加进去,现在只能在官方的book里面查看,比如 https://issues.apache.org/jira/browse/HBASE-18226 有个选项 hba

阅读全文

如何使用spark将kafka主题中的writeStream数据写入hdfs?

我一直试图让这段代码工作几个小时: val spark = SparkSession.builder() .appName("Consumer") .getOrCreate() spark.readStream .format("ka

阅读全文