1. 云栖社区>
  2. 全部标签>
  3. #odps#
odps

#odps#

已有7人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

使用MaxCompute Java SDK 执行任务卡住了,怎么办?

场景一 用户A A: “亲,用 MaxCompute Java SDK 跑作业,为什么卡住不动了?” me: “有 Logview 吗?发来看下” A: “没有,我用的是SDK,没Logview” 场景二 用户B B :“亲,用 MaxCompute Java SDK 访问 Table,为什么卡住半天没反应?” me:“卡在哪一行了?” B:"就 RestClient retry 然后卡住了" 去繁就简 用户 A 的问题在于没有 instance 的 logview,导致无法追踪 instance 的运行过程。

云栖社区 大数据 java sdk odps request string MaxCompute

使用MaxCompute Java SDK运行安全相关命令

使用MaxCompute Console的同学,可能都使用过MaxCompute安全相关的命令。官方文档上有详细的MaxCompute安全指南,并给出了安全相关语句汇总。 简而言之,权限管理、列级别访问控制、项目空间安全配置以及跨项目空间的资源分享都属于 odps 安全命令相关的范畴。

云栖社区 大数据 安全 java sdk odps aliyun string 权限管理 schema Create account MaxCompute

在DataWorks中实现指定UDF只能被指定账户访问

在DataWorks中实现指定资源只能被指定账户访问

安全与风控 配置 odps Image blank UDF MaxCompute

MaxCompute UDTF 实现日志解析

MaxCompute UDTF 实现日志解析

java 函数 日志 LOG odps aliyun string type alibaba 数据类型 fastjson MaxCompute

免费带你体验阿里巴巴旗舰大数据计算产品MaxCompute

什么是MaxCompute? 众所周知,MaxCompute是阿里云推出的承载EB级的数据存储能力,百PB级的单日计算能力,公共云覆盖国内外十几个国家和地区,专有云包含城市大脑在内部署超过100+套的阿里巴巴的统一计算平台。

大数据 hadoop 性能 SQL 配置 odps aliyun 数据同步 存储 数据存储 MaxCompute 海量数据

阿里云MaxCompute(大数据)公开数据集---带你玩转人工智能

目前阿里云大数据产品已经免费向全部用户开放了多种公用数据集。开放的数据类别包括:股票价格数据,房产信息,影视及其票房数据。

大数据 阿里云 code odps 排序 数加 string 报表 MaxCompute 数据集 免费大数据集 免费数据

Oracle存储过程迁移ODPS-03(专有云):ODPS1.0支持exists语法

专有云目前还有不少ODPS1.0版本,主要是应对V3之前的平台版本。这个版本的ODPS不支持exists语法,如何换种写法实现。

Oracle odps BY 存储过程 Group MaxCompute exists

Oracle存储过程迁移ODPS-02(专有云):循环逻辑修改一例(构造代码表)

总有同学提问,说我原来在oracle的存储过程中的循环现在maxcompute支持了,我的程序怎么迁移。这个问题其实非常难以回答,一般来说99%的oracle的代码都可以通过maxcompute的SQL和函数来替代,这个也包括一般的循环语句要解的问题。

Oracle SQL odps 迁移 BY update 存储过程 循环 MaxCompute

Oracle存储过程迁移ODPS-01(专有云):支持DML(delete/update/merge)SQL

关系型数据库支持的DML(delete/update/merge)SQL ,在maxcompute(ODPS)该如何写? 总有人问,现写了一个例子,应该可以说明了。 有问题,欢迎大家指正。

SQL 数据库 odps string DML update delete MaxCompute merge

离线批量数据通道Tunnel的最佳实践及常见问题

基本介绍及应用场景 Tunnel是Odps提供的离线批量数据通道服务,主要提供大批量离线数据上传和下载,仅提供每次批量大于等于64MB数据的场景,小批量流式数据场景请使用DataHub实时数据通道以获得更好的性能和体验。

线程 odps aliyun string static session

大数据处理也要安全--关于MaxCompute的安全科普

企业从未像今天这样可以轻易地存储和使用大数据。然而,当您在使用大数据产品时,是否考虑过其中的安全问题呢?庆幸的是,阿里云产品专家和安全专家早就想你所想急你所急,先行一步将安全特性带入了大数据计算产品 MaxCompute。该产品在面世之初就具备强大的安全特性,让企业可以放心地在云上使用。

大数据 安全 odps 数据安全 Image 控制台 aliyun 沙箱 存储 MaxCompute 海量数据 访问控制 权限控制 标签安全

大批量处理excel文件到ODPS中方案

大批量处理excel文件到ODPS中方案 前言 最近所做的项目需要将近五千个excel文件导入到ODPS,并且excel文件内容格式全部不一样。 刚接到需求时特别的懵,不过工作还是要做的,首先通过查询dataworks中文档来看怎么实现该需求,通过文档了解到只支持csv、txt等格式进行单个上传,然后就开始着手做。

大数据 mysql RDS ECS odps 同步

MaxComputer-Pyodps之使用pyodps实现sql的循环

用过MaxComputer的同学,都知道MaxComputer SQL只支持常用DDL\DML语句,不支持存储过程的开发,但我们常常为解决业务逻辑的时候需要使用循环或递归,那这个在MaxComputer里面该怎么实现呢?

python SQL odps PyOdps string Create 存储过程 Mobile 循环 MaxCompute MaxComputer

MaxComputer - ODPS访问OSS非结构化数据

MaxCompute访问OSS的数据,在此主要介绍下面两种方式: 1、创建odps外部表,直接访问OSS非结构化数据 2、创建odps内部表,通过节点任务同步OSS 非结构化数据

OSS 配置 数据仓库 odps Image 同步 aliyun string 数据同步 应用服务器 csv DataWorks

MaxComputer-Pyodps之mysql ddl 批量生成odps ddl

批量将mysql 的DDL语句转化为odps ddl,潦草之作,可用即可。。。

python mysql SQL windows 数据库 odps 系统环境 utf-8 MaxComputer

[MaxCompute MapReduce实践]通过简单瘦身,解决Dataworks 10M文件限制问题

用户在DataWorks上执行MapReduce作业的时候,文件大于10M的JAR和资源文件不能上传到Dataworks,导致无法使用调度去定期执行MapReduce作业。 解决方案: jar -resources test_mr.

odps aliyun 解决方案 Mapreduce MaxCompute

15
GO