ODPS功能介绍之CLT

简介:

大家在使用ODPS之前,一定会问如何与ODPS亲密接触。 ODPS提供了基于HTTP/HTTPS的RESTful API接口,同时还有JAVA语言的SDK,但还有一款工具相信大家更喜欢-ODPS CLT (Command-Line Tool),一个基于命令行的工具。这款工具就是基于ODPS JAVA SDK开发的,只要机器上安装了JAVA 1.6,就可以运行。 通过这个工具,大家可以直接以命令的方式向ODPS提交任务作业来执行。下来给大家介绍一下这款工具如何使用。
安装及配置
(1) 这款工具可以从ODPS官网下载,下载之后,解开压缩包,例如:解压缩到 C:\ODPS_DEMO\
(2) 进入目录 C:\ODPS_DEMO\odpscmd_public\conf\,打开文件 odps_config.ini,修改配置信息
project_name=project_name
access_id=XXXXXXXXXXXXXXXX
access_key=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
end_point=http://service.odps.aliyun.com/api
tunnel_endpoint=http://dt.odps.aliyun.com
log_view_host=http://logview.odps.aliyun.com
https_check=true
说明:将project_name 值改为自己的project 名称,将access_id及access_key改为自己云账号的id和key。其它值可以不做修改;
(3) 通过命令行,进入C:\ODPS_DEMO\odpscmd_public\bin\,执行 odpscmd,进入交互界面,确认安装是否配置成功。
(4) 将 C:\ODPS_DEMO\odpscmd_public\bin 加入环境变量 PATH,方便通过命令行调用 odpscmd
ODPS CLT有两种执行方式:交互式和非交互式。 交互式即输入一条执行一条,直到用户退出。非交互式主要用于外部脚本的调用。脚本可以通过参数将命令传递给CLT来执行,执行完成后,CLT自动退出。 两种方式分别举例说明。
交互式执行常用命令
(1) 进入交互界面

odpscmd

(2) 分别执行下述命令

# 查看帮助信息
help;
# 切换项目
use aca21104_demo;
# 查看当前项目的详细信息
desc project aca21104_demo;
# 列出表信息
ls tables;
# 查看某个表的具体信息
desc dual;
# 查看表中记录数
count dual;
select count(*) from dual;
# 查看表记录内容:
read dual;
select * from dual;
# 添加用户 ben.ning@aliyun.com 到当前项目空间中来:
list users;
remove user ALIYUN$ben.ning@aliyun.com;
add user ALIYUN$ben.ning@aliyun.com;
# 新建表 t_test
create table if not exists t_test (id int, name string);
# 插入一条数据
insert into table t_test select * from t_test;
# 查看表中记录:
read t_test;

注:CLT中的每个命令以;作为结尾符,遇到结尾符才开始执行。所以命令后面不要忘记添加;号;
非交互式执行命令
使用-f执行指定文件中的命令集
(1) 在目录 C:\ODPS_DEMO\resources\01-BasicKnowledge\ 中新建一个文件 crt_tbl_new.cmd,包括如下内容:

use aca21104_demo;
drop table if exists t_test;
create table t_test (id int, name string);
insert into table t_test select 1,’odps’ from dual;
read t_test;
注:文件一定要存储为UTF-8格式;
(2) 使用 odpscmd 调用命令文件:

odpscmd -f C:\ODPS_DEMO\resources\01-BasicKnowledge\crt_tbl_new.cmd

(3) 使用 odpscmd 执行命令文件中的一部分命令(跳过开头的命令):

odpscmd -f C:\ODPS_DEMO\resources\01-BasicKnowledge\crt_tbl_new.cmd -k 4
使用-e参数执行命令
(1) 使用odpscmd -e 执行多个命令:

odpscmd -e “insert into table t_test select 2,’odpscmd’ from dual; read t_test;”

(2) 使用 -e 和 -k 结合在执行命令集时可跳过一些命令:

odpscmd -e “insert into table t_test select 2,’odpscmd’ from dual; read t_test;” -k

使用CLT中上传、下载数据
CLT中有个Tunnel命令,用来支持上传和下载数据的操作,如果数据量比较小,可以尝试使用CLT进行上传和下载。
(1) 使用 upload 子命令,上传文件 people.csv 到表 t_tunnel 中:

tunnel upload C:\ODPS_DEMO\resources\02-DataTransfer\people.csv t_tunnel;

(2) 检查上传结果:

read t_tunnel;
如果目标表有分区,需要先创建好分区,然后再上传数据,如:
(1) 创建表 t_tunnel_p 的分区 gender=’male’中:

alter table t_tunnel_p add if not exists partition (gender=’male’);

(2) 使用 upload 子命令,上传文件 men.csv 以及 women.csv 到表 t_tunnel_p 的已存在的分区 gender=’male’中:

tunnel upload women.csv t_tunnel_p/gender=’male’;
tunnel upload men.csv t_tunnel_p/gender=’male’;

如果想将表中的数据下载到本地也是件非常容易的事情,例如:
将表 t_tunnel 下载到本地文件 t_tunnel.csv:

tunnel download t_tunnel t_tunnel.csv;

如果想下载某个分区中的数据,可以直接指定分区即可:

tunnel download t_tunnel_p/gender=’male’ t_tunnel_p.csv;

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
7天前
|
监控 网络安全 PHP
对象存储oss使用问题之操作报错:Unable to execute HTTP request: SocketException如何解决
《对象存储OSS操作报错合集》精选了用户在使用阿里云对象存储服务(OSS)过程中出现的各种常见及疑难报错情况,包括但不限于权限问题、上传下载异常、Bucket配置错误、网络连接问题、跨域资源共享(CORS)设定错误、数据一致性问题以及API调用失败等场景。为用户降低故障排查时间,确保OSS服务的稳定运行与高效利用。
29 0
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks报错问题之使用oss读取csv文件至odps 报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
2月前
|
SQL 分布式计算 API
MaxCompute异常问题之报错User not in whitelist in this region如何解决
MaxCompute异常涉及到在使用阿里云MaxCompute大数据计算服务时遇到的各种错误和问题;本合集将提供针对MaxCompute异常的分析和解决方案,帮助用户处理数据处理、分析任务中的异常情况。
|
2月前
|
存储 数据处理 Apache
Flink报错问题之Flink报错AccessKeyId invalid or expire如何解决
Flink报错通常是指在使用Apache Flink进行实时数据处理时遇到的错误和异常情况;本合集致力于收集Flink运行中的报错信息和解决策略,以便开发者及时排查和修复问题,优化Flink作业的稳定性。
|
4月前
|
分布式计算 DataWorks 关系型数据库
DataWorks中datax的odpsreader和tunnel是不同的读取mc方式?
DataWorks中datax的odpsreader和tunnel是不同的读取mc方式?
47 0
|
4月前
|
Java 数据库连接 数据库
Flink全托管,holo 库同步到另一个库,报错failed to get user from ak 亲,请问是哪种权限缺失?Flink 配置中使用的是holo. jdbc 的user和password 。
Flink全托管,holo 库同步到另一个库,报错failed to get user from ak 亲,请问是哪种权限缺失?Flink 配置中使用的是holo. jdbc 的user和password 。
37 1
|
9月前
|
机器学习/深度学习 DataWorks
DataWorks kpermissiondenied:ODPS-1220095: Access denied - You are not allowed to submit PAI task, Please activate the PAI service on aliyun.com first. Thanks.
DataWorks kpermissiondenied:ODPS-1220095: Access denied - You are not allowed to submit PAI task, Please activate the PAI service on aliyun.com first. Thanks.
62 0
|
9月前
|
存储 SQL 分布式计算
ODPS
ODPS(Open Data Processing Service)是阿里云推出的大数据计算平台,提供海量数据存储和计算服务,支持多种计算引擎和编程语言,包括MaxCompute(原名ODPS)、Spark等。用户可以使用ODPS平台进行数据存储、计算和分析,在不需要维护自己的硬件和软件环境的前提下,快速构建和部署大规模数据处理应用。
1523 0
|
10月前
|
存储 SQL 机器学习/深度学习
MaxCompute(原名ODPS,全称Open Data Processing Service)
MaxCompute(原名ODPS,全称Open Data Processing Service)是阿里云开发的一种云原生数据处理和分析服务。它提供了强大的数据计算和处理能力,支持海量数据的存储、计算、分析和挖掘,并且具有高可靠、高性能、高可扩展、高安全等优势,适用于各种数据处理和分析场景。
578 0
|
分布式计算 DataX MaxCompute
DataX使用指南——ODPS to ODPS
1. DataX是什么 DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括 MySQL、Oracle、SqlServer、Postgre、HDFS、Hive、ADS、HBase、OTS、ODPS 等各种异构数据源之间高效的数据同步功能。
46916 2

热门文章

最新文章