OssImport系列之二——单机部署

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: 介绍了OssImport单机模式的部署、运行、常见问题排除等。

相关文章:OssImport系列之一——架构

下载

单机部署支持Linux、Windows。

单机版本下载地址 ossimport-2.2.1.zip ,下载到本地后,使用工具或命令unzip,解压后的文件结构如下:

ossimport
├── bin
│   └── ossimport2.jar  # 包括Master、Worker、TaskTracker、Console四个模块的总jar
├── conf
│   ├── local_job.cfg   # Job配置文件
│   └── sys.properties  # 系统运行参数配置文件
├── console.bat         # Windows命令行,可以分布执行调入任务
├── console.sh          # Linux命令行,可以分布执行调入任务
├── import.bat          # Windows一键导入,执行配置文件为conf/local_job.cfg配置的数据迁移任务,包括启动、迁移、校验、重试
├── import.sh           # Linux一键导入,执行配置文件为conf/local_job.cfg配置的数据迁移任务,包括启动、迁移、校验、重试
├── logs                # 日志目录
└── README.md           # 说明文档,强烈建议使用前仔细阅读

配置

单机版本有两个配置文件conf/sys.propertiesconf/local_job.cfg,配置项的含义请看 介绍 章节。
conf/sys.properties中的配置项 workingDirworkerUserNameworkerPasswordprivateKeyFile请不要修改。conf/local_job.cfg的名称和位置请不要修改,配置项 jobName请不要修改,其它配置项请按照实际需求配置。

注意

  • 请在提交任务前确认 sys.propertieslocal_job.cfg 中的参数,任务提交后参数无法再修改。

运行

单机模式下,数据迁移任务有两种执行方式 一键导入分步执行一键导入 ,是对所有步骤的封装,按照脚本提示执行即可完成数据迁移。 分步执行 ,执行启动服务、提交任务、重试失败子任务等步骤。 对于初级用户强烈建议使用一键导入

单机模式的配置文件是conf/local_job.cfg,数据迁移前请安装实际需求修改任务参数。默认任务名称为local_test,请不要修改。

一键导入

  • 执行一键导入,Window在 cmd.exe 中执行 import.bat,Linux终端中执行 bash import.sh
  • 如果之前执行过程序,会提示有是否从上次的断点处继续执行,或者重新执行同步任务。对新的数据迁移任务,或者修改了同步的源端/目的端,请选择重新执行;
  • Windows下任务开始后,会打开一个新的cmd窗口执行同步任务并显示日志,旧窗口会每隔10秒打一次任务状态,数据迁移期间不要关闭两个窗口;Linux下服务在后台执行;
  • Job 完成后,如果发现有任务失败了,会提示是否重试,输入 y 重试,输入 n 则跳过退出;
  • 上传失败的原因请打开文件master/jobs/local_test/failed_tasks/<tasktaskid>/audit.log,请查看,确定失败原因。

分步执行

  • 清除同名任务。如果以前运行过同名任务,需要从新执行任务,请先清除同名任务。如果没有运行过,或需要重试失败任务,不要执行清除命令。Window下在 cmd.exe 中执行 console.bat clean,Linux下在终端执行 bash console.sh clean
  • 提交数据迁移任务。OssImport不能提交同名任务,如果有请先清除。提交任务的配置文件为conf/local_job.cfg,默认任务名称为local_test。提交任务的命令,Window下在 cmd.exe 中执行 console.bat submit,Linux下在终端执行 bash console.sh submit
  • 启动服务。Windows下在 cmd.exe 中执行 console.bat start,Linux下在终端执行 bash console.sh start
  • 查看任务状态。Windows下在 cmd.exe 中执行 console.bat stat,Linux下在终端执行 bash console.sh stat
  • 失败Task重试。由于网络或其它原因,子任务可能失败。失败重试只重试失败的Task,不会重试成功的Task。Windows下在 cmd.exe 中执行 console.bat retry,Linux下在终端执行 bash console.sh retry
  • 停止服务。Windows下在关闭窗口 %JAVA_HOME%/bin/java.exe 即可,Linux下在终端执行 bash console.sh stop

注意

  • 没有特殊需要,请使用 一键导入 方式迁移数据。

常见失败原因

  • 上传过程中源目录的文件发生了修改,log/audit.log里会提示SIZE_NOT_MATCH相关字样的错误,这种情况下老的文件已经上传成功,新的修改没有上传到OSS;
  • 源文件在上传过程中被删除,导致下载的时候失败;
  • 源文件名不符合OSS命名规范(不能以/开头,不能为空),导致上传到OSS失败;
  • 下载数据源文件失败;
  • 程序异常退出,任务状态为 Abort ,这种情况请联系我们。

任务状态及日志

任务提交后,Master分解成Task,有Worker执行Task,Tracker收集Task状态。任务运行完成后ossimport目录内容如下:

ossimport
├── bin
│   └── ossimport2.jar    # 单机版jar
├── conf
│   ├── local_job.cfg     # Job配置文件
│   └── sys.properties    # 系统运行参数配置文件
├── console.sh            # 命令行工具
├── import.sh             # 一键导入脚本
├── logs
│   ├── import.log        # 归档日志
│   ├── job_stat.log      # 任务状态记录
│   ├── ossimport2.log    # 单机版运行日志
│   └── submit.log        # 任务提交记录
├── master
│   ├── jobqueue                # 存放尚未分解完成的任务
│   └── jobs                    # 存放任务运行状态
│       └── local_test          # 任务名称
│           ├── checkpoints     # Master分解Job到Task的checkpoint点记录
│           │   └── 0
│           │       └── 034DC9DD2860B0CFE884242BC6FF92E7.cpt
│           ├── dispatched      # 已经分配给Worker尚未运行完成的Task
│           │   └── localhost
│           ├── failed_tasks    # 运行失败的Task
│           ├── pending_tasks   # 尚未分配的Task
│           └── succeed_tasks   # 成功运行的Task
│               └── A41506C07BF1DF2A3EDB4CE31756B93F_1499744514501@localhost
│                   ├── audit.log   # Task运行日志,通过该日志可以查看错误原因
│                   ├── DONE        # Task运行成功标志
│                   ├── error.list  # Task错误列表,可以查看错误文件列表
│                   ├── STATUS      # 任务状态标志文件,内容为Failed或Completed,表示子任务失败或成功
│                   └── TASK        # Task描述信息
└── worker      # Worker正在运行的Task状态,运行完成后有Master管理
    └── jobs
        └── local_test
            └── tasks

提示

  • Job运行信息,可以查看log/ossimport2.log
  • Task的失败原因,可以查看master/jobs/${JobName}/failed_tasks/${TaskName}/audit.log
  • Task的失败文件,可以查看master/jobs/${JobName}/failed_tasks/${TaskName}/error.list

常见错误及排除

请参看 常见错误及排除

相关文章:OssImport系列之一——架构
参数

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
26天前
|
Kubernetes 容器
搭建K8S环境单机K8S集群
搭建K8S环境单机K8S集群
30 0
|
6月前
|
存储 人工智能 开发工具
什么是集群极速部署工具FastGPU
FastGPU是一套阿里云推出的人工智能计算极速部署工具。您可以通过其提供的便捷的接口和自动工具,实现人工智能训练和推理任务在阿里云IaaS资源上的快速部署。
|
3月前
|
Kubernetes Shell Docker
K8s集群v1.26.1版本的简单部署实践
K8s集群v1.26.1版本的简单部署实践
118 0
|
3月前
|
消息中间件 Kafka
Kafak - 单机/集群快速安装指北(3.x版本)
Kafak - 单机/集群快速安装指北(3.x版本)
44 0
|
5月前
|
监控 NoSQL MongoDB
轻松掌握组件启动之MongoDB(番外篇):高可用复制集架构环境搭建-mtools
mtools是一个基于Python实现的MongoDB工具集,旨在提供一系列功能,包括MongoDB日志分析、报表生成以及简易的数据库安装等。它由MongoDB原生的工程师单独发起并进行开源维护。mtools包含了一些常用的组件,如mlaunch、mlogfilter、mplotqueries和mlogvis等,可以帮助我们更方便地启动和创建MongoDB数据库。
|
8月前
|
分布式计算 大数据 API
完美避坑!记一次Elasticsearch集群迁移架构实战
Elastic自身设计了集群分片的负载平衡机制,当有新数据节点加入集群或者离开集群,集群会自动平衡分片的负载分布。
|
11月前
|
运维 Kubernetes 负载均衡
一键部署k8s脚本(单机1.18.3)
一键部署k8s脚本(单机1.18.3)
|
存储 缓存 应用服务中间件
分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(二)
分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)
406 0
分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(二)
|
Kubernetes 开发者 Docker
k8s 集群部署_部署工具介绍 | 学习笔记
快速学习 k8s 集群部署_部署工具介绍
176 0
|
存储 负载均衡 算法
【集群】集群的概念(相关知识)、常用工具/算法、常见集群
文章目录 前言 一、集群架构 1.1 负载调度器 1.1.1 常用调度算法
98 0
【集群】集群的概念(相关知识)、常用工具/算法、常见集群