【最佳实践】OSS开源工具ossutil-大文件断点续传

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: # OSS断点续传 ## 应用场景 当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。 针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。

经常碰到内部同学或者外部客户问ossutil关于大文件断点续传的问题。本文简单描述下原理并举例说明。

用户可从这里获取ossutil。

官网:https://help.aliyun.com/document_detail/50452.html
代码:https://github.com/aliyun/ossutil

OSS断点续传

应用场景

当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。

针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。分片上传就是将要上传的文件分成多个数据块(OSS里又称之为Part)来分别上传,上传完成之后再调用OSS的接口将这些Part组合成一个Object。

因此,OSS断点续传适用于以下场合。

  • 恶劣的网络环境:如手机端,当出现上传失败的时候,可以对失败的Part进行独立的重试,而不需要重新上传其他的Part。
  • 断点续传:中途暂停之后,可以从上次上传完成的Part的位置继续上传。

详细信息,请参考https://help.aliyun.com/document_detail/31850.html

实现原理

在分片上传的过程中,已经上传的Part的生命周期是永久的,因此很容易可以实现断点续传的功能。

如果分片上传意外失败,可以在重启的时候调用以下接口。

有了上传成功的Part列表,就可以从最后一块成功上传的Part开始继续上传,从而达到断点续传的效果。暂停和恢复上传实现原理也是一样的。

ossutil大文件断点续传

ossutil上传文件时,如果文件大小超过--bigfile-threshold选项指定的大小(默认为100M),ossutil会认为该文件为大文件,并自动使用断点续传策略。

续传策略

  • 上传至OSS

    • ossutil会对大文件自动分片,进行multipart分片上传;
    • 如果上传失败,会在本地.ossutil_checkpoint目录记录失败信息,下次重传时会读取.ossutil_checkpoint目录中的信息进行断点续传,当上传成功时会删除.ossutil_checkpoint目录。
  • 从OSS下载

    • ossutil会自动对大文件分片下载,所有分片下载后组装成一个文件;
    • 如果下载失败,同样会在.ossutil_checkpoint目录记录失败信息,重试成功后删除.ossutil_checkpoint目录。
  • 在OSS间拷贝

    • ossutil会自动对大文件分片,使用Upload Part Copy方式拷贝;
    • 同样会在.ossutil_checkpoint目录记录失败信息,重试成功后会删除.ossutil_checkpoint目录。

实现原理

断点续传的重点在于需要本地记录已经上传了多少,还需要上传多少。因此ossutil在本地默认.ossutil_checkpoint目录下创建文件记录本次上传分片信息,并用LevelDB记录哪些分片已经上传成功。

比如,在.ossutil_checkpoint目录下创建如下文件并记录分片信息。具体内容可参考后面的例子。

$ ls .ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp
.ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp

例子

上传并中断

本文给出一个上传的例子,下载和拷贝操作方法类似。

# 200M文件上传

$ ls -lh test.file.200M
-rw-r--r--  1 zubo.yzb  staff   200M  6 11 15:34 test.file.200M

# 上传18%时Ctrl+C掉

$ ossutil cp test.file.200M oss://tempb3
Total num: 1, size: 209,715,200. Dealed num: 0, OK size: 38,456,400, Progress: 18%^C⏎

碎片信息

ls命令加-a选项可参考分片信息。

$ ossutil ls oss://tempb3 -a
Object Number is: 0
InitiatedTime                     UploadID                            ObjectName
2018-06-11 15:34:57 +0800 CST     15E03889BFF34823AF47A6F65A8E7B11    oss://tempb3/test.file.200M
UploadID Number is: 1
0.116129(s) elapsed

也可以登录控制台查看分片(碎片)信息。

image.png

Checkpoint文件

默认在当前目录下会创建.ossutil_checkpoint目录,并将断点信息写入文件,文件名如上所述。

文件数据定义如下。

type uploadCheckpoint struct {
    Magic     string   // magic
    MD5       string   // cp内容的MD5
    FilePath  string   // 本地文件
    FileStat  cpStat   // 文件状态
    ObjectKey string   // key
    UploadID  string   // upload id
    Parts     []cpPart // 本地文件的全部分片
}

type cpStat struct {
    Size         int64     // 文件大小
    LastModified time.Time // 本地文件最后修改时间
    MD5          string    // 本地文件MD5
}

type cpPart struct {
    Chunk       FileChunk  // 分片
    Part        UploadPart // 上传完成的分片
    IsCompleted bool       // upload是否完成
}
// FileChunk 文件片定义
type FileChunk struct {
    Number int   // 块序号
    Offset int64 // 块在文件中的偏移量
    Size   int64 // 块大小
}
// UploadPart 上传/拷贝的分片
type UploadPart struct {
    XMLName    xml.Name `xml:"Part"`
    PartNumber int      `xml:"PartNumber"` // Part编号
    ETag       string   `xml:"ETag"`       // ETag缓存码
}

文件内容如下。

{
    "FilePath": "test.file.200M",
    "FileStat": {
        "LastModified": "2018-06-11T15:34:18+08:00",
        "MD5": "",
        "Size": 209715200
    },
    "MD5": "3Rv7Fx0gbfPLWKOa4OjMew==",
    "Magic": "FE8BB4EA-B593-4FAC-AD7A-2459A36E2E62",
    "ObjectKey": "test.file.200M",
    "Parts": [
        {
            "Chunk": {
                "Number": 1,              =====> 第1个分片
                "Offset": 0,
                "Size": 2563760           =====> 每个分片size为2563760=2503KB
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",     =====>已经成功上传的分片有ETag
                "PartNumber": 1,          =====> 第1个分片
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 15,             =====> 第15个分片
                "Offset": 35892640,
                "Size": 2563760
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",
                "PartNumber": 15,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
        {
            "Chunk": {
                "Number": 16,             =====> 第16个分片
                "Offset": 38456400,
                "Size": 2563760
            },
            "IsCompleted": false,         =====> 未上传
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 82,              =====>82个分片
                "Offset": 207664560,
                "Size": 2050640
            },
            "IsCompleted": false,
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        }
    ],
    "UploadID": "15E03889BFF34823AF47A6F65A8E7B11"
}

断点续传

再次上传直接从断点开始继续,可以观察到progress直接从18%开始,直到结束。

$ ossutil cp test.file.200M oss://tempb3 -f
Succeed: Total num: 1, size: 209,715,200. OK num: 1(upload 1 files).
11.461563(s) elapsed

总结

  • 小文件不会断点续传,失败后下次直接重传;
  • 对于上传至OSS或在OSS间拷贝,如果失败,OSS上可能会产生Uncomplete的UploadId,但只要最终成功,就不会存在Uncomplete的UploadId(会被组装成object);
  • 上传到oss时,如果.ossutil_checkpoint目录包含在file_url中,.ossutil_checkpoint目录不会被上传到oss。该目录路径可以用--checkpoint-dir选项指定,如果指定了该选项,请确保指定的目录可以被删除。
  • 如果使用rm命令删除了Uncomplete的Multipart Upload,可能会造成下次cp命令断点续传失败(报错:NoSuchUpload),这种时候如果想要重新上传整个文件,请删除相应的checkpoint文件。

    $ ossutil cp test.file.200M oss://tempb3
    Total num: 1, size: 209,715,200. Dealed num: 0, Transfer size: 0. When error happens.
    Error: oss: service returned error: StatusCode=404, ErrorCode=NoSuchUpload, ErrorMessage=The 
    specified upload does not exist. The upload ID may be invalid, or the upload may have been 
    aborted or completed., RequestId=5B1E2B177953A44A418E6FD5, File=test.file.200M!
    Will remove checkpoint dir '.ossutil_checkpoint' automatically. Please try again.⏎
  • 分片上传不直接等于断点续传,但是基于分片上传可以实现断点续传的效果。
  • 如果上传的文件是不变的,分片的方法也是不变的,那么只需要在本地记录文件已经成功上传了哪些分片,后面重新上传的时候,跳过已经成功上传的分片,就能达到断点续传的效果。

Reference

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
目录
相关文章
|
1月前
|
Java API 开发工具
如何用阿里云 oss 下载文件
阿里云对象存储服务(OSS)提供了多种方式下载文件,以下讲解下各种方式的下载方法
759 1
|
5月前
|
数据处理 对象存储
如何利用 OSS 转换 webp 文件为jpeg
如何利用 OSS 转换 webp 文件为jpeg,OSS 样式使用
1508 1
|
1月前
|
弹性计算 前端开发 小程序
微信小程序上传文件至阿里云OSS直传(java后端签名+前端直传)
当前的通用文件上传方式是通过前端上传到服务器,再由服务器转存至对象存储。这种方式在处理小文件时效率尚可,但大文件上传因受限于服务器带宽,速度较慢。例如,一个100MB的文件在5Mbps带宽的阿里云ECS上上传至服务器需160秒。为解决此问题,可以采用后端签名的方式,使微信小程序直接上传文件到阿里云OSS,绕过服务器中转。具体操作包括在JAVA后端引入相关依赖,生成签名,并在微信小程序前端使用这个签名进行文件上传,注意设置正确的请求头和formData参数。这样能提高大文件上传的速度。
|
6月前
|
开发工具 对象存储 Python
OSS上,如果你想对一个已经存在的文件进行追加写入
OSS上,如果你想对一个已经存在的文件进行追加写入
241 1
|
3天前
|
存储 数据可视化 安全
对象存储OSS产品常见问题之有几十亿个txt文件,单个4kb,使用oss如何解决
对象存储OSS是基于互联网的数据存储服务模式,让用户可以安全、可靠地存储大量非结构化数据,如图片、音频、视频、文档等任意类型文件,并通过简单的基于HTTP/HTTPS协议的RESTful API接口进行访问和管理。本帖梳理了用户在实际使用中可能遇到的各种常见问题,涵盖了基础操作、性能优化、安全设置、费用管理、数据备份与恢复、跨区域同步、API接口调用等多个方面。
33 11
|
3天前
|
存储 监控 开发工具
对象存储OSS产品常见问题之python sdk中的append_object方法支持追加上传xls文件如何解决
对象存储OSS是基于互联网的数据存储服务模式,让用户可以安全、可靠地存储大量非结构化数据,如图片、音频、视频、文档等任意类型文件,并通过简单的基于HTTP/HTTPS协议的RESTful API接口进行访问和管理。本帖梳理了用户在实际使用中可能遇到的各种常见问题,涵盖了基础操作、性能优化、安全设置、费用管理、数据备份与恢复、跨区域同步、API接口调用等多个方面。
34 9
|
18天前
|
存储 Cloud Native Serverless
云原生最佳实践系列 7:基于 OSS Object FC 实现非结构化文件实时处理
阿里云OSS对象存储方案利用函数计算FC,在不同终端请求时实时处理OSS中的原图,减少衍生图存储,降低成本。
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks报错问题之使用oss读取csv文件至odps 报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
5月前
|
域名解析 对象存储 数据安全/隐私保护
如何 Wordpress 使用 OSS 上传图片、文件
如何使用 OSS 上传 Wordpress 的图片文件
1240 2
|
6月前
|
存储 Kubernetes Cloud Native
昆腾Myriad全闪存横向扩展文件与对象存储平台
9月27日,在昆腾举办的研讨会上,资深存储架构专家曾祥礼做了主题为《为下一个数据时代设计的Myriad全闪存文件和对象存储平台》的分享,详细深入地剖析了昆腾全新的Myriad系统。
43 0

相关产品

  • 对象存储