如何灵活使用OSS监控数据动态调整OSS服务参数

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: 本文的目的是为了提供一种使用OSS监控服务的数据灵活控制OSS服务形态的例子,以方便大家能够举一反三,实现更多的通用方法解决多样的需求。

如题,本文的目的是为了提供一种使用OSS监控服务的数据灵活控制OSS服务形态的例子,以方便大家能够举一反三,实现更多的通用方法解决多样的需求。


        其实OSS监控服务已经提供了报警功能,能够方便用户对OSS已经提供的metric指标进行监控报警,及时发现问题并进行处理。但是这种报警也只是做到了通知用户,通过邮件、旺旺、短信的方式,然而接下来如何行动,还是要靠用户自己了。另外,监控项的监控,仅仅是当前的监控情况,还没有对一段时间内的数据累计(或者求峰谷值、平均值等等)情况进行监控的功能。


        虽然如此,别忘了OSS监控服务提供了数据访问的Open API,还有多种语言的SDK,方便你处理你的数据。如果能够用好这些监控数据,联结各种产品的提供的接口,可以解决很多特制的需求。


        这里我举个使用的场景吧。之前在论坛上看到过用户吐槽OSS没有流量监控功能,后来监控服务上线之后,又有位童鞋给我留言说还是不能满足他的需求,因为他希望OSS在流量使用的“累计总值”超过他设置的阈值之后,能够自动限制对他的Bucket资源的请求情况。

下面呢,我就结合OSS监控服务的SDK和OSS的SDK,给大家演示一下,满足一下这位童鞋的需求哈。


需求分析:

在bucket的权限为public read的情况下,用户的bucket可以接受任何合法的读请求访问,获取数据,从而产品流出流量。而公网流出流量我们是会收取流量资费的。
如果用户希望控制每日的费用支出,那么可以在每天流量消耗到一定的程度,就收回bucket的public read权限,改为private。那么在流量超限之后,所有的请求将会受到“AccessDeny”错误码。
这样,你的目的就到达了,是吧。

代码示例:

这里简单写个代码示例演示一下,如何满足以上需求功能:
代码功能:
        从进程启动开始监控流量使用总量,每10分钟获取一次流量监控数据(每分钟一个值),如果总量超过设置的阈值,那么设置bucket的acl为private,退出进程。

#!/bin/env python
#-*- coding:utf-8 -*-

from aliyunsdkcore import client
from aliyunsdkcms.request.v20151020 import QueryMetricRequest

import oss2
import time
import json

# 请填好您的配置
access_id = 'your access id'
access_key = 'your access key'
bucket_name = 'your bucket'
endpoint = 'your endpoint'

# util func
def date_2_sec(s, format = '%Y-%m-%d %H:%M:%S'):
    tp = time.strptime(s, format)
    return int(time.mktime(tp))

def sec_2_date(sec, format = '%Y-%m-%d %H:%M:%S'):
    tp = time.localtime(sec)
    return time.strftime(format, tp)


def get_throughput_metric_from_cms(start_time, end_time):
    '''
    从OSS监控服务中获取公网流出流量在一点时间范围内的指标
    :param start_time: 监控数据的起始时间,格式"2016-07-23 22:59:00"
    :param end_time: 监控数据的结束时间,格式"2016-07-23 23:09:00"
    :return
    '''
    project = 'acs_oss'
    metric = 'InternetSend'
    dimensions = '{"BucketName":"%s"}' % bucket_name
    clt = client.AcsClient(access_id, access_key,'cn-hangzhou')
    request = QueryMetricRequest.QueryMetricRequest()
    request.set_accept_format('json')
    request.set_Project(project)
    request.set_Metric(metric)
    request.set_StartTime(start_time)
    request.set_EndTime(end_time)
    request.set_Dimensions(dimensions)
    request.set_Period('60')
    result = clt.do_action(request)
    result = json.loads(result)
    data_list = []
    for data in result['Datapoints']['Datapoint']:
        data_list.append(data[metric])
    print '[%s - %s]: %s' % (start_time, end_time, data_list)
    return data_list

def set_bucket_acl():
    auth = oss2.Auth(access_id, access_key)
    bucket = oss2.Bucket(auth, endpoint, bucket_name)
    bucket.put_bucket_acl(oss2.BUCKET_ACL_PRIVATE)
    print 'set bucket %s to %s' % (bucket_name, oss2.BUCKET_ACL_PRIVATE)

def limit_throughput_task(period, threshold):
    total_throughput = 0
    start_time = sec_2_date(int(time.time()))
    while True:
        time.sleep(period)
        end_time = sec_2_date(int(time.time()))
        data_list =  get_throughput_metric_from_cms(start_time, end_time)
        total_throughput += sum(data_list)
        print 'now total_throughput is %d' % total_throughput
        if total_throughput >= threshold:
            set_bucket_acl()
            break

        start_time = end_time

if __name__ == '__main__':
    # 每10分钟获取一次metric, 阈值设置为4000Byte
    limit_throughput_task(600, 4000)
    print 'task finished'

      监控指标除了公网流出流量之外,当然还有容量、可用性、请求个数等等;操作方式除了控制OSS bucket权限之外,还可以触发删除指定object、订阅MNS、导出监控数据到实时分析/离线分析系统等等。
各种组合形式,各种需求功能,就看你自己怎么用啦。

云监控SDK安装和使用参见[云监控SDK]。
OSS SDK安装和使用参见[OSS SDK]。

插播广告哈:

        存储服务是阿里云最核心的服务,我们不但支持文件 / 对象 / 表格 / 日志等多种形式的存储,也正在研发下一代事件驱动的 serverless 计算服务 在这里,你的代码可能运行在几十万台服务器上,不但处理整个阿里巴巴集团最核心的数据,也会成为整个阿里云平台上万千企业云上数据的坚实基础,甚至开启下一代计算的新篇章。
        所以,我们诚聘您的加入,简历投至shuting.yst@alibaba-inc.com,在校优秀人才、社会牛人看过来哦~~    
相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
相关文章
|
2月前
|
机器学习/深度学习 存储 分布式计算
机器学习PAI常见问题之DLC的数据写入到另外一个阿里云主账号的OSS中如何解决
PAI(平台为智能,Platform for Artificial Intelligence)是阿里云提供的一个全面的人工智能开发平台,旨在为开发者提供机器学习、深度学习等人工智能技术的模型训练、优化和部署服务。以下是PAI平台使用中的一些常见问题及其答案汇总,帮助用户解决在使用过程中遇到的问题。
|
6天前
|
分布式计算 DataWorks 数据处理
DataWorks产品使用合集之在DataWorks中管理MaxCompute模块的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
17 0
|
6天前
|
DataWorks 对象存储 分布式计算
DataWorks产品使用合集之DataWorks在将数据写入OSS时,会将所有的字符串类型的字段进行trim操作如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
24 1
|
6天前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之在DataWorks中,同步OSS中的数据的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
17 0
|
8天前
|
运维 Java Serverless
Serverless 应用引擎产品使用之数据文件(例如sdxl)超过了OSS(对象存储服务)的单个上传大小限制(5GB)如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
17 1
|
14天前
|
存储 开发工具 对象存储
Javaweb之SpringBootWeb案例之阿里云OSS服务入门的详细解析
Javaweb之SpringBootWeb案例之阿里云OSS服务入门的详细解析
16 0
|
19天前
|
存储 移动开发 安全
对象存储OSS产品常见问题之目前只看到能够下载对账单,但是想通过接口获取数据获取如何解决
对象存储OSS是基于互联网的数据存储服务模式,让用户可以安全、可靠地存储大量非结构化数据,如图片、音频、视频、文档等任意类型文件,并通过简单的基于HTTP/HTTPS协议的RESTful API接口进行访问和管理。本帖梳理了用户在实际使用中可能遇到的各种常见问题,涵盖了基础操作、性能优化、安全设置、费用管理、数据备份与恢复、跨区域同步、API接口调用等多个方面。
32 0
|
20天前
|
安全 Java 网络安全
对象存储oss使用问题之使用oss上服务器后显示服务异常如何解决
《对象存储OSS操作报错合集》精选了用户在使用阿里云对象存储服务(OSS)过程中出现的各种常见及疑难报错情况,包括但不限于权限问题、上传下载异常、Bucket配置错误、网络连接问题、跨域资源共享(CORS)设定错误、数据一致性问题以及API调用失败等场景。为用户降低故障排查时间,确保OSS服务的稳定运行与高效利用。
20 0
|
2月前
|
存储 安全 对象存储
手把手教你搭建阿里云图床(PicGo+Typora+阿里云OSS),新手小白一看就会
本文详细介绍了怎样帮助新手小白从注册,购买阿里云OSS,到一步一步配置OSS做为图床,和PicGo、Typora软件连接,配置好关联之后,在使用Typora写文章时,如果需要插入图片,只需要将图片复制粘贴到Typora的编辑区域,就会自动通过PicGo上传到指定图床,自动复制外网能访问的URL并展示,简直不要太方便,极大的解决了编辑文章时复制处理图片链接的痛点。
234 2
手把手教你搭建阿里云图床(PicGo+Typora+阿里云OSS),新手小白一看就会

相关产品

  • 对象存储