揭空气质量“大数据”面纱:服务信息将更“贴身”

简介:

“今天阳光特别强,臭氧超标了。”随着空气质量监测系统的发展,通过手机APP或者门户网站查阅空气质量,几乎成了人们日常生活的一部分。手握数据终端,您会不会好奇数据源头和传输过程?前阵子,媒体曝光了一些地方在空气质量监测站点周边重点洒扫的现象。怎样防止监测数据造假?为啥监测数据与个人直观感受存在差距?近日记者走进监测站点,揭开空气质量“大数据”的神秘面纱。

自动采样,实时分析,空气质量监测有精准范儿

随着站点增加,服务信息将更“贴身”

烈日当空,车水马龙的街边静静伫立着一座四四方方的小房子,乍一看还以为是造型独特的报刊亭。“这就是标准配置的空气监测站,大小是3米×3米。不过我们正在进行改造升级,完成后新建的站点都是3米×7米。”北京市环境保护监测中心自动监测室主任魏强介绍道。

这个小房子,就是我们每天看到的空气质量大数据的诞生地。不到20平方米的房间里,微波炉大小的监测仪器从房顶至地板整齐码放。仪器上分别标识着臭氧、一氧化碳、氮氧化物、二氧化硫、PM10、PM2.5六项污染物。

魏强指向房顶,“看到天花板附近的玻璃瓶吗?那就是我们抽取室外空气的工具。实时采得的样本被输送到与玻璃瓶相连的管子中。管道分别通向不同的仪器,监测不同的污染物指标。”

这些污染物监测数据,会实时显示在房间中央的电脑屏幕上,并随时传输至北京市环保监测中心和中国环境监测总站。所有设备均自动运行,专业团队一两周进行一次常规维护就够了。

北京市从1984年开始建设数据监测网络。到2012年,已有35个站点。今年,环保部门正在开展网络系统升级,预计明年将有更多的站点建成并投入运行。

北京市环保局环境监测处副处长董险峰表示,新的监测站类型更丰富,增加了农村站、山区站、工业集中区等站点。此外,还新建了垂直站,能对分层流动的大气进行垂直梯度分析,让监测变得立体。监测时,除了常规仪器,针对PM2.5单项监测的小型设备也将大规模投用,这种设备看起来像小型电表箱,布设非常方便。

“大数据基础网络的升级,让空气质量监测服务更具‘精准范儿’。”董险峰拿出手机,打开监测中心官方APP“北京空气质量发布”,指着屏幕对记者解释道,“现有35个监测站,民众可以找到距离较近的点位作参考。以后站点多了,空间分析会更精准,市民能找到离自己更近的站点,实现空气质量信息的‘贴身’服务。”

站点选址有讲究,多管齐下防数据造假

国控监测点将由国家统一运营管理,阻断人为干扰的可能

空气质量新标实行之后,百姓对监测数据还有很多不放心。有人认为,监测站往往设立在环境良好的公园等地;有些地方甚至在站点周边重点洒扫,试图“美化”监测数据。

站点选址有“猫腻”,恐怕是大家都担心的问题。对此,环境保护部监测司环境质量监测处处长肖建军表示,监测站严格按照《环境空气质量监测点位布设技术规范》选址,兼顾代表性、科学性、稳定性和维护的便利性。按照功能划分,包括评价站点、区域站点和交通站点等。评价站点反映的是空气质量的整体状况和变化趋势,主要依据建成区面积和人口密度确定;区域站点反映的是污染物区域传输和影响范围,主要布设在大气传输通道上。

“有些城市在公园选点,是因为实际工作中,既要考虑城市规模、空间代表性等,还要考虑点位采样高度、运行稳定性等因素。”肖建军说,“这类站点的空气污染程度并不一定低。我们在一些城市做过统计,公园站点的污染物浓度在某些时段比其他站点高。”

为保证数据真实,国家设了几层关卡,防止人为干扰。

第一关,是数据的“一点多发”。各地监测站的数据,在对社会自动发布时,会同步传输到中国环境监测总站,中间不存在时间差,内容也完全一致。

北京市环境保护监测中心大气室主任李云婷告诉记者,早年间不少站点都实行人工监测,数据从产生到发布的周期长。现在所有站点都自动采集数据,并每小时对外发布,大家看到的空气质量监测数据都是最新鲜、最真实的。虽然受仪器故障影响,监测数据偶尔会有异常,但专业技术人员会在随后的审核过程中检查更正。

第二关,是远程监控。肖建军表示,在线远程质控平台囊括了现有的1436个国控监测站。一旦关键参数有异常,监控平台会自动报警,环保部门会派人检查。

董险峰以北京为例分析道,“北京每个点位都有视频监控,如果出现影响环境监测的问题,能被第一时间发现。此外,如果某一站点的数据明显异于其他点位,一般不会将其纳入统计结果,我们也会去现场核实。”

第三关,是国家每年开展的飞行检查、交叉检查等。董险峰解释,前者是在不通知当地环保部门的情况下,直接派巡视员去站点,后者是不同省市之间的互查。

“未来,按照‘谁考核谁监测’的原则,国家将上收所有国控空气质量监测站点,由现在的地方自管转为国家统一运维、质控和管理。”肖建军指出,这能从管理体制和运行机制上防止人为干扰,确保数据真实可靠。

谈及监测站点重点治理的问题,肖建军表示,希望地方政府能把力气用在大气污染治理上,如果只追求短期效应,不落实源头治理,就是舍本逐末。

让枯燥的数据“活起来”,缩小与百姓感受的差距

技术创新,多渠道满足公众信息需求

在监测部门看来,数据的真实度有所保证。然而不少市民却觉得,环保部门公布的数据,时常和自己的感受不一致。“今天数据显示中度霾,可看这天儿怎么也是重度了吧!”“都说今年环境治理成效初显,但冬天雾霾这么重,是不是又忽悠大家呢!”

数据是干巴巴的,老百姓的感受可是活生生的,究竟是什么造成了数据与公众感受两张皮?

李云婷认为,近年来,公众对空气质量高度关注,重污染天气的直观冲击太过强烈、深刻,甚至盖过了人们对优良天气的印象。“公众感受是检验环境治理成果的重要标尺,也是支持我们工作的强大动力,希望通过努力,能让‘APEC蓝’‘阅兵蓝’常驻北京。”

“监测数据不仅为决策和执法提供重要依据,还应为公众的环境知情权、参与权和监督权提供准确信息,”肖建军说,“我们欢迎并且需要公众监督。”

为了让各方都能看到北京市35个监测站的实时数据,监测中心尝试多渠道发布,并特别注重与新媒体结合。以前,监测中心官方微博用excel表格发布数据,有网友留言表示“太死板了”。于是工作人员调整思路,采用文字、遥感图片和背景介绍等多种方式,一下子拉近了与民众的距离,各大媒体也开始频繁转载官方数据。“了解公众需求,才能把服务工作做到点子上。”董险峰说。

肖建军说,环保部门在积极探索与公众互动的方式,比如加大科普力度、改进信息发布方式、向公众开放监测站进行参观等。

让枯燥的数据“活起来”,缩小与百姓感受的差距,是监测部门努力的方向。不过,工作人员表示,仍有亟待解决的技术问题。

例如,目前交通干线上的监测站只覆盖到四环以内,五环、六环以及各大高速路上都没有,而这些地方恰恰允许大货车通行。“大货车虽然不能进六环,但不代表对北京空气质量没影响。缺少站点,我们无法具体分析。今年加密布点之后,才能一探究竟。”李云婷说。

此外,加强部门联动,也极为必要。董险峰表示,今后北京需要建立部门间的监测数据共享平台,提高各类数据的使用效益。“数据不利用就是‘死’的,仅供一个单位使用是低效的。让数据‘活’起来,我们的供给才能充分满足老百姓的需求。”

====================================分割线================================

本文转自d1net(转载)

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
4月前
|
机器学习/深度学习 人工智能 运维
大数据分析:探索信息世界的钥匙
在当今信息爆炸的时代,大数据分析成为挖掘宝藏般的技术和方法。本文将介绍大数据分析的基本概念、技术与方法,并探讨其在商业、科学和社会领域中的广泛应用。从数据收集和预处理到模型构建和结果解读,大数据分析为我们揭示了信息世界的钥匙,为决策者提供了有力的支持。
|
3月前
|
存储 数据可视化 数据管理
基于阿里云服务的数据平台架构实践
本文主要介绍基于阿里云大数据组件服务,对企业进行大数据平台建设的架构实践。
733 2
|
5月前
|
SQL 存储 大数据
某互联网大厂亿级大数据服务平台的建设和实践
某互联网大厂亿级大数据服务平台的建设和实践
70 0
|
3月前
|
SQL 存储 分布式计算
maxcompute配置问题之配置mc内容如何解决
MaxCompute配置是指在使用阿里云MaxCompute服务时对项目设置、计算资源、存储空间等进行的各项调整;本合集将提供MaxCompute配置的指南和建议,帮助用户根据数据处理需求优化其MaxCompute环境。
33 1
|
1月前
|
分布式计算 运维 数据挖掘
MaxCompute是一个强大的云数据仓库服务
【4月更文挑战第1天】MaxCompute是一个强大的云数据仓库服务
27 1
|
5天前
|
分布式计算 IDE 大数据
MaxCompute产品使用合集之有多人调用大数据计算MaxCompute,我需要给他们每个人都生成ak信息吗
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5天前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之DataWorks创建 MaxCompute 资源背景信息如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
21 5
|
5天前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之dataworks 同步es数据到maxcompute 遇到报错:获取表列信息失败如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
13 0
|
5天前
|
存储 分布式计算 DataWorks
MaxCompute产品使用合集之大数据计算MaxCompute dataworks可以批量修改数据集成任务的数据源配置信息吗
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5天前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用合集之大数据计算MaxCompute如何限制用户只能访问特定的元数据信息,而不是整个工作空间
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。

热门文章

最新文章