为什么数据挖掘很难成功?

简介:

大数据时代,数据挖掘变得越加重要,曾经做了很多,成功有之,失败的却更多,举一些例子,探究其失败原因,也许于大家都有启示吧。

数据缺失总是存在。

为什么数据挖掘的数据准备工作要这么长时间,可以理解成取数时间很长、转换成所需的数据形式和格式时间很长,毕竟只有这样做,才能喂给数据挖掘引擎处理。

但数据准备的真正目的,其实是要从特定业务的角度去获取一个真实的数据世界,数据的获取比处理重要,技巧倒是其次了。

离网预测一直是很多业务领域关注的焦点,特别是电信行业,但这么多年做下来,其构建的离网模型却难言成功,为什么?

因为数据获取太难了。

离网预测希望用客户历史的行为数据来判定未来一段时间离网的可能性,但国内的电信市场并不稳定,不仅资费套餐复杂,大量的促销政策时时轰炸眼球,大家看得是热闹,但对于数据挖掘人员来讲,却是业务理解和数据准备的噩耗了。

因为业务的理解很困难,数据完全被业务扭曲,如果要预测准确,不仅自身业务促销的因素要考虑进去,还要考虑竞争对手策反政策、地域影响等等,你训练时看到的是一个简单的离网结果数据,但诱导因素异常复杂,这类因素相关的数据根本取不到或者难以量化。

比如电信离网很大程度是竞争对手策反、客户迁徙离网等等,你知道竞争对手何时推出的促销政策吗?你知道客户什么时候搬的家吗?你如何用数据来表达这种影响?你的数据能适应市场变化的节奏吗?

因此,如果某个合作伙伴来跟你说,我可以做电信行业的离网模型,那是个伪命题,离网模型已经被电信行业做烂了,几乎没有成功的案例,即使一时成功也持续不了多久,只要业务不统一,就不大可能出现一个基本适用的离网模型,你无法想象全国10万个电信资费政策会对预测建模造成怎样的影响。

与互联网大一统的数据相比,其搞的风控模型显然要简单的多了,因为数据的获取难度和稳定度不在一个量级上。

数据挖掘,难就难在要为预测的业务提供跟这个业务相关的数据环境,因此,有时离网模型做不好,并不是模型师的错,也不是算法的问题,而是业务惹的祸,是数据问题。

你让开发出Alphgo的DEEP MIND团队来做离网模型,也是一个死字,这可能也是传统行业数据挖掘很难出效果的一个原因。

阿里的蚂蚁金服,所以能算法取胜,一个原因是它天生具有线上的资金往来数据,如果让它去分析传统银行的线下数据,估计难度也很大。

数据挖掘师特别强调要理解业务,就是希望你基于业务的理解能找到所需的解释数据,外来的和尚所以做不好,也是这个因素,因为打一枪换一个地方的方式,跟扎根理解业务的建模文化背道而驰。

数据准备,不确定性总是存在,因此一定程度上讲,这个世界是不可预测的,预测的能力,跟我们采集数据的能力成一定的正相关关系。

大数据的意义,就在于可以采集到更多的数据,这个决定了我们用机器解释世界的可能程度。

假数据真分析。

还是拿离网的例子,你就知道很多时候,所谓的解释数据,都是假数据,虽然你不是故意的,你还很认真,但因为受限于业务能力,决定了你只能使用假数据,结果可想而知。

以前新手,在做离网预测的时候,总喜欢拿订购成功的数据作为训练的数据,但这个显然是个大谬误。

要知道,大量的业务订购是套餐附带订购的,并不能反映用户的真实意愿,拿这个数据去训练,能训练出什么东西?这就是业务能力不够造成的现象。

现在互联网上估计这个现象很严重,比如刷单,这些假数据严重扰乱了模型,去伪存真是数据挖掘师的一个必修课。

但这个,可惜又跟业务能力相关,依赖于实践和经验,如果让市场部经理转行去做数据挖掘师,估计也很牛逼。

数据挖掘,难就难在这里,其是业务、数据甚至是技术的结合体,在大数据时代,这个趋势会越加明显。

缺乏对于“常理”的感觉。

以下是一个社交网络的案例,场景是需要对于两个通话(或其它)交往圈进行重合度判定,以识别两个手机号码是否属于同一个人。

规则似乎很简单,但挖掘出来的结果却不尽如人意,准确率只有12%,百思不得其解。

后来发现判定重合度的阈值是30%,这个也不能说明有问题,但问题出在对于基数的判定上,大量的用户总的交往圈只有3-4个,也就是说,重合1个就可能达到这个阈值,很多新手或者过于迷信技巧的人,往往忽视业务本质的认识。

数据挖掘不仅仅是一门挖掘语言,还要有足够的生活认知和数据感觉,这个很难短期能够提升,依赖于长期实践,甚至认为,这个跟情商相关,有些人就是有感觉,一眼能发现问题。

缺乏迭代的能力。

很多传统企业,数据挖掘效果不好,跟企业的组织、机制、流程等相关,举个例子:

曾经给外呼部门做了一个外呼偏好模型,就是对于所有客户的外呼偏好排个序,在外呼资源有限的条件下,按照这个排序进行外呼,可以提升外呼效率,然后发布到标签库,然后让外呼部门去用,等待反馈的时间总是很长,大家都懂的,然后就石沉大海了。

最近想起来,再去要结果,发现效果很不错,能真正提升10个百分点啊,但已经2个月过去了。

这还算一个较为成功的挖掘,但又有多少模型由于线下流程的原因而被放弃了,谁都知道,数据挖掘靠的是迭代,很难第一次就成功,但有多少星星在开始之时,就被掐灭了。

传统企业冗长的线下流程,的确成为了模型优化的大杀器,互联网公司天生的在线性让其算法发挥出巨大的价值,而传统企业的建模,往往还在为获得反馈数据而努力,组织、系统和运营上的差距很大。

推广是永远的痛。

很多传统企业不同地域上的业务差异,不仅仅造成管理难度加大、体验不一致、系统过于复杂、运营成本高昂,也让模型的建设和推广异常困难。

从模型本身的角度,不同地域的数据差异有时很大,在一个地方成功的模型,在另一个地方则完全失败,过拟合现象比比皆是。

从业务理解的角度,建模团队要面对几个甚至十多个做类似业务的团队,各个团队的业务理解上的差异和对于建模的要求各不相同,造成了建模团队的无所适从。

模型推广,成为了建模团队巨大的负担,复制模型,往往变成了重做模型,搜集结果数据也难上加难,数据挖掘,已经不是一项纯粹的活。

提了以上五点,只是为了说明数据挖掘所以难,是综合多种因素的结果,可能不是靠建立一个平台,懂得一些算法,掌握一个工具就能简单解决的,往往具有更深层次的原因。

我们在努力掌握好“器”的同时,也要抬起头来,更全面的看待数据挖掘这个事情,因地制宜的制定适合自己企业特点的数据挖掘机制和流程。

当然,大数据时代的到来,让平台,工具和算法也变得越加重要,这对数据建模师的知识结构也带来了新的冲击。


本文作者:傅一平

来源:51CTO

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
算法 大数据 数据挖掘
|
大数据 数据挖掘 数据库
|
算法 数据挖掘 数据库
|
数据挖掘
《数据挖掘:实用案例分析》——第3章 数据挖掘建模 3.1 数据挖掘的过程
本节书摘来自华章计算机《数据挖掘:实用案例分析》一书中的第3章,第3.1节,作者 张良均 陈俊德 刘名军 陈荣,更多章节内容可以访问云栖社区“华章计算机”公众号查看。
1548 0
|
数据采集 算法 数据挖掘
《数据挖掘:实用案例分析》——3.2 数据挖掘建模过程
本节书摘来自华章计算机《数据挖掘:实用案例分析》一书中的第3章,第3.2节,作者 张良均 陈俊德 刘名军 陈荣,更多章节内容可以访问云栖社区“华章计算机”公众号查看。
4932 0
|
搜索推荐 物联网 数据挖掘
|
数据挖掘 算法 数据可视化

热门文章

最新文章