一、介绍
在进行数据分析之前,自己拿到的数据大部分情况下都是不能够直接用的,会存在很多数据质量的问题,这个时候就需要我们先过滤一遍。
数据清洗是整个数据分析链路中非常重要的一个环节,能够提供更高的质量的数据,同时供应挖掘材料。
二、解决质量问题
解决各种数据质量问题的目的,包括但不限于:
数据的完整性 —— 例如,人的属性中缺少性别、籍贯、年龄等
数据的唯一性 —— 例如,不同来源的数据重复出现的情况
数据的权威性 —— 例如,同一个指标出现多个来源的数据,且数值不一样
数据的合法性 —— 例如,获取的数据与常识不符,年龄大于150岁。
数据的一致性 —— 例如,不同来源的不同指标,实际内涵是一样的,或是同一指标内涵不一致。
数据清洗的结果是对各种脏数据进行对应方式的处理,得到标准的、干净的、连续的数据,提供给数据统计、数据挖掘等使用。
三、解决办法
首先判断能不能从源头上直接补上,这部分的数据缺失太多,是否研发那边某个埋点的功能异常,导致一些数据无法上报,这个时候需要找研发对接。
如果是正常的数据丢失率例如1%-2%左右,那么可以具体通过一下一些方式不上数据:
通过其他信息补全,例如使用身份证件号推算性别、籍贯、出生日期、年龄等
通过前后数据补齐,例如时间序列数据确实了,可以使用前后的均值,缺的多了,可以使用平滑等处理。均值、中位数,或者自动向上或者向下补齐都是比较常用的方法。
实在补不全的,虽然很可惜,但也必须要剔除。但是不要删掉,没准以后用的上。
sql处理方式
#查看comm字段缺失数量
select sum(comm is null) from emp;
# 平均值填充
select ifnull(comm,(select avg(comm) from emp)) from emp;
# 也可以使用coalesce()函数,该函数将多个表达式或列作为参数,并返回第一个非空的值
select coalesce(comm,0) from emp; # 将null值填充为0
去重的方法有:
按主键去重,用sql 『去除重复记录』即可。
按规则去重,编写一系列规则,对重复情况复杂的数据进行去重。例如不同渠道来的客户数据,可以通过相同的关键信息进行匹配,合并去重。
sql处理方式
# 去重单个字段
select distinct comm from emp;
# 使用group by + 聚合函数例如max,min,any_value
# 去重多个字段,设定一个student表,其中,同一个学生可能有两个age值
select name,any_value(age) from student group by name
select name,max(age) from student group by name
any_value()会选择被分到同一组的数据里第一条数据的指定列值作为返回数据
方法:对不同渠道设定权威级别
设定强制合法规则,凡是不在此规则范围内的,强制设为最大值,或者判为无效,剔除
字段类型合法规则:日期字段格式为『2010-10-10』
字段内容合法规则:性别 in (男、女、未知);出生日期<=今天
设定告警规则,凡是不再此规则范围内的,进行告警,然后人工处理
告警规则:年龄 > 110
离群值人工特殊处理,使用分箱、聚类、回归、等方法发现离群值
sql处理方式
# 使用where条件进行限制
select name,sex,age from student
where sex in ("男","女","未知")
and age between 0 and 110
tips:如果数据质量问题比较严重,建议跟技术团队好好聊聊。
理解高效学习编程的基础 明确学习目标与方向 确定你的兴趣领域 在开始编程之旅之前,首先要对自己感兴趣的领域有所了解。这可能涉及到前端开发、后端服务、移动应用或是游
...理解Python程序启动执行的方式 启动Python程序的基本概念 什么是Python环境 Python环境指的是安装了Python解释器及相关库文件的计算机系统,它为运行Python代码提供了必要
...Python语言分类概述 Python的发展历史 起源与早期版本 Python由Guido van Rossum于1989年圣诞节期间开始构思,并在1991年首次发布。最初的设计目的是为了提高ABC语言的可读
...
发表评论
评论列表
暂时没有评论,有什么想聊的?