全做数据分析必会的5个SQL数据清洗方法_第1页
全做数据分析必会的5个SQL数据清洗方法_第2页
全做数据分析必会的5个SQL数据清洗方法_第3页
全做数据分析必会的5个SQL数据清洗方法_第4页
全做数据分析必会的5个SQL数据清洗方法_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

做数据分析必会的5个SQL数据清洗方法大纲如图:删除指定列、重命名列场景:多数情况并不是底表的所有特征(列)都对分析有用,这个时候就只需要抽取部分列,对于不用的那些列,可以删除。重命名列可以避免有些列的命名过于冗长(比如CaseWhen语句),且有时候会根据不同的业务指标需求来命名。删除列Python版:df.drop(col_names,

axis=1,

inplace=True)删除列SQL版:1、select

col_names

from

Table_Name2、alter

table

tableName

drop

column

columnName重命名列Python版:df.rename(index={'row1':'A'},columns

={'col1':'B'})重命名列SQL版:select

col_names

as

col_name_B

from

Table_Name因为一般情况下是没有删除的权限(可以构建临时表),反向思考,删除的另一个逻辑是选定指定列(Select)。重复值、缺失值处理场景:比如某网站今天来了1000个人访问,但一个人一天中可以访问多次,那数据库中会记录用户访问的多条记录,而这时候如果想要找到今天访问这个网站的1000个人的ID并根据此做用户调研,需要去掉重复值给业务方去回访。缺失值:NULL做运算逻辑时,返回的结果还是NULL,这可能就会出现一些脚本运行正确,但结果不对的BUG,此时需要将NULL值填充为指定值。重复值处理Python版:df.drop_duplicates()重复值处理SQL版:1、select

distinct

col_name

from

Table_Name2、select

col_name

from

Table_Name

group

bycol_name缺失值处理Python版:df.fillna(value

=

0)bine_first(df2)缺失值处理SQL版:1、select

ifnull(col_name,0)

value

from

Table_Name2、select

coalesce(col_name,col_name_A,0)

as

value

from

Table_Name3、select

case

when

col_name

is

null

then

0

else

col_name

end

from

Table_Name替换字符串空格、清洗*%@等垃圾字符、字符串拼接、分隔等字符串处理场景:理解用户行为的重要一项是去假设用户的心理,这会用到用户的反馈意见或一些用研的文本数据,这些文本数据一般会以字符串的形式存储在数据库中,但用户反馈的这些文本一般都会很乱,所以需要从这些脏乱的字符串中提取有用信息,就会需要用到文字符串处理函数。字符串处理Python版:##

1、空格处理df[col_name]

=

df[col_name].str.lstrip()

##

2、*%d等垃圾符处理df[col_name].replace('

&#.*',

'',

regex=True,

inplace=True)##

3、字符串分割df[col_name].str.split('分割符')##

4、字符串拼接df[col_name].str.cat()字符串处理SQL版:##

1、空格处理select

ltrim(col_name)

from

Table_name

##

2、*%d等垃圾符处理select

regexp_replace(col_name,正则表达式)

from

Table_name

##

3、字符串分割select

split(col_name,'分割符')

from

Table_name

##

4、字符串拼接select

concat_ws(col_name,'拼接符')

from

Table_name

合并处理场景:有时候你需要的特征存储在不同的表里,为便于清洗理解和操作,需要按照某些字段对这些表的数据进行合并组合成一张新的表,这样就会用到连接等方法。合并处理Python版:左右合并1、pd.merge(left,

right,

how='inner',

on=None,

left_on=None,

right_on=None,

left_index=False,

right_index=False,

sort=True,

suffixes=('_x',

'_y'),

copy=True,

indicator=False,

validate=None)2、pd.concat([df1,df2])上下合并df1.append(df2,

ignore_index=True,

sort=False)合并处理SQL版:左右合并select

A.*,B.*

from

Table_a

A

join

Table_b

B

on

A.id

=

B.idselect

A.*

from

Table_a

A

left

join

Table_b

B

on

A.id

=

B.id上下合并##Union:对两个结果集进行并集操作,不包括重复行,同时进行默认规则的排序;##UnionAll:对两个结果集进行并集操作,包括重复行,不进行排序;select

A.*

from

Table_a

A

unionelect

B.*

from

Table_b

B

#Union因为会将各查询子集的记录做比较,故比起UnionAll,通常速度都会慢上许多。一般来说,如果使用UnionAll能满足要求的话,务必使用UnionAll。

窗口函数的分组排序场景:假如现在你是某宝的分析师,要分析今年不同店的不同品类销售量情况,需要找到那些销量较好的品类,并在第二年中加大曝光,这个时候你就需要将不同店里不同品类进行分组,并且按销量进行排序,以便查找到每家店销售较好的品类。Demo数据如上,一共a,b,c三家店铺,卖了不同品类商品,销量对应如上,要找到每家店卖的最多的商品。窗口分组Python版:df['Rank']

=

df.groupby(by=['Sale_store'])['Sale_Num'].transform(lambda

x:

x.rank(ascending=False))窗口分组SQL版:select

*

from

(

Select

*,

row_number()

over(partition

by

Sale_store

order

by

Sale_Num

desc)

rk

from

table_name

)

b

where

b.rk

=

1可以很清晰的看到,a店铺卖的最火

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论