深入解析:使用Python实现高效的数据清洗与预处理

前天 4阅读

在数据科学和机器学习领域中,数据清洗与预处理是至关重要的一步。无论是构建预测模型、进行数据分析还是生成可视化报告,高质量的数据都是成功的关键。然而,在实际应用中,原始数据往往包含缺失值、异常值、重复记录等问题,这些问题会严重影响分析结果的准确性。因此,掌握如何高效地清洗和预处理数据是一项必备技能。

本文将通过一个具体案例,详细介绍如何使用Python中的Pandas库来完成数据清洗与预处理任务。我们将涵盖以下内容:

数据加载与初步检查处理缺失值处理重复数据数据类型转换异常值检测与处理特征工程(Feature Engineering)

为了便于理解,我们假设有一个电商销售数据集,其中包含商品ID、价格、销量、用户评分等信息。以下是详细步骤:


1. 数据加载与初步检查

首先,我们需要加载数据并对其进行初步检查。这一步可以帮助我们了解数据的基本结构和潜在问题。

import pandas as pd# 加载数据data = pd.read_csv('sales_data.csv')# 查看数据前几行print(data.head())# 查看数据基本信息print(data.info())# 描述性统计print(data.describe())

输出示例:

   product_id  price  sales  rating0           1    100     20     4.51           2    200     15     4.02           3    150     18     3.83           4    300     10     4.24           5    NaN     25     4.7<class 'pandas.core.frame.DataFrame'>RangeIndex: 1000 entries, 0 to 999Data columns (total 4 columns): #   Column   Non-Null Count  Dtype  ---  ------   --------------  -----   0   product_id  1000 non-null int64  1   price      950 non-null float64 2   sales      1000 non-null int64   3   rating     1000 non-null float64dtypes: float64(2), int64(2)memory usage: 31.5 KB       price       sales     ratingcount  950.000000  1000.000000  1000.000000mean   187.368421   15.642000     4.123000std     62.124454    7.234567     0.345678min     50.000000    5.000000     2.50000025%    150.000000   10.000000     3.90000050%    200.000000   15.000000     4.10000075%    250.000000   20.000000     4.300000max    500.000000   30.000000     5.000000

从上述输出可以看出:

price 列存在缺失值。数据类型基本正确,但可能需要进一步验证。rating 的最小值为2.5,最大值为5.0,符合预期范围。

2. 处理缺失值

缺失值是数据清洗中最常见的问题之一。我们可以选择删除含有缺失值的行或列,或者用某种方法填补这些缺失值。

# 检查缺失值情况print(data.isnull().sum())# 方法1:删除含有缺失值的行data_cleaned = data.dropna()# 方法2:用均值填补缺失值data['price'] = data['price'].fillna(data['price'].mean())# 方法3:用中位数填补缺失值data['price'] = data['price'].fillna(data['price'].median())# 验证是否还有缺失值print(data.isnull().sum())

输出示例:

price      50sales       0rating      0dtype: int64price    0sales    0rating   0dtype: int64

根据业务需求选择合适的方法。如果缺失值比例较高,删除行可能导致数据量大幅减少,因此推荐使用填补方法。


3. 处理重复数据

重复数据可能会导致分析结果失真。我们可以通过以下代码检测并删除重复行。

# 检测重复数据print(data.duplicated().sum())# 删除重复行data = data.drop_duplicates()# 再次检测print(data.duplicated().sum())

输出示例:

100

4. 数据类型转换

确保数据类型正确可以避免后续计算出错。例如,某些数值型数据可能被误识别为字符串。

# 检查数据类型print(data.dtypes)# 转换数据类型data['product_id'] = data['product_id'].astype(str)data['price'] = data['price'].astype(float)# 验证转换结果print(data.dtypes)

输出示例:

product_id    int64price        float64sales         int64rating       float64dtype: objectproduct_id    objectprice        float64sales         int64rating       float64dtype: object

5. 异常值检测与处理

异常值是指明显偏离正常范围的数据点。它们可能是由于数据录入错误或极端情况引起的。

import matplotlib.pyplot as pltimport seaborn as sns# 绘制箱线图检测异常值sns.boxplot(data['price'])plt.show()# 使用IQR方法检测异常值Q1 = data['price'].quantile(0.25)Q3 = data['price'].quantile(0.75)IQR = Q3 - Q1# 定义异常值范围lower_bound = Q1 - 1.5 * IQRupper_bound = Q3 + 1.5 * IQR# 筛选异常值outliers = data[(data['price'] < lower_bound) | (data['price'] > upper_bound)]print(outliers)# 处理异常值(可选择删除或修正)data = data[(data['price'] >= lower_bound) & (data['price'] <= upper_bound)]

6. 特征工程(Feature Engineering)

特征工程是提升模型性能的重要步骤。我们可以通过创建新特征或转换现有特征来增强数据的表达能力。

# 创建新特征:销售额(price * sales)data['revenue'] = data['price'] * data['sales']# 对分类变量进行编码(如适用)data['rating_category'] = pd.cut(data['rating'], bins=[0, 3, 4, 5], labels=['Low', 'Medium', 'High'])# 查看新特征print(data[['revenue', 'rating_category']].head())

输出示例:

   revenue rating_category0    2000.0            High1    3000.0            High3    2700.0            High3    3000.0            High3    1250.0            High

总结

通过以上步骤,我们完成了从数据加载到特征工程的全流程数据清洗与预处理。以下是关键点回顾:

数据加载与初步检查:了解数据的基本结构和潜在问题。处理缺失值:选择删除或填补缺失值的方法。处理重复数据:删除重复行以保证数据一致性。数据类型转换:确保数据类型正确以避免计算错误。异常值检测与处理:使用统计方法识别并处理异常值。特征工程:创建新特征或转换现有特征以提升模型性能。

完整的代码如下:

import pandas as pdimport matplotlib.pyplot as pltimport seaborn as sns# 加载数据data = pd.read_csv('sales_data.csv')# 初步检查print(data.head())print(data.info())print(data.describe())# 处理缺失值data['price'] = data['price'].fillna(data['price'].mean())# 处理重复数据data = data.drop_duplicates()# 数据类型转换data['product_id'] = data['product_id'].astype(str)# 异常值检测与处理Q1 = data['price'].quantile(0.25)Q3 = data['price'].quantile(0.75)IQR = Q3 - Q1lower_bound = Q1 - 1.5 * IQRupper_bound = Q3 + 1.5 * IQRdata = data[(data['price'] >= lower_bound) & (data['price'] <= upper_bound)]# 特征工程data['revenue'] = data['price'] * data['sales']data['rating_category'] = pd.cut(data['rating'], bins=[0, 3, 4, 5], labels=['Low', 'Medium', 'High'])# 输出结果print(data.head())

希望这篇文章能帮助你更好地理解和实践数据清洗与预处理!

免责声明:本文来自网站作者,不代表CIUIC的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:ciuic@ciuic.com

目录[+]

您是本站第3843名访客 今日有19篇新文章

微信号复制成功

打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!