Python实现数据分析中文本分类的详细教程【教程】

文本分类关键在于数据质量、中文分词、特征向量化与合理评估;需用jieba分词+停用词过滤,Tfidf或BERT向量化,LogisticRegression建模,并关注F1值与混淆矩阵。

文本分类是数据分析中很常见的任务,比如判断一条评论是正面还是负面、识别邮件是否为垃圾邮件、给新闻打上“体育”“财经”“娱乐”等标签。用 Python 做这件事并不难,关键是理清流程、选对工具、避开常见坑。

准备数据:格式要干净,标注要明确

文本分类效果好不好,七成取决于数据质量。你需要一个带标签的文本集合,例如 CSV 文件,至少包含两列:text(原始文本)和 label(类别名或数字编号)。中文文本特别要注意编码统一(推荐 UTF-8),并提前清理明显噪声——比如大段空格、乱码符号、重复标点、广告水印等。

小建议:

  • pandas.read_csv(..., encoding='utf-8') 读取,避免中文乱码
  • df.dropna(subset=['text', 'label']) 删掉缺失文本或标签的行
  • 检查标签分布:df['label'].value_counts(),如果某类样本太少(比如不到总数 5%),后续可能需要过采样或合并类别

文本预处理:中文不能直接套英文那一套

英文常用空格切词,但中文没有天然分隔符,必须分词。别直接用 str.split(),那会把“人工智能”切成“人”“工”“智”“能”,完全破坏语义。

推荐用 jieba 分词,并搭配停用词过滤:

  • 安装:pip install jieba
  • 基础分词:import jieba; words = list(jieba.cut(text))
  • 加载停用词表(可从 GitHub 找开源中文停用词表,如哈工大或百度停用词),过滤掉“的”“了”“在”“是”这类高频无意义词
  • 可选增强:统一繁体转简体(用 opencc)、去除数字/英文(视任务而定)、保留长度 ≥2 的词(去掉单字干扰)

特征向量化:从文字变数字,选对方法很关键

机器学习模型只认数字,得把分词后的文本转成向量。中文场景下,两个主流选择:

  • TfidfVectorizer:适合中小规模数据(几千到几万条),兼顾词频与文档稀有度。用法简单,配合 jieba 自定义分词器即可
  • 预训练词向量 + 平均池化:比如用 hanlpsentence-transformers 加载中文 BERT 模型(如 uer/roberta-base-finetuned-jd-binary-chinese),把每条文本转成 768 维向量。适合更复杂语义任务,但更吃内存

注意:不要用 CountVectorizer 简单统计词频,它没考虑词的重要性,在中文里容易被虚词主导。

建模与评估:别只看准确率

模型不是越复杂越好。初学者建议从 sklearnLogisticRegressionRandomForestClassifier 入手,训练快、解释性强、不容易过拟合。

评估时一定要分训练集和测试集(用 train_test_split),并且关注:

  • 混淆矩阵(confusion_matrix):看清哪类容易被误判
  • 各类别的精确率、召回率、F1 值(classification_report):尤其当类别不均衡时,准确率会严重失真
  • 交叉验证(cross_val_score):确认模型稳定性,避免偶然结果

如果效果不理想,优先检查数据和预处理,而不是立刻换深度学习模型。

基本上就这些。跑通一遍后,你会清楚每个环节的作用和可调参数。文本分类不复杂,但容易忽略细节——比如中文分词不准、停用词没过滤、测试集混入训练逻辑。动手试一次,比看十篇理论都管用。