用半监督算法做文本分类
2021-07-17 13:06
标签:blog rap ... plt word top 流程 sim 报错 作者:炼己者 欢迎大家访问 我的简书 以及 我的博客 摘要:本文主要讲述了用半监督算法做文本分类(二分类),主要借鉴了sklearn的一个例子——用半监督算法做数字识别 。先说结论,这是一个失败的例子,训练到第15000条就不行了,就报错了。如果你的数据量不是很大的话,可以操作一下。这里面有很多值得学习的地方,尤其是关于文本的预处理。后续还会更新,把这条路打通。 前面的jieba分词,去停用词的操作我就赘述了,比较容易。在这里就分享一下怎么把gensim训练的TFIDF向量转为sklearn库算法包所要求的格式吧。 说到这里,大家肯定会问,干啥这么麻烦,直接调用sklearn计算TFIDF不就完了。原因很简单,一开始我也是这么干的,然后报了内存错误,当时我猜测是因为向量的维度太大了,因为sklearn计算出来的TFIDF向量每句话的维度达到了30000多维,所以我打算借用gensim来训练TFIDF向量,它有个好处,就是可以指定维度的大小。 那么如何计算TFIDF向量呢? 我最后没有继续往下做了,因为我的数据量很大,只能训练这么点数据没有意义,以上便是我的思路,希望会对大家有所帮助,后续我会更新新的方法来操作这个事情 用半监督算法做文本分类 标签:blog rap ... plt word top 流程 sim 报错 原文地址:https://www.cnblogs.com/lookfor404/p/9531822.html
本博客所有内容以学习、研究和分享为主,如需转载,请联系本人,标明作者和出处,并且是非商业用途,谢谢!
一. 操作流程
二. 正文
大家也可以看这篇文章——用不同的方法计算TFIDF值1. 用gensim训练TFIDF向量,并且保存起来,省的你下次用的时候还要再跑一遍代码
from gensim import corpora
dictionary = corpora.Dictionary(word_list)
new_corpus = [dictionary.doc2bow(text) for text in word_list]
from gensim import models
tfidf = models.TfidfModel(new_corpus)
tfidf.save(‘my_model.tfidf‘)
2.载入模型,训练你的数据,得到TFIDF向量
tfidf = models.TfidfModel.load(‘my_model.tfidf‘)
tfidf_vec = []
for i in range(len(words)):
string = words[i]
string_bow = dictionary.doc2bow(string.split())
string_tfidf = tfidf[string_bow]
tfidf_vec.append(string_tfidf)
此时得到的TFIDF向量是这样的
[[(0, 0.44219328927835233),
(1, 0.5488488134902755),
(2, 0.28062764931589196),
(3, 0.5488488134902755),
(4, 0.3510600763648036)],
[(5, 0.2952063480959091),
(6, 0.3085138762011414),
(7, 0.269806482343891),
(8, 0.21686460370108193),
(9, 0.4621642239026475),
(10, 0.5515758504022944),
(11, 0.4242816486479956)],
......]
3.利用lsi模型指定维度
lsi_model = models.LsiModel(corpus = tfidf_vec,id2word = dictionary,num_topics=2)
lsi_vec = []
for i in range(len(words)):
string = words[i]
string_bow = dictionary.doc2bow(string.split())
string_lsi = lsi_model[string_bow]
lsi_vec.append(string_lsi)
此时的TFIDF向量是这样的
[[(0, 9.98164139346566e-06), (1, 0.00017488533996265734)],
[(0, 0.004624808817003378), (1, 0.0052712355563472625)],
[(0, 0.005992863818284904), (1, 0.0028891269605347066)],
[(0, 0.008813713819377964), (1, 0.004300294830187425)],
[(0, 0.0010709978891676652), (1, 0.004264312831567625)],
[(0, 0.005647948200006063), (1, 0.005816420698368305)],
[(0, 1.1749284917071102e-05), (1, 0.0003525210498926822)],
[(0, 0.05046596444596279), (1, 0.03750969796637345)],
[(0, 0.0007876011346475033), (1, 0.008538972615602887)],
......]
4.通过scipy模块将数据处理为sklearn可训练的格式
from scipy.sparse import csr_matrix
data = []
rows = []
cols = []
line_count = 0
for line in lsi_vec:
for elem in line:
rows.append(line_count)
cols.append(elem[0])
data.append(elem[1])
line_count += 1
lsi_sparse_matrix = csr_matrix((data,(rows,cols))) # 稀疏向量
lsi_matrix = lsi_sparse_matrix.toarray() # 密集向量
lsi_matrix如下所示
Out[53]:
array([[9.98164139e-06, 1.74885340e-04],
[4.62480882e-03, 5.27123556e-03],
[5.99286382e-03, 2.88912696e-03],
...,
[1.85861559e-02, 3.24888917e-01],
[8.07737902e-04, 5.45659458e-03],
[2.61926460e-03, 2.30210522e-02]])
5.调用sklearn的半监督算法对数据进行训练
import numpy as np
import matplotlib.pyplot as plt
from scipy import stats
from sklearn.semi_supervised import label_propagation
y = list(result.label.values)
from scipy.sparse.csgraph import *
n_total_samples = len(y) # 1571794
n_labeled_points = 7804 # 标注好的数据共10条,只训练10个带标签的数据模型
unlabeled_indices = np.arange(n_total_samples)[n_labeled_points:] # 未标注的数据
lp_model = label_propagation.LabelSpreading() # 训练模型
lp_model.fit(lsi_matrix,y)
predicted_labels = lp_model.transduction_[unlabeled_indices] # 预测的标签
# 计算被转换的标签的分布的熵
# lp_model.label_distributions_ : array,shape=[n_samples,n_classes]
# Categorical distribution for each item
pred_entropies = stats.distributions.entropy(
lp_model.label_distributions_.T)
# 选择分类器最不确定的前2000位数字的索引
uncertainty_index = np.argsort(pred_entropies)[::1]
uncertainty_index = uncertainty_index[
np.in1d(uncertainty_index,unlabeled_indices)][:2000]
print(uncertainty_index)
三. 结果与讨论