共计 1414 个字符,预计需要花费 4 分钟才能阅读完成。
全文链接:http://tecdat.cn/?p=31048
原文出处:拓端数据部落公众号
2009 年 8 月, 新浪微博 (micro-blog) 开始服务, 随后各家微博服务在国内失去广泛传播和利用 ”。微博具备文本信息短(140 字包含标点符号)、词量少、裂变式流传、传播速度快、用词不标准等特色, 使原文本可视化钻研技术框架中的聚类或分类办法提取热点话题变得艰难。
R 语言次要用于统计分析与数据可视化, 大量新兴钻研畛域算法不断更新, 在人工智能畛域有宽泛的利用,R 语言亦可用绝对简略地实现微博可视化工作。
咱们最近有一个很棒的机会与一位平凡的客户单干,要求构建一个耐克微博聚类算法。本文利用 R 语言实现对微博相应剖析。
所要剖析的数据对象为耐克 nike 微博热搜话题数据,数据款式如下图所示:
查看数据
文本预处理
res=pinglun1[pinglun1!=" "];
剔除通用题目
res=gsub(pattern="NIKEiD"," ",res);
res=gsub(pattern="http://t.cn/"," ",res);
res=gsub(pattern="com"," ",res);
res=gsub(pattern="耐克"," ",res);
res=gsub(pattern="官网"," ",res);
res=gsub(pattern="中国"," ",res);
分词 + 频数统计
keyword=lapply(X=res, FUN=segmentCN)
words=unlist(keyword);
绘制词汇图
library("wordcloud")
mycolors <- brewer.pal(8,"Dark2")# 设置一个色彩系:wordcloud(d$word,d$freq
d2=data.frame(word=class2$word, freq=class2$freq);
# 过滤掉 1 个字和词频小于 100 的记录
K 均值聚类 K -means
for(i in 1:nrow(cldata)){for(j in unique(d$word) ){if(j %in% unlist(keyword[i]))cldata[i,which(colnames(cldata) == j)]=1
}
}
cl=kmeans(cldata,3)
聚类数据可视化
#cluster 1
y1=cldata[cldata$cluster==1,]
#cluster 2
y2=cldata[cldata$cluster==2,]
#cluster 3
y3=cldata[cldata$cluster==3,]
1 类词频云图
words=unlist(keyword[cl$cluster==1]);
2 类词频云图
words=unlist(keyword[cl$cluster==2]);
3 类词频云图
最受欢迎的见解
1.Python 主题建模 LDA 模型、t-SNE 降维聚类、词云可视化文本开掘新闻组
2.R 语言文本开掘、情感剖析和可视化哈利波特小说文本数据
3.r 语言文本开掘 tf-idf 主题建模,情感剖析 n -gram 建模钻研
4. 游记数据感知游览目的地形象
5. 疫情下的新闻数据察看
6.python 主题 lda 建模和 t -sne 可视化
7.r 语言中对文本数据进行主题模型 topic-modeling 剖析
8. 主题模型:数据凝听人民网留言板的那些“网事”
9.python 爬虫进行 web 抓取 lda 主题语义数据分析
正文完