[数据分析]基于人物登场率生成《倚天》词云图
前言
词云图在文本分析上有着显著的效果,前段时间看完了《倚天屠龙记》,这里使用Python通过jieba库进行小说全文分词,在通过wordcloud库基于小说中人物的登场效率(确切的说是人物名字的出现频率)生成词云图,登场率高的字体更大。先看看看效果,如下图:
环境搭建
1.按照国际惯例Python库先装一波
1 |
|
woroldcloud默认是不支持中文的,需要下载一个中文字体,或者指定系统的中文字体路径
2.小说txt文本
点击即可下载
3.创建自定义关键词
自定义字典文件 “namedict.txt”。在这个字典文件中,记录了几个小说人物名,并标注词性为”nr“,代表名字,举个例子,作用就是告诉程序周芷若是一个人的名字,jieba分词虽然功能强大,但是对于不常见的,特定的小说人物名称的断句和分词表现就不是那么亮眼了。格式如下:
jieba和wordcloud功能简介
1. 中文分词组件jieba
功能1. 分词
jieba.cut方法接受两个输入参数: 1) 第一个参数为需要分词的字符串 2)cut_all参数用来控制是否采用全模式
jieba.cut_for_search方法接受一个参数:需要分词的字符串,该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
import jieba
txt = "我是西南林业大学一名大三的学生"
seg_list = jieba.cut(txt,cut_all=True)
print("[全模式]:", "/".join(seg_list))
seg_list = jieba.cut(txt,cut_all= False)
print("[精确模式]:","/".join(seg_list))
seg_list = jieba.lcut_for_search(txt)
print("[搜索引擎模式]:",'/'.join(seg_list))
>>>
[全模式]: 我/是/西南/林业/林业大学/业大/大学/一名/大三/的/学生
[精确模式]: 我/是/西南/林业大学/一名/大三/的/学生
[搜索引擎模式]: 我/是/西南/林业/业大/大学/林业大学/一名/大三/的/学生
可以看到就文本分析而言,精确模式分词效果是比较好的,当不指定cut_all参数时,默认为False,即默认为精确模式
功能2.添加自定义词典
开发者可以指定自己自定义的词典,以便包含jieba词库里没有的词。虽然jieba有新词识别能力,但是自行添加新词可以保证更高的正确率
用法: jieba.load_userdict(file_name) # file_name为自定义词典的路径
词典格式和dict.txt一样,一个词占一行;每一行分三部分,一部分为词语,另一部分为词频,最后为词性(可省略),用空格隔开。
西南林业大学是一所大学的名称,不希望产生分词错误,通过创建dict.txt 里面输入“西南林业大学”
1 |
|
功能3. 关键词提取
- jieba.analyse.extract_tags(sentence,topK) #需要先import jieba.analyse
- setence为待提取的文本
- topK为返回几个TF/IDF权重最大的关键词,默认值为20
以小说分词和得到的文本信息,如下图,提取出现频率最大的三个名字
1 |
|
3.其他
分析词性功能,可以标注句子分词后每个词的词性,后续通过词性进行关键词提取;
并行分词
原理:将目标文本按行分隔后,把各行文本分配到多个python进程并行分词,然后归并结果,从而获得分词速度的可观提升,windows系统下还不支持
补充
Python join() 方法用于将序列中的元素以指定的字符连接生成一个新的字符串。
1 |
|
2.词云生成库wordcloud
这个库的使用就更简单了,只需要设置背景图片,字体,等参数,具体参数的设置可以参考文档,设置collocations=False参数是为了使词云图避免出现重复的关键词。
3.matplotlib库
python的一个画图库,这里用到只是为了显示生产的词云图,不用也行,可以将生产的词云图先保存下来,再在文件夹中找到打开进行显示
代码结构
词云中的词汇只有角色的名字,没有其他无关词汇,这样才能更好地反映出角色的权重。
整个程序的实现思路:
分词 (函数)
小说文本整体分词(jieba)
构建自定义人名词典
筛选关键词(人名)
生成词云,绘制图片
完整代码
1 |
|
分析结果
生成的词云
因为分析的结果是图片,直观,简单,一目了然,这里就不再赘述了,同时也暴露出了小问题这里把武功 , 少林 等关键词也当成了人名进行操作,wordcloud有停用词方法,可以对不想显示的关键词语进行屏蔽;同时程序也有需要改进的地方,整个程序大概要运行2分钟才能结束,一部分原因是这部小说有一百万字,数据量还是比较大的,程序中频繁的IO操作也是有影响速度的主要因素,是考虑到将中间结果保存下来,可供调试,就懒得。先这样后续会改进更新。