前面我们用很多文章介绍了使用GooSeeker分词工具直接生成词云图,今天我们尝试把生成词云图的方法增加一种:使用AI工具Kimi生成python代码,执行后生成词云图。 1. 方法一回顾:使用GooSeeker分词工具直接生成词云图 文章《Gephi社会网络分析-马蜂窝游记文本分词并同义词合并》介绍了怎样创建分词任务后生成词云图,如果再做同义词合并那么可以让分析结果更加聚焦精准,还可以生成共词矩阵图,以及做情感分析等等。
这种方法的优点是不需要写代码,“文科生”也可以直接操作。访问网页版集搜客分词工具,创建任务,针对自动分词的结果,人工选择对于研究有意义的词,也可以简单化处理,直接选择整页词。 如果想对生成的词云图和词语共现网络图有更自由的控制,以便更易观察和解读,那么可以把从分词工具导出的结果表作为Gephi的输入,在Gephi中进一步做过滤和网络图外观美化,具体可以参考之前发布的文章《Gephi社会网络分析-基于马蜂窝游记文本以词语间距为筛选条件的共词矩阵》。
如果还想进一步对计算过程予以控制,那么就要自己写python代码。现在有了AI生成代码功能,不妨尝试一下,让AI给我们写一段分析文本内容的代码。 2. 方法二实验:使用AI工具kimi生成python代码执行后生成词云图 此种方法通过和AI工具kimi对话,把想要生成具有什么功能的python代码告诉ai工具,ai工具会直接生成python代码。要有效地指挥AI,得擅于提问题,经过我们的实验,这样提问可以达到目的,提的要求和问题如下: 2.1 question 你是一个Python编程专家,完成如下Python脚本的编写: 读取"D:\\ai\\kimi\\马蜂窝游记-202401.xlsx"这个excel文件; 然后用jieba分词对excel文件的第2列"正文"内容进行分词; 用wordcloud生成词云,背景颜色设为白色; 词云图片保存到路径"D:\\ai\\kimi\\"; 注意:每一步都要输出相关信息到屏幕上 指定使用Windows系统中的仿宋字体 ,字体路径为:'C:\\Windows\\Fonts\\simfang.ttf'
2.2 ai工具kimi生成的代码 如下: import pandas as pd import jieba from wordcloud import WordCloud import matplotlib.pyplot as plt import os
# 读取Excel文件 file_path = "D:\\ai\\kimi\\马蜂窝游记-202401.xlsx" try: df = pd.read_excel(file_path) print(f"Excel文件 {file_path} 读取成功。") except Exception as e: print(f"读取Excel文件时发生错误: {e}") exit()
# 对第2列'正文'内容进行分词 if '正文' in df.columns: print("开始进行分词...") df['分词结果'] = df['正文'].apply(lambda x: ' '.join(jieba.cut(x))) print("分词完成。") else: print("Excel文件中没有找到'正文'列。") exit()
# 生成词云 print("生成词云...") # 将所有分词结果合并为一个字符串 text = ' '.join(df['分词结果'].str.strip())
# 设置字体路径 font_path = 'C:\\Windows\\Fonts\\simfang.ttf' wordcloud = WordCloud( font_path=font_path, background_color='white' ).generate(text)
# 显示词云 plt.imshow(wordcloud, interpolation='bilinear') plt.axis('off') plt.show()
# 保存词云图片 save_path = "D:\\ai\\kimi\\wordcloud.png" wordcloud.to_file(save_path) print(f"词云图片已保存到 {save_path}")
2.2 执行后生成的词云图
如果需要做进一步调整,比如做同义词合并,让图更美观,就需要在ai生成的代码基础上做进一步的修改和执行。 3. 总结 今天我们介绍了生成词云图的两种方法。方法一,我们直接使用GooSeeker分词工具生成词云图,不需要编程,小白也可以使用。方法二,我们尝试通过提问,让AI帮我们生成一段python代码,通过执行这段代码生成词云图,懂代码的朋友可以通过修改代码来做进一步调整。 我们会继续探索在进行阅读、数据采集、数据挖掘、数据分析时怎样使用AI来提升我们的效率。 |