本论文的所有代码均已在Python3.6.3上运行通过
| 文件名 | 说明 |
|---|---|
| tm | 在淘宝天猫上获取的全部原始数据 |
| jd | 在京东商城上获取的全部原始数据 |
| sn | 在苏宁易购上获取的全部原始数据 |
| hw | 在华为商城上获取的全部原始数据 |
| LDA | 保存的LDA模型、corpus和dictionary |
| pictures | 论文当中所有的图片,包括代码生成的图片、自己画的流程图、以及截图 |
| sentiment | 情感词典(包括程度副词词典、否定词词典、正负面情感词词典),以及两个生成的snownlp模型 |
| big_neg.txt | 将小于-10分的评价数据和snownlp原始的负面评价语料结合后的总的负面评价数据 |
| big_pos.txt | 将等于20分的评价数据和snownlp原始的正面评价语料结合后的总的正面评价数据 |
| dict.txt | 将新词发现的词语和jieba原始的词典结合后的总的词典 |
| neg.txt | snownlp原始的负面评价语料 |
| pos.txt | snownlp原始的正面评价语料 |
| select_neg.txt | 将人工筛选的100条负面评价和snownlp原始的负面评价语料结合后的总的负面评价数据 |
| select_pos.txt | 将人工筛选的100条正面评价和snownlp原始的正面评价语料结合后的总的正面评价数据 |
| sentences.txt | 分别将每个人的评论正文和追评正文相加而生成的总的评价数据 |
| stoplist.txt | jieba中原始的停用词 |
| 全部数据.csv | 将淘宝天猫、京东商城、苏宁易购和华为商城的全部数据合并后生成的csv文件 |
| 清洗后的数据.csv | 将全部数据经过数据预处理后生成的csv文件 |
| requirements.txt | 当时所使用的Python第三方库及其对应的版本号 |
若引用本论文或使用本论文相关的数据及代码,请注明论文题目、网址等