京公网安备 11010802034615号
经营许可证编号:京B2-20210330
CDA数据分析师 出品
作者:Mika
数据:真达
【导读】今天教大家用Python分析《沉默的真相》的17万条弹幕。距离上一部国产良心剧《隐秘的角落》刷屏还不到2个月,“秃头梗”、“爬山梗”还让人记忆犹新。紧接着又一部爆款国产剧来了,那就是最近口碑炸裂的《沉默的真相》。
同样是来自爱奇艺针对悬疑短剧的“迷雾剧场”,《沉默的真相》根据紫金陈的小说《长夜难明》改编,讲述了检察官江阳历经多年,付出无数代价查清案件真相的故事。
开播当天《沉默的真相》在豆瓣开分8.8分,随着剧集的播出,该剧口碑势不可挡,一路走高,播出六集后,豆瓣评分冲到了9.2分,成功超越了它的前浪《隐秘的角落》。要知道,这种高开高走的趋势,在国产剧里是非常罕见的。
许多网友在最初刷剧时根本不信自己会哭,结果看到大结局才发现,这也太好哭了吧,看到主角江阳的舍命燃灯,真的让人哭出兰州拉面…
那么这部《沉默的真相》到底为什么口碑能高开暴走?凭什么成为年度压轴国剧? 今天我们就用Python来带你解读。
01、豆瓣 9.2分!超越前浪《隐秘的角落》
上一部被称为年度爆款国剧的还是《隐秘的角落》,改编自紫金陈的推理小说--《坏小孩》,《隐秘的角落》一经播出就带着"小白船","爬山梗","秃头梗"热闹了一整个夏天。
在豆瓣已有78万余人进行评分,最终收官8.9分,是非常惊艳的成绩。
谁知仅过去2个月,又一部悬疑剧《沉默的角落》凭借着逆天的口碑火了!同样改编自作者紫金陈的小说《长夜难明》,一开播豆瓣就达到8.8分。随着播出分数越来越高,如今已有20万余人评分,高达9.2分,已经超过了前浪《隐秘的角落》。
豆瓣总体评分分析
近一步分析观众评分,我们发现:
92.8%的观众给出了五星满分,这口碑在国产剧中已经达到标杆的水准。
豆瓣短评词云
然后我们再看到豆瓣的短评词云。
我们可以看到,观众在短评中讨论最多的就是主角"江阳",他的坚定和执着真可谓可歌可泣。"演员的演技","剧情",对"原著"的还原度,都得到了广泛的认可与好评。
02、刷剧《沉默的真相》,17万条弹幕都在说些什么
那么刷剧时,大家都在说些什么呢?接下来我们用Python分析了《沉默的真相》前10集的视频弹幕,共计173226条。
前十集弹幕走势图
从图中可以看到,看剧时大家都特别爱发弹幕,前十集中:弹幕数量最多分别是第9集,第3集和第10集,最多一集弹幕数为18903条,弹幕最少的是第六集,弹幕数为15561条。
接着我们再看看剧中主要角色的弹幕词云:
江阳弹幕词云
由白宇饰演的江阳,原本年轻有为,但是为了探求真相坚持正义,付出了自己的生命。像"正义"、"厉害"、"演技"等都在词云中频频出现。
李静弹幕词云
关于谭卓饰演的李静,在刷剧时很多人都会联想到她在《延禧攻略》中高贵妃的角色。无论是从“高贵妃”到《我不是药神》中的刘思慧,还是这次的李静,谭卓的演技都让人有目共睹。
严良弹幕词云
从最初官宣影帝廖凡,就有不少观众表示冲着廖凡也得看《沉默的真相》,果不其然,剧集一播出,粉丝就夸他是“免检产品”,妥妥的~
张超弹幕词云
饰演张超的宁理老师是迷雾剧场的老朋友了,之前在《无罪之证》中他演的社会"丰田哥"人狠话不多,"反向抽烟"实在是太深入人心了。从《无证之罪》到《隐秘的角落》,再到《沉默的真相》,严良都换了三个人了,真是流水的严良,铁打的李丰田。
03、手把手教你,如何用Python分析弹幕
我们使用Python获取并分析爱奇艺《沉默的真相》前十集的弹幕数据,整个数据分析的流程分为以下三个部分:
1. 数据获取
关于爱奇艺的弹幕数据获取程序之前文章中已经做过阐述。
2. 数据读入和预处理
首先导入所需包,其中pandas用于数据读入和数据处理,os用于文件操作,jieba用于中文分词,pyecharts和stylecolud用于数据可视化。
# 导入库 import os import jieba import pandas as pd from pyecharts.charts import Bar, Pie, Line, WordCloud, Page from pyecharts import options as opts from pyecharts.globals import SymbolType, WarningType WarningType.ShowWarning = False import stylecloud from IPython.display import Image
将爬取的数据存放在data文件夹下,使用os操作获取需要读取的csv文件列表并循环读入文件。
# 读入数据
data_list = os.listdir('../data/')
df_all = pd.DataFrame()
for i in data_list:
if i.endswith('csv'):
df_one = pd.read_csv(f'../data/{i}', engine='python', encoding='utf-8', index_col=0)
df_all = df_all.append(df_one, ignore_index=False)
print(df_all.shape)
(173226, 6)
弹幕数量一共有173226条,预览一下数据:
df_all['name'] = df_all.name.str.strip() df_all.head()
3. 数据可视化
——分集的弹幕数
代码解说:
repl_list = {
'第一集 ': 1,
'第二集': 2,
'第三集': 3,
'第四集': 4,
'第五集': 5,
'第六集': 6,
'第七集': 7,
'第八集': 8,
'第九集': 9,
'第十集': 10
}
df_all['episodes_num'] = df_all['episodes'].map(repl_list)
df_all.head()
# 产生数据 danmu_num = df_all.episodes_num.value_counts() danmu_num = danmu_num.sort_index() x_data = ['第' + str(i) + '集' for i in danmu_num.index] y_data = danmu_num.values.tolist() # 条形图 bar1 = Bar(init_opts=opts.InitOpts(width='1350px', height='750px')) bar1.add_xaxis(xaxis_data=x_data) bar1.add_yaxis('', y_axis=y_data) bar1.set_global_opts(title_opts=opts.TitleOpts(title='前十集的弹幕数走势图'), visualmap_opts=opts.VisualMapOpts(max_=20000, is_show=False) ) bar1.render()
x_data = ['第' + str(i) + '集' for i in danmu_num.index] y_data = danmu_num.values.tolist() # 条形图 bar1 = Bar(init_opts=opts.InitOpts(width='1350px', height='750px')) bar1.add_xaxis(xaxis_data=x_data) bar1.add_yaxis('', y_axis=y_data) bar1.set_global_opts(title_opts=opts.TitleOpts(title='前十集的弹幕数走势图'), visualmap_opts=opts.VisualMapOpts(max_=20000, is_show=False) ) bar1.render('../html/爱奇艺弹幕数走势图.html')
弹幕角色-江阳 词云图
# 定义分词函数 def get_cut_words(content_series): # 读入停用词表 stop_words = [] with open(r"stop_words.txt", 'r', encoding='utf-8') as f: lines = f.readlines() for line in lines: stop_words.append(line.strip()) # 添加关键词 my_words = ['廖凡', '严良', '白宇', '江阳', '谭卓', '李静', '宁理', '张超', '黄尧', '张晓倩', '奥利给' ] for i in my_words: jieba.add_word(i) # 自定义停用词 my_stop_words = ['真的', '这部', '这是', '一种', '那种', '啊啊啊', '哈哈哈', '哈哈哈哈', '我要'] stop_words.extend(my_stop_words) # 分词 word_num = jieba.lcut(content_series.str.cat(sep='。'), cut_all=False) # 条件筛选 word_num_selected = [i for i in word_num if i not in stop_words and len(i)>=2] return word_num_selected
# 获取分词结果 text1 = get_cut_words(content_series=df_all[df_all.name=='江阳']['content']) # 绘制词云图 stylecloud.gen_stylecloud(text=' '.join(text1), max_words=1000, collocations=False, font_path=r'C:\Windows\Fonts\msyh.ttc', icon_name='fas fa-heart', size=653, output_name='弹幕角色-江阳词云图.png')
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在企业数字化转型过程中,业务模型与数据模型是两大核心支撑体系:业务模型承载“业务应该如何运转”的逻辑,数据模型解决“数据 ...
2026-01-12当前手游市场进入存量竞争时代,“拉新难、留存更难”成为行业普遍痛点。对于手游产品而言,用户留存率不仅直接决定产品的生命周 ...
2026-01-12在CDA(Certified Data Analyst)数据分析师的日常工作中,“挖掘变量间的关联关系”是高频核心需求——比如判断“用户停留时长 ...
2026-01-12在存量竞争时代,用户流失率直接影响企业的营收与市场竞争力。无论是电商、互联网服务还是金融行业,提前精准预测潜在流失用户, ...
2026-01-09在量化投资领域,多因子选股是主流的选股策略之一——其核心逻辑是通过挖掘影响股票未来收益的各类因子(如估值、成长、盈利、流 ...
2026-01-09在CDA(Certified Data Analyst)数据分析师的工作场景中,分类型变量的关联分析是高频需求——例如“用户性别与商品偏好是否相 ...
2026-01-09数据库中的历史数据,是企业运营过程中沉淀的核心资产——包含用户行为轨迹、业务交易记录、产品迭代日志、市场活动效果等多维度 ...
2026-01-08在电商行业竞争日趋激烈的当下,数据已成为驱动业务增长的核心引擎。电商公司的数据分析师,不仅是数据的“解读官”,更是业务的 ...
2026-01-08在数据驱动决策的链路中,统计制图是CDA(Certified Data Analyst)数据分析师将抽象数据转化为直观洞察的关键载体。不同于普通 ...
2026-01-08在主成分分析(PCA)的学习与实践中,“主成分载荷矩阵”和“成分矩阵”是两个高频出现但极易混淆的核心概念。两者均是主成分分 ...
2026-01-07在教学管理、学生成绩分析场景中,成绩分布图是直观呈现成绩分布规律的核心工具——通过图表能快速看出成绩集中区间、高分/低分 ...
2026-01-07在数据分析师的工作闭环中,数据探索与统计分析是连接原始数据与业务洞察的关键环节。CDA(Certified Data Analyst)作为具备专 ...
2026-01-07在数据处理与可视化场景中,将Python分析后的结果导出为Excel文件是高频需求。而通过设置单元格颜色,能让Excel中的数据更具层次 ...
2026-01-06在企业运营、业务监控、数据分析等场景中,指标波动是常态——无论是日营收的突然下滑、用户活跃度的骤升,还是产品故障率的异常 ...
2026-01-06在数据驱动的建模与分析场景中,“数据决定上限,特征决定下限”已成为行业共识。原始数据经过采集、清洗后,往往难以直接支撑模 ...
2026-01-06在Python文件操作场景中,批量处理文件、遍历目录树是高频需求——无论是统计某文件夹下的文件数量、筛选特定类型文件,还是批量 ...
2026-01-05在神经网络模型训练过程中,开发者最担心的问题之一,莫过于“训练误差突然增大”——前几轮还平稳下降的损失值(Loss),突然在 ...
2026-01-05在数据驱动的业务场景中,“垃圾数据进,垃圾结果出”是永恒的警示。企业收集的数据往往存在缺失、异常、重复、格式混乱等问题, ...
2026-01-05在数字化时代,用户行为数据已成为企业的核心资产之一。从用户打开APP的首次点击,到浏览页面的停留时长,再到最终的购买决策、 ...
2026-01-04在数据分析领域,数据稳定性是衡量数据质量的核心维度之一,直接决定了分析结果的可靠性与决策价值。稳定的数据能反映事物的固有 ...
2026-01-04