
作者:李晓飞
来源:Python 技术
今天我来分享一个迁移过程的幕后小故事,有料,有趣,来听听吧。
迁移公众号,是一个腾讯提供的业务,就是将原公号主体切换到另一个公号上,然后收回原公号。
其中大部分是腾讯来完成的,但还有些工作,需要自己处理,比如迁移公号的 关键字消息回复。
虽然事情不大,但很重要,做不好,读者就会找不见源码,影响大家学习效率。
但单操作起来还是比较费劲的,因为需要同时登录两个公众号,打开两个页面,来回切换着操作,很不方便,而且容易搞错。
怎么办,求神拜佛肯定是没有用的,不过有位大神还真得去拜拜 —— Python!
既然网页上能看到,那么就一定能用爬虫获取到。
咱们故伎重演,浏览器中按下 F12,进入魔法世界。
你知道百度的校招启事就藏在这里吗?
别说是我告诉你的
第一步,先清空请求记录,刷新页面,然后从第一条请求记录开始分析。
实际上就是看看请求的返回值,是否包含了,页面上列表中的数据。
幸运的是第一条就是,不过呢,数据不是直接给的,而是返回了一个大 js 脚本,当页面加载后,运算出的。
分析请求
需要勾上 Perserve Log 否则有用页面切换可能看不见请求记录
这个不是困难,将js复制出来,提取其中关键字回复的信息整理一下就可以了。
问题是,每页只显示十条,有二十多页,复杂的成本有点高呀。
得想想办法,观察了一下网址,其中有两个参数,一个是 count,另一个是 offset,很熟悉呀,不和分页参数是一回事儿吗?
分析请求
改一下试试,将 count 改为 1000,offset 改为 0,意思是从第一行开始,获取一千条,按下回车 ……
搞定!
仔细检查,确实返回了所有记录,因为总共也没有一千行。
现在可以蛮干了,因为就干一次。
复制出来,用文本编辑器(最好支持列编辑)简单处理一下,得到一个 json
json
所以方法需要灵活应用,如果能直接通过程序获取最好,如果不行,手动辅助也是可以的。
接下来,才是重头戏,如何将这些数据写入。
进入新公众号的管理后台,新建一个关键字回复,分析下请求,此时别忘记,打开开发者工具(浏览器上按 F12)。
一般提交类请求都是第一个,看一下果然是,不过肉眼看不清具体数据,怎么办?
还记得前面好多次提到的将请求复制为 curl bash 吗?对就用它,在请求上右键,选择 Copy as cURL(bash)
copy cURL
放在哪里呢?当然不是放在文本文件里了,除非你是想做一下暂存。
我们直接粘贴到 https://curl.trillworks.com/ 里,可以直接获得 转化好的 Python 代码。
然后将 Python 代码复制到文件中,执行看看效果,果然,新增了一条记录。
下面分析请求数据, 与刚才 json 文件中的做对比,一般名称很相近,所以容易找出来。
字段相同,可能是来自同一个架构设计,不太可能出自不同的团队开发,哈哈,我竟然看的这么深!
这样边找边写,等找完,代码也就完成了,像这样:
data = {
'replytype': 'smartreply',
'ruleid': '0',
'rulename': kw['rule_name'], # 规则名
'allreply': kw['reply_all'], # 全回复
'replycnt': kw['reply_cnt'], # 回复数量
'keywordcnt': len(kw['keyword_list']), # 关键字数量
'keyword0': kw['keyword_list'][0]['content'], # 关键字
'matchmode0': kw['keyword_list'][0]['match_mode'], # 匹配模式
'type0': kw['reply_list'][0]['reply_type'], # 消息类型
'fileid0': 'undefined',
'content0': kw['reply_list'][0]['content'], # 回复内容
'token': '105xxxx502',
'lang': 'zh_CN',
'f': 'json',
'ajax': '1'
}
现在将各部分的代码组合起来。
首先是解析 json 的代码:
with open("keyword.js", 'r', encoding='utf-8') as word:
d = json.load(word)
超级简单,利用 json 库将 keyword.js 文件中的内容转化为 Python List 对象
然后是数据组合,代码已经在上面展示了。
最后发送请求:
add(data) print('处理完成,休息2秒...') time.sleep(2)
好了,这样搞定了,写代码用了一个多小时,跑完不到两分钟。
美中不足的是,代码只照顾了大多数的一条消息的回复(代码中直接获取的数组中第一个元素, 如 kw['reply_list'][0]),还有几条回复是多条消息,照顾不上。
如果要照顾,可能的话 80% 以上的时间,以兼容 20% 不到的情况,不划算。
怎么办?凉拌!—— 直接手动添加。
哈哈,我很乐意做这一点手工活儿。
类似这样的方式,用在其他的地方,完全是可以的,比如之前的约马程序,训练营运营数据提取 等等,都是一样的套路:
就这么简单,Get 到了吗?
那,赶紧找个地方试试吧。
每天进步一点点,生活更美好,比心!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在人工智能领域,“大模型” 已成为近年来的热点标签:从参数超 1750 亿的 GPT-3,到万亿级参数的 PaLM,再到多模态大模型 GPT-4 ...
2025-10-22在 MySQL 数据库的日常运维与开发中,“更新数据是否会影响读数据” 是一个高频疑问。这个问题的答案并非简单的 “是” 或 “否 ...
2025-10-22在企业数据分析中,“数据孤岛” 是制约分析深度的核心瓶颈 —— 用户数据散落在注册系统、APP 日志、客服记录中,订单数据分散 ...
2025-10-22在神经网络设计中,“隐藏层个数” 是决定模型能力的关键参数 —— 太少会导致 “欠拟合”(模型无法捕捉复杂数据规律,如用单隐 ...
2025-10-21在特征工程流程中,“单变量筛选” 是承上启下的关键步骤 —— 它通过分析单个特征与目标变量的关联强度,剔除无意义、冗余的特 ...
2025-10-21在数据分析全流程中,“数据读取” 常被误解为 “简单的文件打开”—— 双击 Excel、执行基础 SQL 查询即可完成。但对 CDA(Cert ...
2025-10-21在实际业务数据分析中,我们遇到的大多数数据并非理想的正态分布 —— 电商平台的用户消费金额(少数用户单次消费上万元,多数集 ...
2025-10-20在数字化交互中,用户的每一次操作 —— 从电商平台的 “浏览商品→加入购物车→查看评价→放弃下单”,到内容 APP 的 “点击短 ...
2025-10-20在数据分析的全流程中,“数据采集” 是最基础也最关键的环节 —— 如同烹饪前需备好新鲜食材,若采集的数据不完整、不准确或不 ...
2025-10-20在数据成为新时代“石油”的今天,几乎每个职场人都在焦虑: “为什么别人能用数据驱动决策、升职加薪,而我面对Excel表格却无从 ...
2025-10-18数据清洗是 “数据价值挖掘的前置关卡”—— 其核心目标是 “去除噪声、修正错误、规范格式”,但前提是不破坏数据的真实业务含 ...
2025-10-17在数据汇总分析中,透视表凭借灵活的字段重组能力成为核心工具,但原始透视表仅能呈现数值结果,缺乏对数据背景、异常原因或业务 ...
2025-10-17在企业管理中,“凭经验定策略” 的传统模式正逐渐失效 —— 金融机构靠 “研究员主观判断” 选股可能错失收益,电商靠 “运营拍 ...
2025-10-17在数据库日常操作中,INSERT INTO SELECT是实现 “批量数据迁移” 的核心 SQL 语句 —— 它能直接将一个表(或查询结果集)的数 ...
2025-10-16在机器学习建模中,“参数” 是决定模型效果的关键变量 —— 无论是线性回归的系数、随机森林的树深度,还是神经网络的权重,这 ...
2025-10-16在数字化浪潮中,“数据” 已从 “辅助决策的工具” 升级为 “驱动业务的核心资产”—— 电商平台靠用户行为数据优化推荐算法, ...
2025-10-16在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14