京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者尤金·颜,亚马逊应用科学家
“与其手动检查我们的数据,为什么不试试领英的做法呢?它帮助他们实现了95%的准确率和80%的召回率。“
然后我的队友分享了如何使用k-最近邻来识别不一致的标签(在职位名称中)。然后,LinkedIn在一致的标签上训练支持向量机(SVM);然后用支持向量机对不一致的标签进行更新。这帮助他们在职称分类器上达到95%的精确度。
这个建议在我们的讨论中是最有用的。对它的跟踪导致我们的产品分类器的最终准确率达到95%。我问她,她是如何贡献出这种批判性的见解的。“哦,我只是偶尔看看报纸。”她回答。具体来说,她每周都会读1-2篇论文,通常是围绕团队正在研究的主题。
通过阅读论文,我们能够了解其他人(例如LinkedIn)发现哪些有用(或者不有用)。然后我们可以适应他们的方法,而不必重新发明火箭。这有助于我们以更少的时间和精力交付工作解决方案。
如果说我比别人看得更远,那是因为我站在巨人的肩膀上。
-艾萨克·牛顿
阅读论文还拓宽了我们的视野。尽管我们可能在数据科学的狭隘领域工作,但切向研究的发展往往是有帮助的。例如,Word嵌入和graphshave的思想在推荐系统中很有用。同样,来自计算机视觉的思想--如迁移学习和数据增强--对自然语言处理(NLP)有帮助。
阅读论文还使我们了解最新情况。在过去的十年里,自然语言处理领域取得了长足的进步。尽管如此,通过阅读最关键的10篇左右的论文,我们可以很快跟上速度。通过了解最新情况,我们在工作中变得更有效,从而需要更少的时间和精力。然后我们有更多的时间阅读和学习,导致一个良性循环。
如果我们开始养成这个习惯,我们可以阅读任何我们感兴趣的东西--大多数论文都会有一些东西教我们。阅读我们感兴趣的话题也会更容易养成习惯。
我们也可以根据实用性来选择论文。例如,我们可能需要快速理解一个项目的域。在开始一个项目之前,我几乎总是留出时间进行文献综述。花几天时间研究论文可以节省几周甚至几个月的死胡同和不必要的重新发明轮子。
建议也是确定要阅读的有用论文的方便方法。一个黑客是在社交媒体上关注我们崇拜的人,或者订阅精心策划的时事通讯--我发现这些来源的信息噪声比很高。
我读什么报纸?出于实用性,我读的多是与工作有关的论文。这使我能够立即应用我所读到的知识,从而加强我的学习。在工作之外,我对序列感兴趣,并倾向于阅读强化学习。我特别喜欢分享什么有效什么无效的论文,比如通过消融研究。这包括关于Word2VEC、BERT和T5的论文。
在谷歌搜索“如何阅读论文”会返回无数有用的结果。但如果你觉得它势不可挡,这里有几个我发现很有帮助的:
我的方法类似于三遍法。在下面的例子中,我将分享我是如何阅读几篇recsys的论文来了解新颖性、多样性和偶然性的度量标准的。等等。
在第一遍中,我扫描摘要以了解论文是否有我需要的内容,如果有,我浏览标题以确定问题陈述、方法和结果。在这个例子中,我专门寻找如何计算各种度量的公式。我给我的单子上的所有文件一个第一关(并拒绝开始第二关,直到我完成了单子)。在本例中,大约一半的论文进行了第二次传递。
在第二遍中,我再次阅读每一篇论文,并突出显示相关章节。这有助于我在以后参考论文时迅速发现重要的部分。然后,我为每篇论文做笔记。在本例中,注释主要围绕度量(即,方法、公式)。如果是一个应用程序的文献综述(例如,recsys、产品分类、欺诈检测),说明将侧重于方法、系统设计和结果。
对于大多数论文来说,第二次通过就足够了。我已经捕获了关键信息,如果需要,可以在未来参考它。尽管如此,如果我读论文作为文献综述的一部分,或者如果我想巩固我的知识,我有时会做第三步。
阅读只为心灵提供知识材料;是思考使我们读到的东西成为我们的。
-约翰·洛克
在第三关中,我将论文中常见的概念综合成自己的注释。各种论文都有自己的方法来衡量新颖性、多样性、偶然性等,我把它们合并成一个音符,并比较它们的利弊。在这样做的时候,我经常发现笔记和知识中的空白,不得不重温原始论文。
最后,如果我认为它对其他人有用,我会写出我所学到的并在网上发布。相对于从头开始,有我的笔记作为参考让写作容易得多。这导致了诸如:
在深入你的下一个项目之前,花一两天时间浏览几篇相关的论文。我相信从中长期来看,这将为您节省时间和精力。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16在机器学习无监督学习领域,Kmeans聚类因其原理简洁、计算高效、可扩展性强的优势,成为数据聚类任务中的主流算法,广泛应用于用 ...
2026-04-16在机器学习建模实践中,特征工程是决定模型性能的核心环节之一。面对高维数据集,冗余特征、无关特征不仅会增加模型训练成本、延 ...
2026-04-16在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14