京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者尤金·颜,亚马逊应用科学家
“与其手动检查我们的数据,为什么不试试领英的做法呢?它帮助他们实现了95%的准确率和80%的召回率。“
然后我的队友分享了如何使用k-最近邻来识别不一致的标签(在职位名称中)。然后,LinkedIn在一致的标签上训练支持向量机(SVM);然后用支持向量机对不一致的标签进行更新。这帮助他们在职称分类器上达到95%的精确度。
这个建议在我们的讨论中是最有用的。对它的跟踪导致我们的产品分类器的最终准确率达到95%。我问她,她是如何贡献出这种批判性的见解的。“哦,我只是偶尔看看报纸。”她回答。具体来说,她每周都会读1-2篇论文,通常是围绕团队正在研究的主题。
通过阅读论文,我们能够了解其他人(例如LinkedIn)发现哪些有用(或者不有用)。然后我们可以适应他们的方法,而不必重新发明火箭。这有助于我们以更少的时间和精力交付工作解决方案。
如果说我比别人看得更远,那是因为我站在巨人的肩膀上。
-艾萨克·牛顿
阅读论文还拓宽了我们的视野。尽管我们可能在数据科学的狭隘领域工作,但切向研究的发展往往是有帮助的。例如,Word嵌入和graphshave的思想在推荐系统中很有用。同样,来自计算机视觉的思想--如迁移学习和数据增强--对自然语言处理(NLP)有帮助。
阅读论文还使我们了解最新情况。在过去的十年里,自然语言处理领域取得了长足的进步。尽管如此,通过阅读最关键的10篇左右的论文,我们可以很快跟上速度。通过了解最新情况,我们在工作中变得更有效,从而需要更少的时间和精力。然后我们有更多的时间阅读和学习,导致一个良性循环。
如果我们开始养成这个习惯,我们可以阅读任何我们感兴趣的东西--大多数论文都会有一些东西教我们。阅读我们感兴趣的话题也会更容易养成习惯。
我们也可以根据实用性来选择论文。例如,我们可能需要快速理解一个项目的域。在开始一个项目之前,我几乎总是留出时间进行文献综述。花几天时间研究论文可以节省几周甚至几个月的死胡同和不必要的重新发明轮子。
建议也是确定要阅读的有用论文的方便方法。一个黑客是在社交媒体上关注我们崇拜的人,或者订阅精心策划的时事通讯--我发现这些来源的信息噪声比很高。
我读什么报纸?出于实用性,我读的多是与工作有关的论文。这使我能够立即应用我所读到的知识,从而加强我的学习。在工作之外,我对序列感兴趣,并倾向于阅读强化学习。我特别喜欢分享什么有效什么无效的论文,比如通过消融研究。这包括关于Word2VEC、BERT和T5的论文。
在谷歌搜索“如何阅读论文”会返回无数有用的结果。但如果你觉得它势不可挡,这里有几个我发现很有帮助的:
我的方法类似于三遍法。在下面的例子中,我将分享我是如何阅读几篇recsys的论文来了解新颖性、多样性和偶然性的度量标准的。等等。
在第一遍中,我扫描摘要以了解论文是否有我需要的内容,如果有,我浏览标题以确定问题陈述、方法和结果。在这个例子中,我专门寻找如何计算各种度量的公式。我给我的单子上的所有文件一个第一关(并拒绝开始第二关,直到我完成了单子)。在本例中,大约一半的论文进行了第二次传递。
在第二遍中,我再次阅读每一篇论文,并突出显示相关章节。这有助于我在以后参考论文时迅速发现重要的部分。然后,我为每篇论文做笔记。在本例中,注释主要围绕度量(即,方法、公式)。如果是一个应用程序的文献综述(例如,recsys、产品分类、欺诈检测),说明将侧重于方法、系统设计和结果。
对于大多数论文来说,第二次通过就足够了。我已经捕获了关键信息,如果需要,可以在未来参考它。尽管如此,如果我读论文作为文献综述的一部分,或者如果我想巩固我的知识,我有时会做第三步。
阅读只为心灵提供知识材料;是思考使我们读到的东西成为我们的。
-约翰·洛克
在第三关中,我将论文中常见的概念综合成自己的注释。各种论文都有自己的方法来衡量新颖性、多样性、偶然性等,我把它们合并成一个音符,并比较它们的利弊。在这样做的时候,我经常发现笔记和知识中的空白,不得不重温原始论文。
最后,如果我认为它对其他人有用,我会写出我所学到的并在网上发布。相对于从头开始,有我的笔记作为参考让写作容易得多。这导致了诸如:
在深入你的下一个项目之前,花一两天时间浏览几篇相关的论文。我相信从中长期来看,这将为您节省时间和精力。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12