京公网安备 11010802034615号
经营许可证编号:京B2-20210330
作者尤金·颜,亚马逊应用科学家
“与其手动检查我们的数据,为什么不试试领英的做法呢?它帮助他们实现了95%的准确率和80%的召回率。“
然后我的队友分享了如何使用k-最近邻来识别不一致的标签(在职位名称中)。然后,LinkedIn在一致的标签上训练支持向量机(SVM);然后用支持向量机对不一致的标签进行更新。这帮助他们在职称分类器上达到95%的精确度。
这个建议在我们的讨论中是最有用的。对它的跟踪导致我们的产品分类器的最终准确率达到95%。我问她,她是如何贡献出这种批判性的见解的。“哦,我只是偶尔看看报纸。”她回答。具体来说,她每周都会读1-2篇论文,通常是围绕团队正在研究的主题。
通过阅读论文,我们能够了解其他人(例如LinkedIn)发现哪些有用(或者不有用)。然后我们可以适应他们的方法,而不必重新发明火箭。这有助于我们以更少的时间和精力交付工作解决方案。
如果说我比别人看得更远,那是因为我站在巨人的肩膀上。
-艾萨克·牛顿
阅读论文还拓宽了我们的视野。尽管我们可能在数据科学的狭隘领域工作,但切向研究的发展往往是有帮助的。例如,Word嵌入和graphshave的思想在推荐系统中很有用。同样,来自计算机视觉的思想--如迁移学习和数据增强--对自然语言处理(NLP)有帮助。
阅读论文还使我们了解最新情况。在过去的十年里,自然语言处理领域取得了长足的进步。尽管如此,通过阅读最关键的10篇左右的论文,我们可以很快跟上速度。通过了解最新情况,我们在工作中变得更有效,从而需要更少的时间和精力。然后我们有更多的时间阅读和学习,导致一个良性循环。
如果我们开始养成这个习惯,我们可以阅读任何我们感兴趣的东西--大多数论文都会有一些东西教我们。阅读我们感兴趣的话题也会更容易养成习惯。
我们也可以根据实用性来选择论文。例如,我们可能需要快速理解一个项目的域。在开始一个项目之前,我几乎总是留出时间进行文献综述。花几天时间研究论文可以节省几周甚至几个月的死胡同和不必要的重新发明轮子。
建议也是确定要阅读的有用论文的方便方法。一个黑客是在社交媒体上关注我们崇拜的人,或者订阅精心策划的时事通讯--我发现这些来源的信息噪声比很高。
我读什么报纸?出于实用性,我读的多是与工作有关的论文。这使我能够立即应用我所读到的知识,从而加强我的学习。在工作之外,我对序列感兴趣,并倾向于阅读强化学习。我特别喜欢分享什么有效什么无效的论文,比如通过消融研究。这包括关于Word2VEC、BERT和T5的论文。
在谷歌搜索“如何阅读论文”会返回无数有用的结果。但如果你觉得它势不可挡,这里有几个我发现很有帮助的:
我的方法类似于三遍法。在下面的例子中,我将分享我是如何阅读几篇recsys的论文来了解新颖性、多样性和偶然性的度量标准的。等等。
在第一遍中,我扫描摘要以了解论文是否有我需要的内容,如果有,我浏览标题以确定问题陈述、方法和结果。在这个例子中,我专门寻找如何计算各种度量的公式。我给我的单子上的所有文件一个第一关(并拒绝开始第二关,直到我完成了单子)。在本例中,大约一半的论文进行了第二次传递。
在第二遍中,我再次阅读每一篇论文,并突出显示相关章节。这有助于我在以后参考论文时迅速发现重要的部分。然后,我为每篇论文做笔记。在本例中,注释主要围绕度量(即,方法、公式)。如果是一个应用程序的文献综述(例如,recsys、产品分类、欺诈检测),说明将侧重于方法、系统设计和结果。
对于大多数论文来说,第二次通过就足够了。我已经捕获了关键信息,如果需要,可以在未来参考它。尽管如此,如果我读论文作为文献综述的一部分,或者如果我想巩固我的知识,我有时会做第三步。
阅读只为心灵提供知识材料;是思考使我们读到的东西成为我们的。
-约翰·洛克
在第三关中,我将论文中常见的概念综合成自己的注释。各种论文都有自己的方法来衡量新颖性、多样性、偶然性等,我把它们合并成一个音符,并比较它们的利弊。在这样做的时候,我经常发现笔记和知识中的空白,不得不重温原始论文。
最后,如果我认为它对其他人有用,我会写出我所学到的并在网上发布。相对于从头开始,有我的笔记作为参考让写作容易得多。这导致了诸如:
在深入你的下一个项目之前,花一两天时间浏览几篇相关的论文。我相信从中长期来看,这将为您节省时间和精力。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27