京公网安备 11010802034615号
经营许可证编号:京B2-20210330
数据科学就业市场正在迅速变化。能够建立机器学习模型曾经是只有少数杰出科学家才具备的一项精英技能。但是现在,任何具有基本编程经验的人都可以按照以下步骤来训练一个简单的scikit-learn或keras模型。招聘人员收到了大量的求职申请,因为围绕“本世纪最性感的工作”的炒作几乎没有减弱,而招聘工具正变得越来越容易使用。人们对数据科学家应该带来什么的期望已经发生了变化,企业开始认识到,训练机器学习模型只是数据科学成功的一小部分。
下面是让最好的数据科学家脱颖而出的四个最有价值的品质。
1.聚焦业务
对数据科学家来说,最常见的动机之一是对在数据中发现模式的自然好奇心。深入研究探索数据集的工作是令人兴奋的,用该领域的最新技术进行实验,系统地测试它们的效果,并发现一些新的东西。这种类型的科学动机是数据科学家应该具备的。但如果它是唯一的动力,那就成了问题。在这种情况下,它可能导致人们在一个孤立的泡沫中思考,迷失在统计细节中,而没有考虑他们工作的具体应用和公司的更大背景。
最好的数据科学家了解他们的工作如何与整个公司相适应,并具有交付业务价值的内在驱动力。当简单的解决方案足够好时,他们不会浪费时间在复杂的技术上。他们询问项目的更大目标,并在跳到解决方案之前挑战核心假设。他们关注整个团队的影响,并主动与涉众沟通。他们对新项目充满创意,敢于打破常规。他们为自己帮助了多少人而自豪,而不是他们使用的技术有多先进。
数据科学在很大程度上仍是一个不标准化的领域,数据科学训练营所教授的内容与企业实际需要的内容之间存在很大差距。最好的数据科学家不怕走出自己的舒适区,去解决紧迫的问题,并最大限度地发挥其影响。
2.扎实的软件工程技能
当人们想到理想的数据科学家时,他们脑海中往往会浮现出来自名牌大学的著名人工智能教授。当公司正在竞争建立尽可能高精确度的机器学习模型时,招聘这样的人才是有意义的。当用任何必要的方法挤出最后一个精度百分比非常重要时,那么你就需要注意数学细节,测试最复杂的方法,甚至发明专门针对特定用例进行优化的新的统计技术。
但在现实世界中,这几乎没有必要。对于大多数公司来说,具有相当精确度的标准模型已经足够好了,不值得花费时间和资源把这些模型变成世界上最先进的模型。更重要的是,要快速地以可接受的精度构建模型,并尽早建立反馈周期,这样你就可以开始迭代并加速识别最有价值的用例的过程。准确性上的微小差异通常不是数据科学项目成功或失败的原因,这也是为什么在商业世界中软件工程技能胜过科学技能的原因。
数据团队的典型工作流程通常是这样的:数据科学家用反复试验的代码和意大利面条式的代码构建了一些解决方案的原型。一旦结果开始看起来很有希望,他们就把它们交给软件工程师,然后他们必须从头重写所有内容,使解决方案具有可扩展性、效率和可维护性。不能期望数据科学家交付与全职软件工程师水平相当的生产代码,但是如果数据科学家更熟悉软件工程原理,并且对可能出现的体系结构问题有一定的认识,那么整个过程将会更加顺畅和快速。
随着越来越多的数据科学工作流被新的软件框架所取代,扎实的工程技能是数据科学家最重要的技能之一。
3.关注期望管理
从外部来看,数据科学可能是一个非常模糊和令人困惑的领域。这只是一种炒作,还是世界真的正在经历一场革命性的变革?每个数据科学项目都是机器学习项目吗?这些人是科学家、工程师还是统计学家?他们的主要输出软件还是仪表盘和可视化?为什么这个模型向我展示了一个错误的预测,有人能修复这个bug吗?如果他们现在只有这几行代码,那么在过去的一个月里他们一直在做什么呢?
有很多事情是不清楚的,数据科学家应该做什么,在公司的不同人之间的期望可能会有很大的差异。
对于数据科学家来说,主动地、持续地与涉众沟通是至关重要的,这样才能设定清晰的预期,及早发现误解,并让所有人都站在同一立场上。
最好的数据科学家了解其他团队的不同背景和议程如何影响他们的期望,并仔细调整他们的沟通方式。他们能够以简单的方式解释复杂的方法,以便非技术涉众更好地理解目标。他们知道什么时候该抑制过于乐观的预期,什么时候该说服过于悲观的同事。最重要的是,他们强调数据科学固有的实验性质,当一个项目的成功仍不明朗时,他们不会过度承诺。
4.熟悉云服务
云计算是数据科学工具包的核心部分。在很多情况下,在本地机器上摆弄Jupyter notebook已经达到极限了,不足以完成任务。当你需要在功能强大的gpu上训练机器学习模型、在分布式集群上并行化数据预处理、部署REST api来公开机器学习模型、管理和共享数据集或查询数据库以进行可扩展分析时,云服务尤其有用。
最大的供应商是Amazon Web Services (AWS)、Microsoft Azure和谷歌云平台 (GCP)。
考虑到大量的服务和平台之间的差异,云服务提供商几乎不可能胜任必须提供的所有服务。但是,对云计算有一个基本的了解是很重要的,以便能够浏览文档并了解在需要时这些特性是如何工作的。至少,这可以让你向其他数据工程师提出更好的问题和更具体的需求。
好了。对于正在寻求数据科学团队的公司,我建议寻找能够务实解决问题,有很强的工程能力,能够调整对业务价值的候选人。统计优势可以带来很多价值,但是对于大多数用例来说,它变得不那么重要了,尤其是在早期的团队中。
到目前为止,大多数公司更倾向于雇佣具有强大学术背景的数据科学家,比如数学或物理博士。考虑到该行业近年来的发展,未来是否会有更大比例的软件工程师或技术产品经理转变为数据科学角色,将是一个有趣的问题。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27