京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据将有效应用于安全、身份和欺诈管理
21世纪以来,互联网、移动互联网、云计算、物联网导致计算环境发生重大变化,企业和组织投入大量资源改善IT安全基础设施,安全边界变得模糊和脆弱。但是各类安全事件层出不穷,国内外多起严重数据泄漏事件不断挑战安全意识底限。“恐惧源于无知”应用在信息安全领域同样适用,当各种复杂的防御机制也无法阻挡恶意入侵,当著名安全组织不断爆出安全漏洞,业内人士也在思考问题的症结。现有安全体系类似古代城堡,将重要资产(如企业内网等)使用高高的城墙(如防火墙等)团团围住。实际上,安全的边界变得模糊和脆弱,黑客攻击也具有系统化、长期化和经济利益驱动等特点,甚至有国家背景支持,城堡式安全体系已经无法适应新兴攻击技术的发展。国际安全会议RSA 2015年的主题“变化:挑战当前的安全理念”也正反应出安全界转换理念的共识。
预测攻击影响 提供主动防御
大数据的兴起为新一代安全技术提供思路,大数据开放组件为各类安全数据(如事件日志、数据包等)提供海量存储、实时处理和数据挖掘等功能,为安全厂商快速、有效建立数据分析平台提供便利。大数据技术在数据规模、数据易变性以及非结构化处理具有明显的优势,应用于安全领域主要体现在安全管理、身份管理和欺诈管理三大领域。
在安全管理方面,针对传统的威胁,防御和检测技术通常以特征检测为主,新型威胁更多利用0Day漏洞进行攻击。由于无法提前明确特征信息,导致防御侧已有SIEM系统及检测技术失效。企业和组织需要从被动防御转换到主动防御。根据多种渠道数据来源,威胁情报(Threat Intelligence)基于大数据处理和分析技术实现预测攻击影响以及识别未知威胁。通过威胁情况,安全人员在第一时间了解IT资产面临的新漏洞、新型攻击方法和工具,威胁环境变化等,在威胁溢出之前阻断攻击者。2013年以来,威胁情报一直保持北美安全技术发展的热点。此外,安全企业和组织也积极共享威胁情报信息,采用“群防群控”方式提升资源的利用率并将安全损失最小化。威胁情报共享以来数据的标准化和规范化,美国相关工作主要由政府部门和安全企业共同推动。2014年,Fortinet、Palo Alto等安全公司建立网络威胁联盟(Cyber Threat Alliance),共享威胁情报,全面提升威胁态势感知能力。美国将网络威胁情报信息共享视作提升其联邦政府信息系统安全的必要手段之一,NIST发布NIST SP 800-150网络威胁信息共享指南的草案,将信息共享、协调、协同扩展至计算机安全事件响应生命周期。
颠覆传统认证方式 识别欺诈特征
身份认证是信息系统中确认操作者身份的过程,也是授权操作的基础。传统的认证方式通过用户知道的秘密(口令等)、用户拥有的凭证(短信验证码等)和用户所属的特性(指纹等)来鉴别用户。上述技术面临以下问题:(1)数据泄漏严重,密码不可靠;攻击者通过泄漏数据、社工等方式很容易获得账号、密码;(2)作为常用的二次认证方式,短信验证码同样面临被截取的风险;U盾具有安全性优势,但使用不便;(3)生物认证的用户体验好,但适用范围受到限制,只能在支持生物特征识别的设备上运行。新型身份认证技术需要安全性和易用性的平衡。基于大数据的身份认证通过收集用户、设备等行为数据,分析获得用户和设备的行为特征,并判断当前认证是否满足已有特征,如不满足则叠加多种认证方式。因此也被称为自适应(Adaptive)或基于风险(Risk-based)认证。大数据身份管理的核心是风险的判定,依赖于用户行为(例如时间、IP)和设备行为(例如设备号、失败次数),通过安全策略控制认证方式,黑客可能窃取账号、密码之后也无法完成认证。同时,对于绝大多数正常用户可以简化认证流程。
反欺诈是大数据安全应用的另一类场景,例如Yahoo和Thinkmail利用大数据分析技术过滤垃圾邮件,DataVisor提供恶意账户识别技术帮助Yelp减少虚假评论。这类欺诈行为跟业务流程直接相关,用户的刷单、刷奖类营销欺诈,盗卡类交易欺诈以及商户和用户串谋欺诈等场景识别不尽相同。通过收集设备数据、用户数据和业务数据,结合机器学习技术,欺诈管理可以识别欺诈特征,提升欺诈成本。
当然,大数据作为新型安全技术也带来多方面挑战。首先是数据的可信度,大数据安全的效果严重依赖数据质量,低质量的数据可能导致错误的结论。机器产生数据的可靠性具有保障,但也无法完全避免伪造或刻意制造的数据。因此需要从数据来源的真实性、数据传播途径和数据处理过程等多方面确保数据的可信。其次,用户隐私保护也成为各方关注焦点,通过数据碎片还原出有价值的信息,可能属于数据拥有者不愿意被披露的敏感数据。大数据安全也需要从大数据存储、搜索和计算等多方面全面考虑用户的隐私保护问题。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12