京公网安备 11010802034615号
经营许可证编号:京B2-20210330
互联网金融借力大数据玩转风险控制
近两年,金融行业内竞争在网络平台上全面展开。大数据时代,这种竞争说到底就是“数据为王”。为什么大数据在互联网金融领域扮演着如此重要的角色?业内人士认为,“互联网+金融”具有共享性,提供了“大数据”和更充分的信息,即通过更完善的价格信号,帮助协调不同经济部门非集中化决策。
信息占据核心地位
信息占金融市场核心地位。金融市场是进行资本配置和监管的一种制度安排,而资本配置及其监管从本质上来说是信息问题。因此,金融市场即进行信息的生产、传递、扩散和利用的市场。
在“互联网+金融”时代,信息的传递和扩散更加便捷,信息的生产成本更为低廉,信息的利用渠道和方式也愈发多元化,从而越来越容易实现信息共享。这种共享不仅包含着各类不同金融机构之间的信息共享,而且包含着金融机构与其他行业之间的信息共享、金融机构和监管机构及企业间的共享等。
信息共享并由此形成的“大数据”,降低了单个金融机构获得信息、甄别信息的成本,提高了信息利用的效率,使信息的生产和传播充分而顺畅,从而极大地降低了信息的不完备和不对称程度。“大数据”不仅使投资者可以获取各种投资品种的价格及影响这些价格的因素的信息,而且筹资者也能获取不同的融资方式的成本的信息,管理部门能够获取金融交易是否正常进行、各种规则是否得到遵守的信息,使金融体系的不同参与者都能作出各自的决策。
正确看待大数据征信
互联网金融的发展带火了P2P市场,也折射出风控体系建设的缺失。P2P跑路现象主要原因就是风控缺失,体现在“重担保、轻风控”和“重线上风控、轻线下调查”。
当前,多数P2P平台“重担保、轻风控”的思路是不正确的,担保是外界因素,风控是内在因素,一味强调用外在的因素而不解决自身的问题,不可能实现良好运转。互联网金融的风险管理不在规则之中,而在互联网和金融双重叠加的对象之中,其最基本的风险边界应是保证投资者的资产安全。守住了安全底线,这些平台才能健康成长。所以,P2P平台根本的安全底线还在于加强自身对象的风控。
另一方面,风控分为贷前、贷中、贷后风控。目前有些P2P平台从最开始的贷前风控就缺失,贷前风控最重要的是要实现“线下调查”,即通过线下实地走访和考察,对客户信息进行交叉验证和真实性验证,包括对借款人银行流水、征信报告、财产证明、工作证明等的审查,通过审查评估借款人还款能力。这些线下风控是不可或缺的,不能迷信或过分夸大“互联网+”的效率和普惠,线上的大数据和线下的实地考察必须结合。
基于大数据、个人征信的风控手段已有很多,大数据征信是实现P2P风控的创新路径。但是也需要正确看待,既不能要求大数据征信一步登天,一下子带来质的改变;也不能风声鹤唳,一有创新就以各种名义围追堵截,而需要给予更多理性的包容和试错的空间,在渐进创新中不断完善大数据征信体系。
目前存在的困难:
一是数据的虚拟性和“信息噪音”。虽然大数据及其分析提高了信息获取的数量和精度,但由于虚拟世界中信息大爆炸造成的“信息噪音”,导致交易者身份、交易真实性、信用评价的验证难度更大,反而可能在另一层面更强化信息不对称程度,也更容易存在信息垄断。
二是信用数据关联的不确定性。信用数据是多样化的,包括朋友信用、爱情信用、事业信用等。所谓忠孝不能两全,一个对朋友忠诚的人不一定对事业忠诚。对事业或工作忠诚,也不一定能说明他的金融信用好。大数据通过日常信用来判断金融信用会出现偏差。
三是“数据孤岛”不能实现数据共享。互联网平台具有强烈的规模效应,平台越大越容易产生数据,越容易使用数据。例如,阿里小贷主要通过卖家累计的海量交易信息及资金流水,也可通过大数据的分析在几秒内完成对商家的授信。但是,阿里小贷的数据,不可能提供给其他公司使用。因此,下一步应推动数据的整合和共享。
玩转大数据风控系统
传统的风控模式更多关注的是静态风险,对风险进行预判。而P2P市场让越来越多的传统金融企业转型互联网金融,大数据技术要对风险进行实时把握,要做到两点:大数据和云计算结合以及大数据的流处理模式。
大数据和云计算结合,实现了实时监控。云计算为大数据实时把握提供了硬件基础,可以实现秒级的数据采集、分析和挖掘。流处理模式实现了静态风险和动态风险的有效结合。一种人习惯先把信息存下来,然后一次性地处理掉,也叫批处理,如定期处理过期邮件;另一种人喜欢信息来一点处理一点,无用信息直接过滤掉,有用的存起来。后者就是流处理的基本范式,实现了实时监控。
怎样才能针对企业自身的发展和业务方向,玩转大数据风控系统,使其发挥到最大作用?我认为,要关注“大众数据”。要意识到互联网“长尾效应”的作用,互联网环境下“得大众者得天下”,关注大众数据,要了解大众心态,在归属感、成就感和参与感上下功夫。
还要将业务驱动转向数据驱动。理解数据的价值,通过数据处理创造商业价值,看似零散的数据背后寻找消费逻辑。此外,还应改造公司数据相关的IT部门,将其从“成本中心”转化为“利润中心”,充分认识大数据是核心竞争力,重视其挖掘和预测的能力。
当然,实时大数据风控还需要很多方面的探索,如何借助大数据建立全生命风控体系,形成贷前、贷中、贷后流程管理系统和决策系统。另外,还需加强信用数据相关性研究和量化模型的开发,金融信用(主要指借贷数据)可获得性比日常信用数据难,以金融信用为中心,通过日常信用,构建个人信用评估体系。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27