京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据运用,银行和互联网机构谁才是专家
有人曾这样评价,对大数据的运用,银行和“大理王子”段誉的风格类似,空有一手好牌,却不会使用,只知道傻傻得守着一个“王姑娘”,至于互联网机构,则过于“乔峰”,有些鲁莽,不仅亲手害死了心上人阿朱,最终也跳崖自尽。
应该说,这两个比喻虽然牵强,但也大致描述出了银行与互联网机构在大数据运用上的特点,在前两天的普惠金融CRO全球峰会上,来自银行、互金以及第三方机构的多为专家给出了自己的观点。
针对银行与互联网的数据,孰优孰劣的问题,积木盒子首席风控官谢群表示:“银行虽然掌握了大量优质数据,但却没有能够将这些数据尽其用。”
一方面,数据管理的样本较少,模式比较单一。前者很好理解,许多银行在与客户交互的过程中,获得了许多优质信息,比如最基本的还贷信用,还有账户的流水等情况,但绝大多数时候,却只知道紧紧抱着一个“还贷信用”对客户进行评价,这类单一监控目标对象“历史状况”的方式,会很难预测到改变的发生。比如流水,就是一种即时、连续性的跟踪监控,能够比较迅速的反映出借款人、借款企业目前所处的收支状况,并可以在一定程度上预测未来可能暴露的风险。
对此,平安银行风险管理部首席风险专家张京也强调:“谈大数据前,银行首先要学会使用自己的小数据。”
张京表示,道德风险是银行大数据需要解决的重要问题。例如平安银行某个客户,在申请信贷的时候,提交的流水表看起来十分完美,数据也十分健康,但平安银行却发现了一个细节:该份流水表使用的农行的表单,但却是建行的格式!换句话说,这份流水表是伪造的。
张京介绍,每个银行自己的流水等重要表项,格式都是“加密”的,即有着自己的特征,而这是绝大多数银行都有能力发现但并未去主动校对的,倘若平安银行也没有进行此种检查,那么上述贷款即被“骗”出去了。
而诸如此类被遗忘的“小数据”银行还有很多,倘若能够真正利用好,毫无疑问,将避免很多损失。
另一方面,谢群直言,“银行毕竟有监管,有些数据不方便用,不合适用。”当然,这是每个国家都存在的问题,特别是金融体系逾发达的国家,对银行等相关机构数据使用的监管逾严密。因为这些机构拿到的往往是用户特征十分明显的核心数据,少有不慎便有可能触碰隐私的红线。
与银行相比,互联网机构之所以存在更大的空间去进行“自由组合”,创意出新的征信产品,在于它们拿到的数据比较模糊,可以、也不得不这么做。
正如笔者在曾经引用FICO中国区总裁陈建观点,大数据同样有贫矿富矿之分,银行毫无疑问掌握着最为丰富的资源,而互联网机构,则要在剩下的茫茫大地中“淘金”。当然,在这一大浪淘沙的筛选过程中,留下的除了少量金子外,更多的,则是铜铁锡等价值较低但同样有用的东西,互联网公司们的工作,正是对这些东西进行加工再挖掘。
比如目标对象的借记卡记录,日常缴费记录,多平台购物消费记录,生活习惯,兴趣爱好,甚至朋友们对他的评价,等等等等。
银行与互联网两个途径获得的数据,特别是征信数据,存在很强的互补性,最直接的,他们覆盖的人群不同。
拍拍贷首席风险官章峰给出了一个生动的例子:“中国有许多亿的人群属于次级客户,收入较低,无房无车,这类人群没有被银行覆盖。假设一个富士康工人,他如果要去平安或者光大等银行借五千块钱,我想是借不到的,银行根本没有这个业务。而包括拍拍贷、积木盒子在内的新兴互联网公司,正是瞄准了这样一批蓝海,跟银行进行互补。”
平安银行张京则给出了一组数据,“中国14亿人口,6亿人拥有信用卡(也拥有借记卡),4亿人拥有借记卡,那么这接近十亿人即有一定授信基础,且6亿人的基础高于4亿人。”
相比银行,互联网金融公司在有一定基础,但不是非常强的“只有借记卡”的四亿人这部分群体身上,可以发挥更大的作用。
正如上文提到,互联网机构所获得的数据都是“非标数据”。益博睿全球分析与策略咨询大中华区总监黄健铭给出过几个有趣的案例:“有些公司采纳的征信数据很有意思,比如飞机的里程数、移动电信联通的申请。”当然,一个同样有意思的问题是,这些数据真的能够作为征信的基础么?
在借贷市场中,往往存在这一一个“诡异”的现象,某家公司通过正常途径在银行得到了10万贷款,然后凭借着10万贷款的证明到小贷公司继续贷款。
小贷公司之所以会将“银行贷款单”作为一种征信工具,在于他们认为银行调查过的客户,肯定是优质客户,却往往忽略了一个事实——该企业的资信的确可以承受10万元的贷款,但如果金额增加的话,风险暴露的可能也会急剧加大。当然,这一现象也说明了市场对银行数据的过分依赖,对“非标”的不信任。
而且,第三方征信的效果到底怎样,也值得商榷。某保险集团负责人曾给出几个数字:“在接受了某第三方征信机构的筛选标准后,损失率可能下降30%,但却需要拒绝60%的客户。”孰轻孰重,很难抉择。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
机器学习的本质,是让模型通过对数据的学习,自主挖掘规律、实现预测与决策,而这一过程的核心驱动力,并非单一参数的独立作用, ...
2026-03-27在SQL Server数据库操作中,日期时间处理是高频核心需求——无论是报表统计中的日期格式化、数据筛选时的日期类型匹配,还是业务 ...
2026-03-27在CDA(Certified Data Analyst)数据分析师的能力体系与职场实操中,高维数据处理是高频且核心的痛点——随着业务场景的复杂化 ...
2026-03-27在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26在CDA(Certified Data Analyst)数据分析师的能力体系中,线性回归是连接描述性统计与预测性分析的关键桥梁,也是CDA二级认证的 ...
2026-03-26在数据分析、市场研究、用户画像构建、学术研究等场景中,我们常常会遇到多维度、多指标的数据难题:比如调研用户消费行为时,收 ...
2026-03-25在流量红利见顶、获客成本持续攀升的当下,营销正从“广撒网”的经验主义,转向“精耕细作”的数据驱动主义。数据不再是营销的辅 ...
2026-03-25在CDA(Certified Data Analyst)数据分析师的全流程工作中,无论是前期的数据探索、影响因素排查,还是中期的特征筛选、模型搭 ...
2026-03-25在当下数据驱动决策的职场环境中,A/B测试早已成为互联网产品、运营、营销乃至产品迭代优化的核心手段,小到一个按钮的颜色、文 ...
2026-03-24在统计学数据分析中,尤其是分类数据的分析场景里,卡方检验和显著性检验是两个高频出现的概念,很多初学者甚至有一定统计基础的 ...
2026-03-24在CDA(Certified Data Analyst)数据分析师的日常业务分析与统计建模工作中,多组数据差异对比是高频且核心的分析场景。比如验 ...
2026-03-24日常用Excel做数据管理、台账维护、报表整理时,添加备注列是高频操作——用来标注异常、说明业务背景、记录处理进度、补充关键 ...
2026-03-23作为业内主流的自助式数据可视化工具,Tableau凭借拖拽式操作、强大的数据联动能力、灵活的仪表板搭建,成为数据分析师、业务人 ...
2026-03-23在CDA(Certified Data Analyst)数据分析师的日常工作与认证考核中,分类变量的关联分析是高频核心场景。用户性别是否影响商品 ...
2026-03-23在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19