京公网安备 11010802034615号
经营许可证编号:京B2-20210330
现在的大数据风控还只是个宝宝
现在搞金融行业,开口闭口不谈大数据,简直就像是出门没穿衣服一样丢人。老猫虽然碍于情面,有时也不免对大数据高谈阔论,不过静下心来,却还是觉得现在的大数据风控有诸多不足之处,套用网络俗语来看,还只是个宝宝。
1、 我们没有经历过一个完整的信贷周期
美国的征信行业从创始至今已经走过了超过100年的时间,涉及到资本市场信用机构有Standard and Poor’s(标准普尔)、Moody’s(穆迪)、Fitch(惠誉),普通企业信用机构有Dun&Bradstreet(邓白氏),个人征信方面则有Experian(益博睿)、Equifax(艾可菲)、Trans Union(全联)。可以看出美国的征信机构业务集中且覆盖市场的方方面面,其中的数据更是长达了几代人的时间,经历过数次遍及全球的金融危机,这样的数据是经得起市场和时间的检验的,个人信用记录涉及到的每个人美国人生活的方方面面。
而中国人民银行的个人信用信息基础数据库建设最早始于1999年,2005年8月底才完成与联网运行,算到2017年,可能其中大部分人连商品房的房贷都没有还完,更不必说小额消费贷款这样最近几年伴随着网购才在中国发展起来的新生事物,不少新近成立的消费金融公司的种子客户都还在第一轮的还款当中。而且个人征信还远未到影响到我们生活的地步,很多人对此不重视也造成了信用记录的缺失。在数据本身都存疑的情况下,与之相匹配的评分标准、贷款额度、逾期率等都没有经过检验,这是目前大数据风控所被人诟病的最主要的方面。
不要忘了中国到目前为止始终处于一个上升的经济周期内,倘若未来处于经济下行阶段,目前积累的数据和模型还是否有效,是一个很大的未知数。
2、 积累的样本离“大”数据还差的很远
我们老说大数据大数据,但对于什么样的数据可以称之为“大”,恐怕很少有人能得出概念。一个经营的很好的P2P平台有着几万到几十万用户的投资数据,而一些搞征信企业拥有百万级的用户数据就可以称自己是“大数据”了,即使是央行,也仅仅拥有3.8亿人的信贷记录。
这样的数据规模,应用到拥有十三亿人国家的市场中,可以说远远的不够。中国的贫富差距之大,地区和地区间发展的极不均衡,让单一的数据模型很难适用于每个消费群体。而且不少企业都把自己积累的消费数据作为企业的“秘密”,生怕竞争对手获取到这些信息,这更加剧了信息之间的不流通,使得数据样本与实际产生偏差,恶意套现的组织也利用这一漏洞,用同样的资料在不同平台之间进行套现。现在许多消费金融公司组建起了生态联盟,在联盟内共享黑名单,就是希望依靠联盟来扩充数据容量以增强数据的准确性。
老猫甚至有一个“狭隘”的观点,我认为只有基本覆盖到每个公民的数据才称得上是“大数据”。在存在一定边界条件控制的情况下,比如春运、集会这样的指向性很强的活动中,有着一定量的数据就可以得出可信的趋势。而在信用贷款中,每个个体都存在着不可控的因素,这些因素的来源是方方面面的,是否仅仅依靠大数据就可以推算出来,我个人是表示存疑的。
3、 人为操作可以让大数据形同虚设
我们看到了美国征信行业的生机勃勃,但经常被我们忽视的是,美国同时拥有着一整套与之匹配的法律体系和监管机制,包括《公平信用报告法》在内共有17部法律,在信息的收集、使用、发布、准确性上有着详尽的规定,支撑着美国整个征信行业的规范性发展。
这些法律,让美国的征信数据是公开公平,真实可信的。而我国关于征信方面主要的法规是2013年1月国务院颁布的《征信管理条例》,单从“条例”一词就可以看出,我国在征信方面还未上升到国家法律的层面。并且我国采用的是政府征信与企业征信的双轨制结构,双方在数据类型、数据库上并不完全互通,这就导致了数据的不一致,存在人为进行篡改的可能性。还有关于个人隐私方面的问题,《征信管理条例》也有许多语焉不详之处,在实践过程中有可能出现个人隐私暴露的问题。
从前段时间电影票房的虚假繁荣,到电商平台上可以说是习以为常的刷单现象。连吃瓜群众都可以看到大数据经常反映不了真实的情况,有问题的数据应用到风控中,还会造成更多的隐患。限于金融自身的周期规律,这些隐患造成的后果不会像电影票房那样立刻显现,但很有可能在将来集中爆发。
不仅是数据本身,如何运用数据也是左右风控的关键因素。在缺乏法律监管的情况下,许多平台人为的降低风控要求,从而增大了风险敞口,造成了有“大数据”而无“风控”的情况,从近段时间大批平台因经营不善纷纷“暴雷”来看,大数据风控的核心还是在于人,只有监管者从严监管,从业者合规经营,大数据风控才能真正“长大成人”。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数字化时代,用户是产品的核心资产,用户运营的本质的是通过科学的指标监测、分析与优化,实现“拉新、促活、留存、转化、复购 ...
2026-04-15在企业数字化转型、系统架构设计、数据治理与AI落地过程中,数据模型、本体模型、业务模型是三大核心基础模型,三者相互支撑、各 ...
2026-04-15数据分析师的一天,80%的时间花在表格数据上,但80%的坑也踩在表格数据上。 如果你分不清数值型和文本型的区别,不知道数据从哪 ...
2026-04-15在人工智能与机器学习落地过程中,模型质量直接决定了应用效果的优劣——无论是分类、回归、生成式模型,还是推荐、预测类模型, ...
2026-04-14在Python网络编程、接口测试、爬虫开发等场景中,HTTP请求的发送与响应处理是核心需求。Requests库作为Python生态中最流行的HTTP ...
2026-04-14 很多新人学完Python、SQL,拿到一张Excel表还是不知从何下手。 其实,90%的商业分析问题,都藏在表格的结构里。 ” 引言:为 ...
2026-04-14在回归分析中,因子(即自变量)的筛选是构建高效、可靠回归模型的核心步骤——实际分析场景中,往往存在多个候选因子,其中部分 ...
2026-04-13在机器学习模型开发过程中,过拟合是制约模型泛化能力的核心痛点——模型过度学习训练数据中的噪声与偶然细节,导致在训练集上表 ...
2026-04-13在数据驱动商业升级的今天,商业数据分析已成为企业精细化运营、科学决策的核心手段,而一套规范、高效的商业数据分析总体流程, ...
2026-04-13主讲人简介 张冲,海归统计学硕士,CDA 认证数据分析师,前云南白药集团资深数据分析师,自媒体 Python 讲师,全网课程播放量破 ...
2026-04-13在数据可视化与业务分析中,同比分析是衡量业务发展趋势、识别周期波动的核心手段,其核心逻辑是将当前周期数据与上年同期数据进 ...
2026-04-13在机器学习模型的落地应用中,预测精度并非衡量模型可靠性的唯一标准,不确定性分析同样不可或缺。尤其是在医疗诊断、自动驾驶、 ...
2026-04-10数据本身是沉默的,唯有通过有效的呈现方式,才能让其背后的规律、趋势与价值被看见、被理解、被运用。统计制图(数据可视化)作 ...
2026-04-10在全球化深度发展的今天,跨文化传播已成为连接不同文明、促进多元共生的核心纽带,其研究核心围绕“信息传递、文化解读、意义建 ...
2026-04-09在数据可视化领域,折线图是展示时序数据、趋势变化的核心图表类型之一,其简洁的线条的能够清晰呈现数据的起伏规律。Python ECh ...
2026-04-09在数据驱动的时代,数据分析早已不是“凭经验、靠感觉”的零散操作,而是一套具备固定逻辑、标准化流程的系统方法——这就是数据 ...
2026-04-09长短期记忆网络(LSTM)作为循环神经网络(RNN)的重要改进模型,凭借其独特的门控机制(遗忘门、输入门、输出门),有效解决了 ...
2026-04-08在数据分析全流程中,数据质量是决定分析结论可靠性的核心前提,而异常值作为数据集中的“异类”,往往会干扰统计检验、模型训练 ...
2026-04-08在数字经济飞速发展的今天,数据已渗透到各行各业的核心场景,成为解读趋势、优化决策、创造价值的核心载体。而数据分析,作为挖 ...
2026-04-08在数据分析全流程中,数据处理是基础,图形可视化是核心呈现手段——前者负责将杂乱无章的原始数据转化为干净、规范、可分析的格 ...
2026-04-07