京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R语言使用密度聚类笔法处理数据
说明
除了使用距离作为聚类指标,还可以使用密度指标来对数据进行聚类处理,将分布稠密的样本与分布稀疏的样本分离开。DBSCAN是最著名的密度聚类算法。
操作
将使用mlbench包提供的仿真数据
library(mlbench)
library(fpc)
使用mlbench库绘制Cassini问题图:
set.seed(2)
p = mlbench.cassini(500)
plot(p$x)

根据数据密度完成聚类:
ds = dbscan(dist(p$x),0.2,2,countmode = NULL,method = "dist")
> ds
dbscan Pts=500 MinPts=2 eps=0.2
1 2 3
seed 200 200 100
total 200 200 100
绘制聚类结果散点图,属于不同簇的数据点选用不的颜色:
plot(ds,p$x)

根据聚簇标号绘制的彩色散点图
调用dbscan来预测数据点可能被划分到那个簇,在样例中,首先在矩阵P中处理三个输入值:
生成y矩阵
y = matrix(0,nrow = 3,ncol = 2)
y[1,] = c(0,0)
y[2,] = c(0,-1.5)
y[3,] = c(1,1)
y
[,1] [,2]
[1,] 0 0.0
[2,] 0 -1.5
[3,] 1 1.0
预测数据点属于那个簇:
predict(ds,p$x,y)
[1] 3 1 2
原理
基于密度的聚类算法利用了密度可达以及密度相连的特点,因而适用于处理非线性聚类问题。当探讨密度聚类算法的处理过程前,我们要知道基于密度的聚类算法通常需要考虑两个参数,eps和MinPts,其中eps为最大领域半径,MinPts是领域半径范围内的最小点数。
确定好这两个参数后,如果给定对象其领域范围内的样本点个数大于MinPts,则称该对象为核心点。
如果一个对象其领域半径范围内的样本点个数小于MinPts,但紧挨着核心点,则称该对象为边缘点。
如果P对象的eps领域范围内样本点个数大于MinPts,则称该对象为核心对象。
进一步,我们还要定义两点间密度可达的概念,给定两点p和q,如果p为核心对象,且q在p的eps邻域内,则称p直接密度可以达q。如果存在一系列的点,p1,p2,…,pn。且p1 = q,pn = p,根据Eps和MinPts的值,当1<=i<=n,pi + 1 直接密度可以达pi,则称p的一般密度可以达q。
DBSCAN处理过程:
1.随机选择一个点p
2.给定Eps和MinPts的条件下,获得所有p密度可达的点
3.如果p是核心对象,则p和所有p密度可达的点被标记成一个簇,如果p是一个边缘点,找不到密度可达点,则将其标记为噪声。接着处理其它点。
4.重复这个过程,直到所有的点被处理。
本例使用dbscan算法聚类Cassini数据集,将可达距离设置为0.2,最小可达点个数设置为2,计算进度设为NULL,使用距离矩阵做为计算依据。经过算法处理,数据被划分成三个簇,每个簇的大小分别为200,200,100.通过聚簇的结果示意图也可以发现Cassini图被不同颜色区分开来。
CDA学员免费下载查看报告全文:2026全球数智化人才指数报告【CDA数据科学研究院】.pdf
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大数据技术飞速迭代、数字营销竞争日趋激烈的今天,“精准触达、高效转化、成本可控”已成为企业营销的核心诉求。传统广告投放 ...
2026-04-24在游戏行业竞争白热化的当下,用户流失已成为制约游戏生命周期、影响营收增长的核心痛点。据行业报告显示,2024年移动游戏平均次 ...
2026-04-24 很多业务负责人开会常说“我们要数据驱动”,最后却变成“看哪张报表数据多就用哪个”,往往因为缺乏一套结构性的方法去搭建 ...
2026-04-24在Power BI数据可视化分析中,切片器是连接用户与数据的核心交互工具,其核心价值在于帮助使用者快速筛选目标数据、聚焦分析重点 ...
2026-04-23以数为据,以析促优——数据分析结果指导临床技术改进的实践路径 临床技术是医疗服务的核心载体,其水平直接决定患者诊疗效果、 ...
2026-04-23很多数据分析师每天盯着GMV、DAU、转化率,但当被问到“哪些指标是所有企业都需要的”“哪些指标是因行业而异的”“北极星指标和 ...
2026-04-23近日,由 CDA 数据科学研究院重磅发布的《2026 全球数智化人才指数报告》,被中国教育科学研究院官方账号正式收录, ...
2026-04-22在数字化时代,客户每一次点击、浏览、下单、咨询等行为,都在传递其潜在需求与决策倾向——这些按时间顺序串联的行为轨迹,构成 ...
2026-04-22数据是数据分析、建模与业务决策的核心基石,而“数据清洗”作为数据预处理的核心环节,是打通数据从“原始杂乱”到“干净可用” ...
2026-04-22 很多数据分析师每天盯着GMV、转化率、DAU等数字看,但当被问到“什么是指标”“指标和维度有什么区别”“如何搭建一套完整的 ...
2026-04-22在数据分析与业务决策中,数据并非静止不变的数值,而是始终处于动态波动之中——股市收盘价的每日涨跌、企业月度销售额的起伏、 ...
2026-04-21在数据分析领域,当研究涉及多个自变量与多个因变量之间的复杂关联时,多变量一般线性分析(Multivariate General Linear Analys ...
2026-04-21很多数据分析师精通描述性统计,能熟练计算均值、中位数、标准差,但当被问到“用500个样本如何推断10万用户的真实满意度”“这 ...
2026-04-21在数据处理与分析的全流程中,日期数据是贯穿业务场景的核心维度之一——无论是业务报表统计、用户行为追踪,还是风控规则落地、 ...
2026-04-20在机器学习建模全流程中,特征工程是连接原始数据与模型效果的关键环节,而特征重要性分析则是特征工程的“灵魂”——它不仅能帮 ...
2026-04-20很多数据分析师沉迷于复杂的机器学习算法,却忽略了数据分析最基础也最核心的能力——描述性统计。事实上,80%的商业分析问题, ...
2026-04-20在数字化时代,数据已成为企业决策的核心驱动力,数据分析与数据挖掘作为解锁数据价值的关键手段,广泛应用于互联网、金融、医疗 ...
2026-04-17在数据处理、后端开发、报表生成与自动化脚本中,将 SQL 查询结果转换为字符串是一项高频且实用的操作。无论是拼接多行数据为逗 ...
2026-04-17面对一份上万行的销售明细表,要快速回答“哪个地区卖得最好”“哪款产品增长最快”“不同客户类型的购买力如何”——这些看似复 ...
2026-04-17数据分析师一天的工作,80% 的时间围绕表格结构数据展开。从一张销售明细表到一份完整的分析报告,表格结构数据贯穿始终。但你真 ...
2026-04-16