DBSCAN - 基于密度的聚类算法

1. 是什么

DBSCAN(Density-Based Spatial Clustering of Application with Noise),是一个典型的基于密度的聚类算法。目标是寻找被低密度区域分离的高密度区域,通俗点说就是把扎堆的点(高密度)找出来,而点很少很稀疏的地方(低密度)就作为分割区域。

2. 关键概念

1.与基于距离的聚类算法不同的是,基于距离的聚类算法的聚类结果是球状的簇,而基于密度的聚类算法可以发现任意形状的聚类,这对于带有噪音点的数据起着重要的作用。

2.所有的数据被分为三类点:

核心点。在半径eps内含有超过min_samples数目的点。

边界点。在半径eps内点的数量小于min_samples,但是落在核心点的邻域内,也就是说该点不是核心点,但是与其他核心点的距离小于eps。

噪音点。既不是核心点也不是边界点的点,该类点的周围数据点非常少。

3. 怎么用

sci-kit learn提供了相应的类和API,非常方便简单。

http://scikit-learn.org/stable/modules/generated/sklearn.cluster.DBSCAN.html

最简单的应用就是一句话:

from sklearn.cluster import DBSCAN

clf = DBSCAN(eps=0.3, min_samples=10).fit(X)

其中clf就是最终的分类器,而X是输入数据。

输入参数展开说:

class sklearn.cluster.DBSCAN(eps=0.5, min_samples=5, metric=’euclidean’, algorithm=’auto’, leaf_size=30, p=None, random_state=None)

eps:点之间的间距,大于这个间距的就不算一个簇了。

min_samples:可以算作核心点的高密度区域的最少点个数。

metric:距离公式,可以用默认的欧式距离,还可以自己定义距离函数。

algorithm:发现近邻的方法,是暴力brute,二维空间的距离树kd_tree还是球状树形结构ball_tree。这个参数主要是为了降低计算复杂度的,可以从O(N^2)降到O(n*log(n))。换句话说,无论哪种算法都会达到最后的结果,影响的只是性能。

leaf_size:配合两种_tree算法的。

random_state:不用。

结果展开说:

labels_:所有点的分类结果。无论核心点还是边界点,只要是同一个簇的都被赋予同样的label,噪声点为-1.
core_sample_indices_:核心点的索引,因为labels_不能区分核心点还是边界点,所以需要用这个索引确定核心点。

4. 应用场景和限制

是非监督的聚类算法。

对噪声点的容忍性非常好;而去簇的形状随意,不受线性方程的限制。

5. 参考

http://scikit-learn.org/stable/modules/generated/sklearn.cluster.DBSCAN.html#sklearn.cluster.DBSCAN.fit

http://blog.csdn.net/google19890102/article/details/37656733

    原文作者:聚类算法
    原文地址: https://blog.csdn.net/sandyzhs/article/details/46773731
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞