上次我介绍了分类器的使用方法,这次我来介绍一下聚类算法。聚类算法在数据挖掘里面被称之为无监督学习(unsupervised learning),这是与分类算法(supervised learning)相对的。在它们两者之间还一种叫做半监督学习(semi-supervised learning)这个我会在后面的文章中重点介绍。所谓无监督学习就是在预先不知道样本类别的情况下,由聚类算法来判别样本的类别的一种学习方法。
聚类算法的一般过程分为:
1. 读入需预测样本
2. 初始化聚类算法(并设置参数)
3. 使用聚类算法对样本进行聚类
4. 打印聚类结果
我们来看下面的一个实例:
package com.csdn;
import java.io.File;
import weka.clusterers.SimpleKMeans;
import weka.core.DistanceFunction;
import weka.core.EuclideanDistance;
import weka.core.Instances;
import weka.core.converters.ArffLoader;
public class SimpleCluster {
/**
* @param args
*/
public static void main(String[] args) {
// TODO Auto-generated method stub
Instances ins = null;
Instances tempIns = null;
SimpleKMeans KM = null;
DistanceFunction disFun = null;
try{
/*
* 1.读入样本
*/
File file= new File(“C://Program Files//Weka-3-6//data//contact-lenses.arff”);
ArffLoader loader = new ArffLoader();
loader.setFile(file);
ins = loader.getDataSet();
/*
* 2.初始化聚类器
* 在3.6版本可以通过setDistanceFunction(DistanceFunction df)
* 函数设置聚类算法内部的距离计算方式
* 而在3.5版本里面默认的采用了欧几里得距离
*/
KM = new SimpleKMeans();
//设置聚类要得到的类别数量
KM.setNumClusters(2);
/*
* 3.使用聚类算法对样本进行聚类
*/
KM.buildClusterer(ins);
/*
* 4.打印聚类结果
*/
tempIns = KM.getClusterCentroids();
System.out.println(“CentroIds: “ + tempIns);
}catch(Exception e){
e.printStackTrace();
}
}
}
我们可以看到读入样本的过程是与上一节的一样的方法。在构建聚类器时也是通过现有的类来实现的。现在weka的聚类算法有11种之多,我所了解的也就是一两种算法而已。SimpleKMean是最简单的KMeans算法,因为聚类算法的核心是通过距离来得到类别(类间相异,类内相似),所以需要有一个计算距离的公式常见的就是欧几里得距离了。在3.5版本中weka没有考虑其它距离公式的情况,将SimpleKMean计算距离的方法默认为欧几里得距离。在3.6中就weka提供了setDistanceFunction(DistanceFunction df)的接口可以方便我们设置自己的距离计算方法。
有一点要注意,在上面的聚类过程中,我们将样本的类别属性也放在里面了,这样做是不符合常识的,因为样本类别属性包含了大量的类别信息,可以诱导聚类算法得到很好的效果。但是这与我们的初衷是相背离的,所以在聚类之前我们要记住删除掉类别属性。
在第四步打印聚类结果是一个很简单的信息,里面包括了聚类的几个中心点。在我们写程序时,可以使用ClusterEvaluation类来打印更多的信息。