数据分类和聚类有什么区别

2024-11-07 19:19:58
推荐回答(5个)
回答1:

主要区别是,性质不同、目的不同、应用不同,具体如下:

一、性质不同

1、数据分类

数据分类就是把具有某种共同属性或特征的数据归并在一起,通过其类别的属性或特征来对数据进行区别。为了实现数据共享和提高处理效率,必须遵循约定的分类原则和方法,按照信息的内涵、性质及管理的要求,将系统内所有信息按一定的结构体系分为不同的集合,从而使得每个信息在相应的分类体系中都有一个对应位置。

2、数据聚类

数据聚类是指根据数据的内在性质将数据分成一些聚合类,每一聚合类中的元素尽可能具有相同的特性,不同聚合类之间的特性差别尽可能大。 

二、目的不同

1、数据分类

数据分类的目的是根据新数据对象的属性,将其分配到一个正确的类别中。

2、数据聚类

聚类分析的目的是分析数据是否属于各个独立的分组,使一组中的成员彼此相似,而与其他组中的成员不同。

三、应用不同

1、数据分类

应用于统计学、计算机控制。

2、数据聚类

广泛应用于机器学习,数据挖掘,模式识别,图像分析以及生物信息等。

以上内容参考 百度百科-数据分类、百度百科-数据聚类

回答2:

简单地说,分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。
简单地说,聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。

区别是,分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不确定。 聚类不需要人工标注和预先训练分类器,类别在聚类过程中自动生成 。分类适合类别或分类体系已经确定的场合,比如按照国图分类法分类图书;聚类则适合不存在分类体系、类别数不确定的场合,一般作为某些应用的前端,比如多文档文摘、搜索引擎结果后聚类(元搜索)等。
分类的目的是学会一个分类函数或分类模型(也常常称作分类器 ),该模型能把数据库中的数据项映射到给定类别中的某一个类中。 要构造分类器,需要有一个训练样本数据集作为输入。训练集由一组数据库记录或元组构成,每个元组是一个由有关字段(又称属性或特征)值组成的特征向量,此外,训练样本还有一个类别标记。一个具体样本的形式可表示为:(v1,v2,...,vn; c);其中vi表示字段值,c表示类别。分类器的构造方法有统计方法、机器学习方法、神经网络方法等等。
聚类(clustering)是指根据“物以类聚”原理,将本身没有类别的样本聚集成不同的组,这样的一组数据对象的集合叫做簇,并且对每一个这样的簇进行描述的过程。它的目的是使得属于同一个簇的样本之间应该彼此相似,而不同簇的样本应该足够不相似。与分类规则不同,进行聚类前并不知道将要划分成几个组和什么样的组,也不知道根据哪些空间区分规则来定义组。其目的旨在发现空间实体的属性间的函数关系,挖掘的知识用以属性名为变量的数学方程来表示。聚类技术正在蓬勃发展,涉及范围包括数据挖掘、统计学、机器学习、空间数据库技术、生物学以及市场营销等领域,聚类分析已经成为数据挖掘研究领域中一个非常活跃的研究课题。常见的聚类算法包括:K-均值聚类算法、K-中心点聚类算法、CLARANS、 BIRCH、CLIQUE、DBSCAN等。

回答3:

分类是已知类别。

聚类是未知类别。

典型的聚类分析一般包括三个阶段,特征选择、特征提取和数据对象见相似度的计算,可以对样品进行聚类也可以对变量进行聚类。具体划分如下:

K-means聚类

K-means聚类流程如下:

Step1:选择聚类个数k

Step2:生成k个聚类中心点

Step3:计算所有样本点到中心点的距离,根据距离进行聚类

Step4:进行迭代

Step5:重复迭代,达到收敛要求

K-means聚类算法效果分析一般可以看SSE指标、轮廓系数法、CH系数,需要分析人员在分析前进行多次对比从而达到模型更优的目的。

算法效果一般可以参考,SSE指标、轮廓系数、CH系数等等。

SSE指标(误差平方和):

误差平方和是指真实值和预测值的差,比如:

在聚类分析中的SSE计算如下:

从图片上来看SSE(左图)>SSE(右图),同时也可以看出左侧更稀疏右侧更密集,SSE想要达到最优解,还需要初始聚类中心的选择,否则只能达到一个局部最优解,初始聚类中心的选择可以参考“肘部法”,一般认为“拐点”即下降率突然变缓慢时,认为此点为最佳k值。比如:

轮廓系数(SC系数):

轮廓系数适用于实际类别信息未知的情况,结合凝聚度和分散度,计算如下:

CH系数:

利用协方差进行判断,类别内的协方差越小越好,类别之间的协方差越大越好,计算如下:

系统聚类

系统聚类按指标进行聚类,适用于小样本数据,其步骤如下:

  • 把每个指标各自归为一类,比如有n个样本,则为n类

  • 寻找最近的两个类,把它们归为一类,此时为n-1类

  • 重新计算距离,进行归类,直到所有样本归为一类,结束

  • 一般查看树状图进行查看数据分为几类更合适

  • 原理应用到pearson相关和欧式距离,其中欧式距离计算如下:

模糊聚类

模糊聚类,每个样本以一定的隶属度进行分类,首先进行构建模糊相似矩阵,不需要训练样本,一般计算原理使用夹角余弦法以及相关系数法。

回答4:

你好,
简单地说,分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。
简单地说,聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。

区别是,分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。聚类则没有事先预定的类别,类别数不确定。 聚类不需要人工标注和预先训练分类器,类别在聚类过程中自动生成 。分类适合类别或分类体系已经确定的场合,比如按照国图分类法分类图书;聚类则适合不存在分类体系、类别数不确定的场合,一般作为某些应用的前端,比如多文档文摘、搜索引擎结果后聚类(元搜索)等。
分类的目的是学会一个分类函数或分类模型(也常常称作分类器 ),该模型能把数据库中的数据项映射到给定类别中的某一个类中。 要构造分类器,需要有一个训练样本数据集作为输入。训练集由一组数据库记录或元组构成,每个元组是一个由有关字段(又称属性或特征)值组成的特征向量,此外,训练样本还有一个类别标记。一个具体样本的形式可表示为:(v1,v2,...,vn; c);其中vi表示字段值,c表示类别。分类器的构造方法有统计方法、机器学习方法、神经网络方法等等。
聚类(clustering)是指根据“物以类聚”原理,将本身没有类别的样本聚集成不同的组,这样的一组数据对象的集合叫做簇,并且对每一个这样的簇进行描述的过程。它的目的是使得属于同一个簇的样本之间应该彼此相似,而不同簇的样本应该足够不相似。与分类规则不同,进行聚类前并不知道将要划分成几个组和什么样的组,也不知道根据哪些空间区分规则来定义组。其目的旨在发现空间实体的属性间的函数关系,挖掘的知识用以属性名为变量的数学方程来表示。聚类技术正在蓬勃发展,涉及范围包括数据挖掘、统计学、机器学习、空间数据库技术、生物学以及市场营销等领域,聚类分析已经成为数据挖掘研究领域中一个非常活跃的研究课题。常见的聚类算法包括:K-均值聚类算法、K-中心点聚类算法、CLARANS、 BIRCH、CLIQUE、DBSCAN等。
希望回答对您有帮助.

回答5:

分类是指有监督的学习,即要分类的样本是有标记的,类别是已知的;聚类是指无监督的学习,样本没有标记,根据某种相似度度量把样本聚为k类。