欢迎来到得力文库 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
得力文库 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    聚类分析与判别分析.pdf

    • 资源ID:69677439       资源大小:1,023.11KB        全文页数:84页
    • 资源格式: PDF        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    聚类分析与判别分析.pdf

    聚类分析与判别分析介绍:介绍:1、聚类分析、聚类分析2、判别分析、判别分析分类学是人类认识世界的基础科学。聚类分析和判别分析是研究事物分类的基本方法,广泛地应用于自然科学、社会科学、工农业生产的各个领域。分类学是人类认识世界的基础科学。聚类分析和判别分析是研究事物分类的基本方法,广泛地应用于自然科学、社会科学、工农业生产的各个领域。14.1.1 聚类分析根据事物本身的特性研究个体分类的方法,原则是同一类中的个体有较大的相似性,不同类中的个体差异很大。根据事物本身的特性研究个体分类的方法,原则是同一类中的个体有较大的相似性,不同类中的个体差异很大。根据分类对象的不同,分为样品(观测量)聚类和变量聚类两种:根据分类对象的不同,分为样品(观测量)聚类和变量聚类两种:?样品聚类:对观测量样品聚类:对观测量(Case)进行聚类(不同的目的选用不同的指标作为分类的依据,如选拔运动员与分课外活动小组)进行聚类(不同的目的选用不同的指标作为分类的依据,如选拔运动员与分课外活动小组)?变量聚类:找出彼此独立且有代表性的自变量,而又不丢失大部分信息。在生产活动中不乏有变量聚类的实例,如:衣服号码(身长、胸围、裤长、腰围)、鞋的号码。变量聚类使批量生产成为可能。变量聚类:找出彼此独立且有代表性的自变量,而又不丢失大部分信息。在生产活动中不乏有变量聚类的实例,如:衣服号码(身长、胸围、裤长、腰围)、鞋的号码。变量聚类使批量生产成为可能。14.1.2 判别分析判别分析是根据表明事物特点的变量值和它们所属的类,求出判别函数。根据判别函数对未知所属类别的事物进行分类的一种分析方法。判别分析是根据表明事物特点的变量值和它们所属的类,求出判别函数。根据判别函数对未知所属类别的事物进行分类的一种分析方法。在自然科学和社会科学的各个领域经常遇到需要对某个个体属于哪一类进行判断。如动物学家对动物如何分类的研究和某个动物属于哪一类、目、纲的判断。在自然科学和社会科学的各个领域经常遇到需要对某个个体属于哪一类进行判断。如动物学家对动物如何分类的研究和某个动物属于哪一类、目、纲的判断。不同:判别分析和聚类分析不同的在于判别分析要求已知一系列反映事物特征的数值变量的值,并且已知各个体的分类(不同:判别分析和聚类分析不同的在于判别分析要求已知一系列反映事物特征的数值变量的值,并且已知各个体的分类(训练样本训练样本)。)。14.1.3 聚类分析与判别分析的SPSS过程在在Analyze?Classify下:下:1.K-Means Cluster:观测量快速聚类分析过程:观测量快速聚类分析过程2.Hierarchical Cluster:分层聚类(进行观测量聚类和变量聚类的过程:分层聚类(进行观测量聚类和变量聚类的过程3.Discriminant:进行判别分析的过程:进行判别分析的过程14.2 快速样本聚类过程(Quick Cluster)使用使用 k 均值分类法对观测量进行聚类均值分类法对观测量进行聚类可使用系统的默认选项或自己设置选项,如分为几类、指定初始类中心、是否将聚类结果或中间数据数据存入数据文件等。可使用系统的默认选项或自己设置选项,如分为几类、指定初始类中心、是否将聚类结果或中间数据数据存入数据文件等。快速聚类实例快速聚类实例(P342,data14-01a):使用系统的默认值进行:对运动员的分类(分为使用系统的默认值进行:对运动员的分类(分为4类)类)?Analyze?Classify?K-Means Cluster?Variables:x1,x2,x3?Label Case By:no?Number of Cluster:4?比较有用的结果:聚类结果形成的最后四类中心点比较有用的结果:聚类结果形成的最后四类中心点(Final Cluster Centers)和每类的观测量数目(和每类的观测量数目(Number of Cases in each Cluster)?但不知每个运动员究竟属于哪一类?这就要用到但不知每个运动员究竟属于哪一类?这就要用到Save选项选项14.2 快速样本聚类过程(Quick Cluster)中的选项使用快速聚类的选择项:使用快速聚类的选择项:?类中心数据的输入与输出:类中心数据的输入与输出:Centers选项选项?输出数据选择项:输出数据选择项:Save选项选项?聚类方法选择项:聚类方法选择项:Method选项选项?聚类何时停止选择项:聚类何时停止选择项:Iterate选项选项?输出统计量选择项:输出统计量选择项:Option选项选项14.2 指定初始类中心的聚类方法例题P343数据同上(数据同上(data14-01a):以四个四类成绩突出者的数据为初始聚类中心):以四个四类成绩突出者的数据为初始聚类中心(种子种子)进行聚类。类中心数据文件进行聚类。类中心数据文件data14-01b(但缺一列(但缺一列Cluster_,不能直接使用,要修改),不能直接使用,要修改)。对运动员的分类(还是分为。对运动员的分类(还是分为4类)类)Analyze?Classify?K-Means Cluster?Variables:x1,x2,x3?Label Case By:no?Number of Cluster:4?Center:Read initial from:data14-01b?Save:Cluster membership和和Distance from Cluster Center?比较有用的结果(可将结果与前面没有初始类中心比较):比较有用的结果(可将结果与前面没有初始类中心比较):?聚类结果形成的最后四类中心点聚类结果形成的最后四类中心点(Final Cluster Centers)?每类的观测量数目(每类的观测量数目(Number of Cases in each Cluster)?在数据文件中的两个新变量在数据文件中的两个新变量qc1_1(每个观测量最终被分配到哪一类)和(每个观测量最终被分配到哪一类)和 qc1_2(观测量与所属类中心点的距离)(观测量与所属类中心点的距离)14.3 分层聚类(Hierarchical Cluster)分层聚类方法:分层聚类方法:?分解法分解法:先视为一大类,再分成几类先视为一大类,再分成几类?凝聚法凝聚法:先视每个为一类先视每个为一类,再合并为几大类再合并为几大类可用于观测量可用于观测量(样本样本)聚类聚类(Q型型)和变量聚类和变量聚类(R型型)一般分为两步(自动一般分为两步(自动,可从可从Paste的语句知道的语句知道,P359):):?Proximities:先对数据进行的预处理:先对数据进行的预处理(标准化和计算距离等标准化和计算距离等)?Cluster:然后进行聚类分析:然后进行聚类分析两种统计图:树形图两种统计图:树形图(Dendrogram)和冰柱图和冰柱图(Icicle)各类型数据的标准化、距离和相似性计算各类型数据的标准化、距离和相似性计算P348-354?定距变量、分类变量、二值变量定距变量、分类变量、二值变量?标准化方法标准化方法p353:Z Scores、Range-1 to 1、Range 0 to 1等等14.3.4 用分层聚类法进行观测量聚类实例P358对对20种啤酒进行分类种啤酒进行分类(data14-02),变量包括:变量包括:Beername(啤酒名称啤酒名称)、calorie(热量热量)、sodium(钠含量钠含量)、alcohol(酒精含量酒精含量)、cost(价格价格)AnalyzeClassify Hierarchical Cluster:?Variables:calorie,sodium,alcohol,cost 成分和价格成分和价格?Label Case By:Beername?Cluster:Case,Q聚类聚类?Display:选中选中Statistics,单击,单击Statistics?Agglomeration Schedule 凝聚状态表Agglomeration Schedule 凝聚状态表?Proximity matrix:距离矩阵Proximity matrix:距离矩阵?Cluster membership:Cluster membership:Single solution:4 显示分为4类时,各观测量所属的类Single solution:4 显示分为4类时,各观测量所属的类?Method:Cluster(Furthest Neighbor),Measure-Interval(Squared Euclidean distance),Transform Value(Range 0-1/By variable(值值-最小值最小值)/极差极差)?Plots:(Dendrogram)Icicle(Specified range of cluster,Start-1,Stop-4,by-1),Orientation(Vertical纵向作图纵向作图)?Save:Cluster Membership(Single solution 4)?比较有用的结果:根据需要进行分类,在数据文件中的分类新变量比较有用的结果:根据需要进行分类,在数据文件中的分类新变量clu4_1等等14.3.5 用分层聚类法进行变量聚类变量聚类,是一种降维的方法,用于在变量众多时寻找有代表性的变量,以便在用少量、有代表性的变量代替大变量集时,损失信息很少。变量聚类,是一种降维的方法,用于在变量众多时寻找有代表性的变量,以便在用少量、有代表性的变量代替大变量集时,损失信息很少。与进行观测量聚类雷同,不同点在于:与进行观测量聚类雷同,不同点在于:?选择选择Variable而非而非Case?Save选项失效,不建立的新变量选项失效,不建立的新变量14.3.6 变量聚类实例1 P366上面啤酒分类问题上面啤酒分类问题data14-02。AnalyzeClassify Hierarchical Cluster:?Variables:calorie,sodium,alcohol,cost 成分和价格成分和价格?Cluster:Variable,R聚类聚类?Method:?Cluster Method:Furthest Neighbor?Measure-Interval:Pearson Correlation?Transform Values:Z Score(By Variable)?Plots:Dendrogram 树型图树型图?Statistics:Proximity matrix:相关矩阵Proximity matrix:相关矩阵?比较有用的结果:根据相关矩阵和树型图,可知比较有用的结果:根据相关矩阵和树型图,可知calorie(热量热量)和和alcohol(酒精含量酒精含量)的相关系数最大,首先聚为一类。从整体上看,聚为三类是比较好的结果。至于热量和酒精含量选择哪个作为典型指标代替原来的两个变量,可以根据专业知识或测度的难易程度决定。的相关系数最大,首先聚为一类。从整体上看,聚为三类是比较好的结果。至于热量和酒精含量选择哪个作为典型指标代替原来的两个变量,可以根据专业知识或测度的难易程度决定。14.3.6 变量聚类实例2 P368有有10个测试项目,分别用变量个测试项目,分别用变量X1-X10表示,表示,50名学生参加测试。想从名学生参加测试。想从10个变量中选择几个典型指标。个变量中选择几个典型指标。data14-03AnalyzeClassify Hierarchical Cluster:?Variables:X1-X10?Cluster:Variable,R聚类聚类?Method:?Cluster Method:Furthest Neighbor?Measure-Interval:Pearson Correlation?Plots:Dendrogram 树型图树型图?Statistics:Proximity matrix相关矩阵Proximity matrix相关矩阵?比较有用的结果:可以从树型图中看出聚类过程。具体聚为几类最为合理,根据专业知识来定。而每类中的典型指标的选择,可用比较有用的结果:可以从树型图中看出聚类过程。具体聚为几类最为合理,根据专业知识来定。而每类中的典型指标的选择,可用p370的相关指数公式的计算,然后比较类中各个变量间的相关指数,哪个大,就选哪个变量作为此类的代表变量。的相关指数公式的计算,然后比较类中各个变量间的相关指数,哪个大,就选哪个变量作为此类的代表变量。14.4 判别分析P374判别分析的概念:是根据观测到的若干变量值,判断研究对象如何分类的方法。判别分析的概念:是根据观测到的若干变量值,判断研究对象如何分类的方法。要先建立判别函数要先建立判别函数 Y=a1x1+a2x2+.anxn,其中,其中:Y为判别分数为判别分数(判别值判别值),x1 x2.xn为反映研究对象特征的变量,为反映研究对象特征的变量,a1 a2.an为系数为系数SPSS对于分为对于分为m类的研究对象,建立类的研究对象,建立m个线性判别函数。对于每个个体进行判别时,把观测量的各变量值代入判别函数,得出判别分数,从而确定该个体属于哪一类,或计算属于各类的概率,从而判别该个体属于哪一类。还建立标准化和未标准化的典则判别函数。个线性判别函数。对于每个个体进行判别时,把观测量的各变量值代入判别函数,得出判别分数,从而确定该个体属于哪一类,或计算属于各类的概率,从而判别该个体属于哪一类。还建立标准化和未标准化的典则判别函数。具体见下面具体见下面吴喜之教授有关判别分析判别分析的讲义补充:补充:聚类分析与判别分析以下的讲义是吴喜之教授有关聚类分析与判别分析聚类分析与判别分析的讲义,我觉得比书上讲得清楚。先是聚类分析一章先是聚类分析一章再是判别分析一章再是判别分析一章聚类分析聚类分析分类分类俗语说,物以类聚、人以群分。俗语说,物以类聚、人以群分。但什么是分类的根据呢?但什么是分类的根据呢?比如,要想把中国的县分成若干类,就有很多种分类法;比如,要想把中国的县分成若干类,就有很多种分类法;可以按照自然条件来分,可以按照自然条件来分,比如考虑降水、土地、日照、湿度等各方面;比如考虑降水、土地、日照、湿度等各方面;也可以考虑收入、教育水准、医疗条件、基础设施等指标;也可以考虑收入、教育水准、医疗条件、基础设施等指标;既可以用某一项来分类,也可以同时考虑多项指标来分类。既可以用某一项来分类,也可以同时考虑多项指标来分类。聚类分析聚类分析对于一个数据,人们既可以对变量(指标)进行分类对于一个数据,人们既可以对变量(指标)进行分类(相当于对数据中的列分类相当于对数据中的列分类),也可以对观测值(事件,样品)来分类(相当于对数据中的行分类)。,也可以对观测值(事件,样品)来分类(相当于对数据中的行分类)。比如学生成绩数据就可以对学生按照理科或文科成绩(或者综合考虑各科成绩)分类,比如学生成绩数据就可以对学生按照理科或文科成绩(或者综合考虑各科成绩)分类,当然,并不一定事先假定有多少类,完全可以按照数据本身的规律来分类。当然,并不一定事先假定有多少类,完全可以按照数据本身的规律来分类。本 章 要 介 绍 的 分 类 的 方 法 称 为 聚 类 分 析(本 章 要 介 绍 的 分 类 的 方 法 称 为 聚 类 分 析(cluster analysis)。对变量的聚类称为)。对变量的聚类称为R型聚类,而对观测值聚类称为型聚类,而对观测值聚类称为Q型聚类。这两种聚类在数学上是对称的,没有什么不同。型聚类。这两种聚类在数学上是对称的,没有什么不同。饮料数据(饮料数据(drink.sav)16种饮料的热量、咖啡因、钠及价格四种变量如何度量远近?如何度量远近?如果想要对100个学生进行分类,如果仅仅知道他们的数学成绩,则只好按照数学成绩来分类;这些成绩在直线上形成100个点。这样就可以把接近的点放到一类。如果还知道他们的物理成绩,这样数学和物理成绩就形成二维平面上的100个点,也可以按照距离远近来分类。三维或者更高维的情况也是类似;只不过三维以上的图形无法直观地画出来而已。在饮料数据中,每种饮料都有四个变量值。这就是四维空间点的问题了。两个距离概念两个距离概念按照远近程度来聚类需要明确两个概念:一个是按照远近程度来聚类需要明确两个概念:一个是点和点之间点和点之间的距离,一个是的距离,一个是类和类之间类和类之间的距离。的距离。点间距离有很多定义方式。最简单的是歐氏距离,还有其他的距离。点间距离有很多定义方式。最简单的是歐氏距离,还有其他的距离。当然还有一些和距离相反但起同样作用的概念,比如相似性等,两点越相似度越大,就相当于距离越短。当然还有一些和距离相反但起同样作用的概念,比如相似性等,两点越相似度越大,就相当于距离越短。由一个点组成的类是最基本的类;如果每一类都由一个点组成,那么点间的距离就是类间距离。但是如果某一类包含不止一个点,那么就要确定类间距离,由一个点组成的类是最基本的类;如果每一类都由一个点组成,那么点间的距离就是类间距离。但是如果某一类包含不止一个点,那么就要确定类间距离,类间距离是基于点间距离定义的:比如类间距离是基于点间距离定义的:比如两类之间最近点之间的距离两类之间最近点之间的距离可以作为这两类之间的距离,也可以用可以作为这两类之间的距离,也可以用两类中最远点之间的距离两类中最远点之间的距离作为这两类之间的距离;当然也可以用各类的中心之间的距离来作为类间距离。在计算时,各种点间距离和类间距离的选择是通过统计软件的选项实现的。不同的选择的结果会不同,但一般不会差太多。作为这两类之间的距离;当然也可以用各类的中心之间的距离来作为类间距离。在计算时,各种点间距离和类间距离的选择是通过统计软件的选项实现的。不同的选择的结果会不同,但一般不会差太多。向量向量x=(x1,xp)与与y=(y1,yp)之间的距离或相似系数之间的距离或相似系数:2()iiixy欧氏距离欧氏距离:Euclidean平方欧氏距离平方欧氏距离:Squared Euclidean2()iiixy夹角余弦夹角余弦(相似系数相似系数1):cosine22(1)cosiiixyxyiiiix yCxy=Pearson correlation(相似系数相似系数2):Chebychev:Maxi|xi-yi|Block(绝对距离绝对距离):i|xi-yi|Minkowski:1()qqiiixy当变量的测量值相差悬殊时当变量的测量值相差悬殊时,要先进行标准化要先进行标准化.如如R为极差为极差,s 为标准差为标准差,则标准化的数据为每个观测值减去均值后再除以则标准化的数据为每个观测值减去均值后再除以R或或s.当观测值大于当观测值大于0时时,有人采用有人采用Lance和和Williams的距离的距离|1iiiiixypxy+22()()(2)()()iiixyxyiiiixxyyCrxxyy=类类Gp与类与类Gq之间的距离之间的距离Dpq(d(xi,xj)表示点表示点xi Gp和和xj Gq之间的距离之间的距离)min(,)pqijDd x x=最短距离法最短距离法:最长距离法最长距离法:重心法重心法:离差平方和离差平方和:(Wald)类平均法类平均法:(中间距离中间距离,可变平均法可变平均法,可变法等可参考各书可变法等可参考各书).在用欧氏距离时在用欧氏距离时,有统一的递推公式有统一的递推公式(假设假设Gr是从是从Gp和和Gq合并而来合并而来):121 21 212()(),()(),()()ipjqkpqipipjqjqxGxGkipqxGGDxxxxDxxxxDxxxxDDDD+=max(,)pqijDd x x=min(,)pqpqDd xx=121(,)ipjqpqijxGxGDd x xn n=Lance和和Williams给出给出(对欧氏距离对欧氏距离)统一统一递推递推公式公式:D2(k,r)=pD2(k,p)+qD2(k,q)+D2(p,q)+|D2(k,p)-D2(k,q)|前面方法的递推公式可选择参数而得前面方法的递推公式可选择参数而得:方法方法 i(i=p,q)最短距离最短距离0-1/2最长距离最长距离01/2重心重心ni/nr-p q0类平均类平均ni/nr00离差平方和离差平方和(ni+nk)/(nr+nk)-nk/(nr+nk)0中间距离中间距离1/2-1/40可变法可变法(1-)/2(1)0可变平均可变平均(1-)ni/nr(1)0有了上面的点间距离和类间距离的概念,就可以介绍聚类的方法了。这里介绍两个简单的方法。有了上面的点间距离和类间距离的概念,就可以介绍聚类的方法了。这里介绍两个简单的方法。事先要确定分多少类:事先要确定分多少类:k-均值聚类均值聚类前面说过,聚类可以走着瞧,不一定事先确定有多少类;但是这里的前面说过,聚类可以走着瞧,不一定事先确定有多少类;但是这里的k-均值聚类(均值聚类(k-means cluster,也叫快速聚类,也叫快速聚类,quick cluster)却要求你先说好要分多少类。看起来有些主观,是吧!)却要求你先说好要分多少类。看起来有些主观,是吧!假定你说分假定你说分3类,这个方法还进一步要求你事先确定类,这个方法还进一步要求你事先确定3个点为个点为“聚类种子聚类种子”(SPSS软件软件自动自动为你选种子为你选种子);也就是说,把这;也就是说,把这3个点作为三类中每一类的基石。个点作为三类中每一类的基石。然后,根据和这三个点的距离远近,把所有点分成三类。再把这三类的中心(均值)作为新的基石或种子(原来的然后,根据和这三个点的距离远近,把所有点分成三类。再把这三类的中心(均值)作为新的基石或种子(原来的“种子种子”就没用了),重新按照距离分类。就没用了),重新按照距离分类。如此叠代下去,直到达到停止叠代的要求(比如,各类最后变化不大了,或者叠代次数太多了)。显然,前面的聚类种子的选择并不必太认真,它们很可能最后还会分到同一类中呢。下面用饮料例的数据来做如此叠代下去,直到达到停止叠代的要求(比如,各类最后变化不大了,或者叠代次数太多了)。显然,前面的聚类种子的选择并不必太认真,它们很可能最后还会分到同一类中呢。下面用饮料例的数据来做k-均值聚类。均值聚类。假定要把这16种饮料分成3类。利用SPSS,只叠代了三次就达到目标了(计算机选的种子还可以)。这样就可以得到最后的三类的中心以及每类有多少点假定要把这16种饮料分成3类。利用SPSS,只叠代了三次就达到目标了(计算机选的种子还可以)。这样就可以得到最后的三类的中心以及每类有多少点Final Cluster CentersFinal Cluster Centers203.1033.71107.341.654.163.4913.0510.068.763.152.692.94CALORIECAFFEINESODIUMPRICE123ClusterNumber of Cases in each ClusterNumber of Cases in each Cluster2.0007.0007.00016.000.000123ClusterValidMissing根据需要,可以输出哪些点分在一起。结果是:第一类为饮料根据需要,可以输出哪些点分在一起。结果是:第一类为饮料1、10;第二类为饮料;第二类为饮料2、4、8、11、12、13、14;第三类为剩下的饮料;第三类为剩下的饮料3、5、6、7、9、15、16。SPSS实现SPSS实现(聚类分析)(聚类分析)K-均值聚类均值聚类以数据以数据drink.sav为例,在为例,在SPSS中选择中选择AnalyzeClassifyK-MenasCluster,然后把然后把calorie(热量)、(热量)、caffeine(咖啡因)、(咖啡因)、sodium(钠)、(钠)、price(价格)选入(价格)选入Variables,在在Number of Clusters处选择处选择3(想要分的类数),(想要分的类数),如果想要知道哪种饮料分到哪类,则选如果想要知道哪种饮料分到哪类,则选Save,再选,再选Cluster Membership等。等。注意注意k-均值聚类只能做均值聚类只能做Q型聚类,如要做型聚类,如要做R型聚类,需要把数据阵进行转置。型聚类,需要把数据阵进行转置。事先不用确定分多少类:分层聚类事先不用确定分多少类:分层聚类另一种聚类称为分层聚类或系统聚类(另一种聚类称为分层聚类或系统聚类(hierarchical cluster)。开 始时,有多少点就是多少类。)。开 始时,有多少点就是多少类。它第一步先把最近的两类(点)合并成一类,然后再把剩下的最近的两类合并成一类;它第一步先把最近的两类(点)合并成一类,然后再把剩下的最近的两类合并成一类;这样下去,每次都少一类,直到最后只有一大类为止。显然,越是后来合并的类,距离就越远。再对饮料例子来实施分层聚类。这样下去,每次都少一类,直到最后只有一大类为止。显然,越是后来合并的类,距离就越远。再对饮料例子来实施分层聚类。对于我们的数据,SPSS输出的树型图为对于我们的数据,SPSS输出的树型图为聚类要注意的问题聚类要注意的问题聚类结果主要受所选择的变量影响。如果去掉一些变量,或者增加一些变量,结果会很不同。聚类结果主要受所选择的变量影响。如果去掉一些变量,或者增加一些变量,结果会很不同。相比之下,聚类方法的选择则不那么重要了。因此,聚类之前一定要目标明确。相比之下,聚类方法的选择则不那么重要了。因此,聚类之前一定要目标明确。另外就分成多少类来说,也要有道理。只要你高兴,从分层聚类的计算机结果可以得到任何可能数量的类。但是,聚类的目的是要使各类距离尽可能的远,而类中点的距离尽可能的近,而且分类结果还要有令人信服的解释。这一点就不是数学可以解决的了。另外就分成多少类来说,也要有道理。只要你高兴,从分层聚类的计算机结果可以得到任何可能数量的类。但是,聚类的目的是要使各类距离尽可能的远,而类中点的距离尽可能的近,而且分类结果还要有令人信服的解释。这一点就不是数学可以解决的了。SPSS实现SPSS实现(聚类分析)(聚类分析)分层聚类对 drink.sav 数 据 在 SPSS 中 选 择 Analyze ClassifyHierarchical Cluster,然后把 calorie(热量)、caffeine(咖啡因)、sodium(钠)、price(价格)选入Variables,在Cluster选Cases(这是Q型聚类:对观测值聚类),如果要对变量聚类(R型聚类)则选Variables,为了画出树状图,选Plots,再点Dendrogram等。啤酒成分和价格数据(啤酒成分和价格数据(data14-02)啤酒名热量钠含量酒精价格啤酒名热量钠含量酒精价格Budweiser 144.0019.004.70.43 Schlitz 181.0019.004.90.43 Ionenbrau157.0015.004.90.48 Kronensourc170.007.005.20.73 Heineken 152.0011.005.00.77 Old-milnaukee145.0023.004.60.26 Aucsberger175.0024.005.50.40 Strchs-bohemi149.0027.004.70.42 Miller-lite99.0010.004.30.43 Sudeiser-lich113.006.003.70.44 Coors 140.0016.004.60.44 Coorslicht102.0015.004.10.46 Michelos-lich135.0011.004.20.50 Secrs150.0019.004.70.76 Kkirin149.006.005.00.79 Pabst-extra-l68.0015.002.30.36 Hamms136.0019.004.40.43 Heilemans-old144.0024.004.90.43 Olympia-gold-72.006.002.90.46 Schlite-light97.007.004.20.47StatisticsClassify Hierarchical Cluster:Variables:啤酒名和成分价格等Cluster(Case,Q型聚类)Display:(Statistics)(Agglomeration Schedule凝聚状态表),(Proximity matrix),Cluster membership(Single solution,4)Method:Cluster(Furthest Neighbor),Measure-Interval(Squared Euclidean distance),Transform Value(Range 0-1/By variable(值-最小值)/极差)Plots:(Dendrogram)Icicle(Specified range of cluster,Start-1,Stop-4,by-1),Orientation(Vertical)Save:Cluster Membership(Single solution 4)啤酒例子啤酒例子下表下表(Proximity matrix)中行列交叉点为两种啤酒之间各变量的欧氏距离平方和中行列交叉点为两种啤酒之间各变量的欧氏距离平方和Case Processing SummaryCase Processing Summarya a20100.0%0.0%20100.0%NPercentNPercentNPercentValidMissingTotalCases Squared Euclidean Distance useda.Proximity MatrixProximity Matrix.000.111.062.724.570.140.198.147.358.556.023.213.193.391.8551.069.014.0611.109.530.111.000.090.665.623.249.098.230.745.886.161.591.376.467.9261.714.183.1641.708.933.062.090.000.390.339.337.267.348.364.482.039.301.123.323.5321.332.104.2061.142.475.724.665.390.000.0711.4511.0541.308.815.776.589.885.418.385.0542.269.8001.0371.531.756.570.623.339.071.0001.272.9361.026.682.729.471.653.345.155.0591.899.612.8011.331.656.140.249.3371.4511.272.000.222.130.661.930.228.457.555.929 1.6721.162.149.1141.497.934.198.098.2671.054.936.222.000.1371.0411.358.326.805.709.630 1.3542.086.297.1142.2391.314.147.230.3481.3081.026.130.137.000.8671.201.283.540.643.557 1.4961.416.168.0271.7861.152.358.745.364.815.682.6611.041.867.000.087.222.065.122.791.741.540.292.638.288.027.556.886.482.776.729.9301.3581.201.087.000.363.210.132.953.703.556.473.951.196.050.023.161.039.589.471.228.326.283.222.363.000.141.087.394.685.948.026.156.873.347.213.591.301.885.653.457.805.540.065.210.141.000.128.572.823.443.139.388.395.148.193.376.123.418.345.555.709.643.122.132.087.128.000.428.434.810.167.455.538.153.391.467.323.385.155.929.630.557.791.953.394.572.428.000.3951.695.412.4511.496.870.855.926.532.054.0591.6721.3541.496.741.703.685.823.434.395.0002.068.8931.1991.283.6411.069 1.7141.3322.2691.8991.1622.0861.416.540.556.948.443.810 1.695 2.068.000.8471.314.256.607.014.183.104.800.612.149.297.168.292.473.026.139.167.412.893.847.000.086.927.455.061.164.2061.037.801.114.114.027.638.951.156.388.455.451 1.1991.314.086.0001.535.8821.109 1.7081.1421.5311.3311.4972.2391.786.288.196.873.395.538 1.496 1.283.256.9271.535.000.217.530.933.475.756.656.9341.3141.152.027.050.347.148.153.870.641.607.455.882.217.000Case1:Budwei2:Schlit3:Ionenbr4:Kronen5:Heinek6:Old-mi7:Aucsber8:Strchs-9:Miller-10:Sudei11:Coors12:Coors13:Miche14:Secrs15:Kkirin16:Pabst-17:Hamms18:Heilem19:Olymp20:SchliBudweis SchlitIonenbr4:onensourHeinek6:d-milnaukAucsberg8:rchs-bohe9:ller-lit10:deiser-li 1:Coor12:oorslich13:chelos-li 4:Secr:Kkiri16:bst-extra 7:Hamm18:ilemans-o19:ympia-gol20:hlite-lig Squared Euclidean DistanceThis is a dissimilarity matrix凝聚过程凝聚过程:Coefficients为不相似系数为不相似系数,由于是欧氏距离由于是欧氏距离,小的先合并小的先合并.Agglomeration ScheduleAgglomeration Schedule117.014002111.0261011818.0270010920.027007415.05400645.0715016910.087401223.09000111213.128001268.130031312.1832815912.210791767.222100151619.256001716.348111318414.3956018916.810121419141.672151619192.26918170Stage12345678910111213141516171819Cluster 1Cluster 2Cluster CombinedCoefficientsCluster 1Cluster 2Stage Cluster FirstAppearsNext Stage分为四

    注意事项

    本文(聚类分析与判别分析.pdf)为本站会员(asd****56)主动上传,得力文库 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知得力文库 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于得利文库 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

    © 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

    黑龙江省互联网违法和不良信息举报
    举报电话:0468-3380021 邮箱:hgswwxb@163.com  

    收起
    展开