这涉及到矩阵乘法的问题,我们假设类别总数为N:由于矩阵中的的秩为1,因此SB的秩最多为N,即类别数目(矩阵的秩小于等于各个相加矩阵的秩的和)。又由于 和N个 不是线性无关的, 和前N-1个 可以表示出第N个 ,或者说可以通的线性组合表示出来,因此 的秩最多为N-1, 的秩最大也为N-1。而LDA的映射矩阵W为 进行特征值求解的特征矩阵所组成。由于秩为N-1,那么不为0的特征值个数为则不大于N-1,因此有用的特征向量个数也不大于N-1。故其降维后的特征维度也不大于N-1。也就是对于2类,只能降维为1维。
为什么线性判别分析的降维维数不能大于类别数减一
常识录
人气:1.79W
猜你喜欢
- 1数值分析和数学分析哪个难
- 2批判性思维属于什么思维 批判性思维属于什么思维
- 3余数不能大于什么数
- 4一维数组和二维数组的区别
- 5三维和四维的区别 三维和四维有什么不同
- 6为什么虾和维c不能一起食用于
- 7减数分裂与有丝分裂的区别是什么
- 8被减数不变减数越大差越什么
- 9数学一次函数思维导图模板分享
- 10惯性思维与定向思维的含义与区别
- 11考研的数一与数三到底有多大区别
- 12什么是线性分析和非线性分析
- 13被减数减去减数等于什么
- 14自主招生分数线就是一本分数线吗
- 15指数函数a为什么不能小于0
- 16数学判定与性质区别
- 17向量组的维数怎么判断
- 18不可数名词分为几大类
- 19指数函数为什么a一定要大于0
- 20三维和四维的区别是什么
更多推荐