基础理论-概率派 VS 贝叶斯派
发表于
本文字数: 1.9k 阅读时长 ≈ 2 分钟
本文字数: 1.9k 阅读时长 ≈ 2 分钟
概率图模型-HMM
发表于
本文字数: 9 阅读时长 ≈ 1 分钟
本文字数: 9 阅读时长 ≈ 1 分钟
概率图模型 - HMM
模型-KNN
发表于
本文字数: 632 阅读时长 ≈ 1 分钟
本文字数: 632 阅读时长 ≈ 1 分钟
模型-LDA
发表于
本文字数: 139 阅读时长 ≈ 1 分钟
本文字数: 139 阅读时长 ≈ 1 分钟
模型 - LDA
简介
LDA 叫做线性判别分析,又叫做Fisher 线性判别函数, 其是一种有监督的降维技术,其思想为:投影后类内方差最小,类间方差最大。
简单来说,我们将数据向低维超平面上投影时, 投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心点的距离尽可能的大。
模型-树回归
发表于
本文字数: 76 阅读时长 ≈ 1 分钟
本文字数: 76 阅读时长 ≈ 1 分钟
模型-聚类算法
发表于
本文字数: 4 阅读时长 ≈ 1 分钟
本文字数: 4 阅读时长 ≈ 1 分钟
聚类算法
模型-谱聚类
发表于
本文字数: 6 阅读时长 ≈ 1 分钟
本文字数: 6 阅读时长 ≈ 1 分钟
模型 - 谱聚类
降维度-PCA
发表于
本文字数: 270 阅读时长 ≈ 1 分钟
本文字数: 270 阅读时长 ≈ 1 分钟
降维 - PCA
QA
1. PCA 中第一主成分是第一的原因?
https://www.nowcoder.com/questionTerminal/7e9febebe3d3467ca5ea17e013d416f0
2. 讲一下 PCA
PCA是比较常见的线性降维方法,通过线性投影将高维数据映射到低维数据中。 所期望的是在投影的维度上,新特征自身的方差尽量大,方差越大特征越有效,尽量使产生的新特征间的相关性越小。
PCA算法的具体操作为对所有的样本进行中心化操作,计算样本的协方差矩阵,然后对协方差矩阵做特征值分解,取最大的n个特征值对应的特征向量构造投影矩阵。
集成学习-GBDT
发表于
本文字数: 234 阅读时长 ≈ 1 分钟
本文字数: 234 阅读时长 ≈ 1 分钟
