品管人生
推荐 0
浏览 278
我对随机梯度下降的理解(二)
随机梯度下降算法是为了解决深度学习中多元目标函数的最优值问题,已经有很多该算法的变种算法。下面我来介绍七种常见的随机梯度下降算法。算法一:最基本的随机梯度下降算法在最基本的随机梯度下降算法中,参数每一步通过减去它的梯度来更新的,通常需要首先打乱训练样本,然后将它们划分为一定数量的mini-batch,如果mini-b
品管人生
推荐 0
浏览 233
我对随机梯度下降的理解(一)
随机梯度下降算法是深度学习中最常用的算法。梯度下降算法其实也很好理解,以简单的二元函数为例,如果我们想找到二元函数的极值,一般第一步我们是对该二元函数求导,然后令其为0,找出此时自变量的值,将该自变量代入函数式,即可求出该函数的极值。那么在深度学习中,针对实际问题,我们首先需要建立一个模型,然后确定一个目标函数。目标
品管人生
推荐 0
浏览 199
我对GMM的理解(二)
今天谈谈混合高斯分布中的参数估计。 对于一个混合高斯分布,具有三个基本的参数,它们分别是:权重向量、均值向量、协方差矩阵。 对于以上三个的估计称为参数估计,又称为参数学习。 混合高斯模型的重点在于参数估计,即如何确定最优的权重向量、均值向量、协方差矩阵。 参数估计所使用的方法是最大似然(ML)的方法,或者说是期望最
品管人生
推荐 0
浏览 247
我对GMM的理解(一)
今天讲讲混合高斯分布。 在概率论中,随机变量是一个经常遇到的概念。那么什么是随机变量呢?随机变量其实是一种映射:从随机试验到变量的关系。 随机变量通常分为离散型和连续型。刻画连续型随机变量的一类常见的函数是概率密度函数(PDF),概率密度函数其实是一种极限的思想,在某个事件上的概率密度是在某个事件取值的概率与事件区
集运物流
推荐 0
浏览 211
K-最近邻算法的应用
今天要讲的一个机器学习算法是K最近邻算法。 设想你想了解一个陌生人的饮食风格,如果你对他所知无几,那么最容易想到的一个捷径就是看看他生存的周围人群的口味。但是如果你对他的信息知道更多,例如知道他的年龄、收入等,那么这个时候就最好从他周围的人群中去挑选与他年龄、收入相近的人的饮食风格,这样预测会更准确一点。这其中蕴含