import tensorflow as tf
tf.train.GradientDescentOptimizer
tf.train.AdadeltaOptimizer
tf.train.AdagradOptimizer
tf.train.AdagradDAOptimizer
tf.train.MomentumOptimizer
tf.train.AdamOptimizer
tf.train.FtrlOptimizer
tf.train.ProximalGradientDescentOptimizer
tf.train.ProximalAdagradOptimizer
tf.train.RMSPropOptimizer
标准梯度下降法: 标准梯度下降先计算所有样本汇总误差,然后根据总误差更新权值 随机梯度下降法: 随机梯度下降法随机抽取一个样本来计算误差,然后更新权值 批梯度下降法 批梯度下降法是一种折中的方案,从总样本中选取一个批次(比如一共有10000个样本,随机选取100个作为一个batch),然后计算这个batch的总误差,根据总误差来更新权值
暂时先写这么多,后续会持续更新细化每一个算法的优缺点,最近被老师逼着写论文,没有很丰富的时间,请各位多多包涵。
Copyright © 2002-2022 恩博-恩博娱乐沙盘模型研发站 版权所有 非商用版本 备案号:额ICP备5412147号">额ICP备5412147号