开发手册 欢迎您!
软件开发者资料库

TensorFlow - 优化器

TensorFlow优化器 - 从简单和简单的步骤学习TensorFlow,从基本到高级概念,包括简介,安装,理解人工智能,数学基础,机器学习和深度学习,基础知识,卷积神经网络,递归神经网络,TensorBoard可视化,Word嵌入,单层感知器,线性回归,TFLearn及其安装,CNN和RNN差异,Keras,分布式计算,TensorFlow导出,多层感知器学习,感知器隐藏层,TensorFlow中的优化器,XOR实现,梯度下降优化,形成图形,使用TensorFlow进行图像识别,神经网络训练的建议。

优化器是扩展类,包括用于训练特定模型的附加信息.优化器类使用给定的参数进行初始化,但重要的是要记住不需要Tensor.优化器用于提高训练特定模型的速度和性能.

TensorFlow的基本优化器是 :

tf.train.Optimizer

此类在tensorflow/python/training/optimizer.py的指定路径中定义.

以下是Tensorflow中的一些优化器 :

  • 随机梯度下降

  • 带梯度剪裁的随机梯度下降

  • 动量

  • Nesterov势头

  • Adagrad

  • Adadelta

  • RMSProp

  • Adam

  • Adamax

  • SMORMS3

我们将专注于随机梯度下降.下面提到了创建优化器的插图 :

def sgd(cost, params, lr = np.float32(0.01)):   g_params = tf.gradients(cost, params)   updates = []      for param, g_param in zip(params, g_params):      updates.append(param.assign(param - lr*g_param))   return updates

基本参数在特定函数中定义.在随后的章节中,我们将重点关注梯度下降优化和优化器的实现.