pytorch中torch.autograd.Variable的用法

 时间:2024-10-25 07:32:13

1、Variable是torch.autograd中很重要的类。它用来包装Tensor,将Tensor转换为Variable之后,可以装载梯度信息。pytorch的一个重要特点就是动态计算图,计算图中每一个节点代表一个变量,变量间建立运算关系并且可以修改,而不像Tensorflow中的计算图是固定不可变的。.data——获得该节点的值,即Tensor类型的值.grad——获得该节点处的梯度信息

pytorch中torch.autograd.Variable的用法

2、Variable的参数为“requires_grad”和“grad_fn”:(1)requires_grad的值为:True和False,True代表tensor变量需要计算梯度,False代表不需要。默认值为False。(2)grad_fn的值该变量是否是一个计算结果,即该变量是不是一个函数的输出值。若是,则grad_fn返回一个与该函数相关的对象,否则是None。

pytorch中torch.autograd.Variable的用法

3、神经网络计算梯度一个复杂的实例,此实例可以体现出梯度计算过程的计算图:

pytorch中torch.autograd.Variable的用法

4、变量out处执行.backward()计算梯度,由梯度计算的链式法则算到所有的结果变量(graph leaves),这个图中只有一个x。然后在创建变量处执行.grad,获得结果变量out关于创建变量x的梯度。

pytorch中torch.autograd.Variable的用法
  • 汽车发动机故障灯亮:显示TEC是什么意思
  • 王者关羽一周年限定皮肤冰锋战神怎么获得
  • 外出旅游怎样玩得舒服又省钱
  • 新生儿准备物品清单
  • 怎么改转述句的各种类型
  • 热门搜索
    环保手抄报内容 春节英语手抄报 护眼手抄报 中秋节手抄报 数学手抄报内容 六一儿童节手抄报 母亲节手抄报 四年级手抄报 文明礼仪手抄报 节水手抄报简单又漂亮