print('1111',loss) print('2222',loss.data)#tensor且GPU print('3333',loss.cpu()) print('4444',loss.cpu().data)#tensor且CPU # print('5555',loss.cpu().data[0])#报错 IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python number # print('6666',loss.cpu().numpy())#报错 RuntimeError: Can't call numpy() on Variable that requires grad. Use var.detach().numpy() instead. print('7777',loss.cpu().detach().numpy()) print('8888',loss.cpu().data.numpy()) print('9999',loss.cpu().item()) print('aaaa',loss.item())#后四者一样,都是把数值取出来
代码:
结果:
loss.data:读取Variable中的tensor,一般是在GPU上面的,如果用了cuda
loss.cpu():cpu是把数据转移到cpu上,注意numpy只能放在CPU上面
loss.data.cpu():取出tensor放到cpu上面
loss.data.cpu().numpy():取出tensor放到cpu上面,并且把tensor转化为numpy
loss.item():取出单元素张量的元素值并返回该值,保持原元素类型不变。,即:原张量元素为整形,则返回整型,原张量元素为浮点型则返回浮点型,etc.
loss.detch():返回一个新的tensor,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是requires_grad为false,得到的这个tensor永远不需要计算其梯度,不具有grad。说白了就是从计算图剥离这个变量。
即使之后重新将它的requires_grad置为true,它也不会具有梯度grad
这样我们就会继续使用这个新的tensor进行计算,后面当我们进行反向传播时,到该调用detach()的tensor就会停止,不能再继续向前进行传播
一般取出值在tensorboard里面绘制,我会选择loss.item(),我觉得安全一点,如果有不对请指正!