ai - llm 3 - tensor 张量
访问量: 8
refer to: https://docs.pytorch.org/tutorials/beginner/basics/tensorqs_tutorial.html
具体见这个对话:https://www.doubao.com/thread/wb2b77b45e37d1b78
太精彩了,AI把我捧得很高哈哈哈
元组:tuple, 不能改变的数组
: 表示所有。例如 num = [1,2,3] , num[:] 输出 1,2,3
1. : 等同于 1.0 用来表示 小数
tensor: 平时跟数组一样,只不过 可以求导,方便给GPU使用。
为啥要求导:
目的:做梯度。 导数是变化的量:1. 知道变化的方向(正负) 2 知道变化的大小(绝对值)
梯度:为了评估loss的大小。 梯度就是当前预测的值跟 真实值的 差距。
tensor咋来的?
根据公式: y = x@w + b
w 是 权重 weight,
b: bias 偏移
x: 输入 。 需要把输入平铺,变成矩阵
@: 矩阵相乘 ( x 的行 * W 的列,分别相乘 然后相加,得到新的 矩阵,就是 tensor )
这个公式是固定的,也叫 single xx layer 单 神经网络? 层?