
**张量(Tensor)**是 PyTorch 中将要使用的主要数据结构。如果你使用过 NumPy,你会发现 PyTorch 张量非常熟悉。从本质上讲,张量是多维数组,与 NumPy 的 `ndarray` 非常相似。
可以把张量看作是常见数学对象的推广:
- 一个**标量**(单个数字,例如 7)是 0 维张量(或 0 阶张量)。
- 一个**向量**(一维数字列表或数组,例如 `[1, 2, 3]`)是 1 维张量(或 1 阶张量)。
- 一个**矩阵**(二维数字网格,例如 `[[1, 2], [3, 4]]`)是 2 维张量(或 2 阶张量)。
- 依此类推,可以有 3 维张量(例如数字立方体,常用于 RGB 图像:高 x 宽 x 通道)、4 维张量(常用于图像批次:批大小 x 高 x 宽 x 通道)等。
标量 (7)0维张量向量 [1, 2, 3]1维张量增加维度矩阵 [[1, 2], [3, 4]]2维张量增加维度3维张量(例如:图像 高x宽x通道)增加维度高维张量(例如:批次 批大小x高x宽x通道)...

> 一种将张量看作标量、向量和矩阵的推广的方式,维度逐渐增加。
在深度学习中,张量用来表示几乎所有数据:
- **输入数据:** 图像批次、文本序列或特征表格。
- **模型参数:** 神经网络层的权重和偏置。
- **中间激活:** 网络内部各层的输出。
- **梯度:** 反向传播过程中计算的值,用于更新模型参数。
与标准 Python 列表甚至 NumPy 数组相比,是什么让 PyTorch 张量特别适合深度学习呢?
1. **GPU 加速:** 张量可以轻松地移动到图形处理器 (GPU) 或其他硬件加速器上进行处理。这为深度学习中常见的计算密集型操作提供了大幅加速。
2. **自动微分:** PyTorch 张量通过 `Autograd` 系统内置了对自动微分的支持(我们将在第 3 章中介绍)。这种机制自动计算梯度,这对通过反向传播训练神经网络来说非常重要。
尽管其原理与 NumPy 数组相似,但这两个特性使得 PyTorch 张量成为高效构建和训练模型的主要工具。在接下来的部分中,我们将介绍如何创建和操作这些重要的数据结构。
张量是 PyTorch 中的基本数据结构,代表深度学习模型中使用的多维数组。代码中提供了创建张量的实用方法。PyTorch 提供了一系列灵活的函数来创建张量,无论使用现有数据,还是需要特定形状和初始值。
创建张量最直接的方法通常是使用现有的 Python 数据结构,比如列表或 NumPy 数组。主要用于此目的的函数是 `torch.tensor()`。这个函数会根据输入数据自动判断数据类型 (`dtype`),但您也可以明确指定。重要的是,`torch.tensor()` 总是复制输入数据。
我们来看看实际操作。首先,请确保已导入 PyTorch:
```scala 3
import torch.*
import numpy as np
```
```java
import java.nio.ByteBuffer
import java.nio.ByteOrder
import java.nio.FloatBuffer
import java.nio.IntBuffer
import java.util.ArrayList
import java.util.Arrays
import java.util.List
import org.bytedeco.javacpp.*
import org.bytedeco.pytorch.*
import org.bytedeco.pytorch.global.torch
import org.bytedeco.pytorch.global.torch_cuda
import static org.bytedeco.pytorch.global.torch.*
TensorOptions tensorOptions = new TensorOptions()
.device(new DeviceOptional(device))
.requires_grad(new BoolOptional(true))
.dtype(new ScalarTypeOptional(ScalarType.Float))
.layout(new LayoutOptional(layout))
.memory_format(new MemoryFormatOptional(memory_format))
.device_index((byte)1)
.pinned_memory(new BoolOptional(true))
var tensor = torch.tensor(new float[]{1.0f, 2.0f, 3.0f}, tensorOptions)
TensorOptions device = torch.device(new Device(DeviceType.CPU))
TensorOptions gradient = torch.requires_grad(true)
TensorOptions dtype = torch.dtype(ScalarType.Float)
TensorOptions layout = torch.layout(Layout.Strided)
TensorOptions memory_format = torch.memory_format(MemoryFormat.Contiguous)
TensorOptions device_index = torch.device_index((byte)1)
boolean pinned_memory = torch.pinned_memory_or_default(new BoolOptional(true))
```
现在,从 Python 列表创建一个张量:
```scala 3
// 从 Scala 列表创建张量
val data_list = Seq(Seq(1, 2), Seq(3, 4))
val tensor_from_list = torch.tensor(data_list)
println("从列表生成的张量:")
println(tensor_from_list)
println(s"数据类型: ${tensor_from_list.dtype}")
println(s"形状: ${tensor_from_list.shape}")
```
```java
float[][] dataList = {{1, 2}, {3, 4}}
// 2. 计算数组总长度和形状
int rows = dataList.length
int cols = dataList[0].length
int totalElements = rows * cols
// 3. 将二维数组展平为一维数组(PyTorch 张量底层是连续内存)
float[] flatData = new float[totalElements]
int index = 0
for (float[] floats : dataList) {
for (int j = 0
flatData[index++] = floats[j]
}
}
// 4. 将一维数组转换为 javacpp FloatPointer(PyTorch Java 绑定的核心类型) *flatdata
FloatPointer floatPointer = new FloatPointer(flatData)
// 5. 定义张量形状(rows × cols)
SizeTPointer shape1 = new SizeTPointer(new long[]{rows, cols})
// TensorOptions options = new TensorOptions().dtype(kFloat).device(kCPU)
var tensorOptions = new TensorOptions() //tensorBuilder
.layout(new LayoutOptional(Layout.Strided))
.dtype(new ScalarTypeOptional(ScalarType.Float))
.device(new DeviceOptional(new Device(DeviceType.CPU)))
.memory_format(new MemoryFormatOptional(MemoryFormat.Contiguous))
// 6. 创建张量(指定数据、形状、数据类型、设备)
Tensor tensor = torch.tensor(floatPointer, tensorOptions).reshape(new LongArrayRef())
```
这将输出:
```
从列表生成的张量:
tensor([[1, 2],
[3, 4]])
数据类型: torch.int64
形状: torch.Size([2, 2])
```
请注意 PyTorch 如何根据输入整数判断数据类型为 `torch.int64`(一个 64 位整数)。
您也可以从 NumPy 数组开始,获得相同的结果:
```scala 3
// 从 NumPy 数组创建张量
val data_numpy = np.array(Seq(Seq(5.0, 6.0), Seq(7.0, 8.0)))
val tensor_from_numpy = torch.tensor(data_numpy)
println("\n从 NumPy 数组生成的张量:")
println(tensor_from_numpy)
println(s"数据类型: ${tensor_from_numpy.dtype}")
println(s"形状: ${tensor_from_numpy.shape}")
```
输出:
```
从 NumPy 数组生成的张量:
tensor([[5., 6.],
[7., 8.]], dtype=torch.float64)
数据类型: torch.float64
形状: torch.Size([2, 2])
```
```java
// 如果是 long 类型
long[] flatDataLong = {1, 2, 3, 4}
LongPointer longPtr = new LongPointer(flatDataLong)
var tensorOptions2 = new TensorOptions()
.layout(new LayoutOptional(Layout.Strided))
.dtype(new ScalarTypeOptional(ScalarType.Long))
.device(new DeviceOptional(new Device(DeviceType.CPU)))
.memory_format(new MemoryFormatOptional(MemoryFormat.Contiguous))
// 注意:Java long 对应 C++ int64 (kLong)
Tensor longTensor = torch.from_blob(longPtr, new long[]{2, 2}, tensorOptions2).clone()
System.out.println("从数组生成的 long 类型张量:" + longTensor)
```
为了方便输出 我们写一个 展平数组的工具
```java
import java.lang.reflect.Array
import java.util.ArrayList
import java.util.List
public class TensorToolkit {
// Get Multidimensional array Shape
public static long[] getShape(Object array) {
if (array == null || !array.getClass().isArray()) return new long[0]
List<Long> shape = new ArrayList<>()
Object current = array
while (current != null && current.getClass().isArray()) {
int len = Array.getLength(current)
shape.add((long) len)
current = (len > 0) ? Array.get(current, 0) : null
}
return shape.stream().mapToLong(i -> i).toArray()
}
// flatten Multidimensional array
public static Object flatten(Object multiDimArray) {
if (multiDimArray == null) return null
Class<?> componentType = multiDimArray.getClass()
while (componentType.isArray()) componentType = componentType.getComponentType()
int size = 1
for (long d : getShape(multiDimArray)) size *= d
Object result = Array.newInstance(componentType, size)
fill(multiDimArray, result, new int[]{0})
return result
}
private static void fill(Object src, Object dest, int[] idx) {
int len = Array.getLength(src)
for (int i = 0
Object el = Array.get(src, i)
if (el != null && el.getClass().isArray()) fill(el, dest, idx)
else Array.set(dest, idx[0]++, el)
}
}
}
```
这里,数据类型被判断为 `torch.float64`,因为 NumPy 数组包含浮点数。本章后面将讨论 PyTorch 张量与 NumPy 数组之间的关系,包括更有效的转换方法。
很多时候,您需要在没有预先数据的情况下创建特定大小的张量,例如用零、一或随机值进行初始化。PyTorch 为这些情况提供了专门的函数。形状通常作为元组或整数序列传递。
**零张量、一张量或未初始化数据张量:**
- `torch.zeros(*size, ...)`: 创建一个填充零的张量。
- `torch.ones(*size, ...)`: 创建一个填充一的张量。
- `torch.empty(*size, ...)`: 创建一个指定大小的张量,但其内容未被设定。其中的值是分配内存时该位置的任意数据。如果您计划在创建后立即填充张量,使用 `torch.empty` 会快一些,但请注意,初始值是不确定的。
```scala 3
// 定义期望的形状
val shape = Seq(2, 3) // 2 行, 3 列
// 创建具有特定值的张量
val zeros_tensor = torch.zeros(shape)
val ones_tensor = torch.ones(shape)
val empty_tensor = torch.empty(shape) // 值是任意的
println(s"\n零张量 (形状 {shape}):")
println(zeros_tensor)
println(s"\n一张量 (形状 {shape}):")
println(ones_tensor)
println(s"\n空张量 (形状 {shape}):")
println(empty_tensor)
```
```java
long[] shape = {2, 3}
// 创建具有特定值的张量
Tensor zeros_tensor = torch.zeros(shape)
Tensor ones_tensor = torch.ones(shape)
Tensor empty_tensor = torch.empty(shape)
System.out.println("\n零张量 (形状 " + shape[0] + "x" + shape[1] + "):")
print(zeros_tensor)
System.out.println("\n一张量 (形状 " + shape[0] + "x" + shape[1] + "):")
print(ones_tensor)
System.out.println("\n空张量 (形状 " + shape[0] + "x" + shape[1] + "):")
print(empty_tensor)
```
输出(请注意 `empty_tensor` 的值会有所不同):
```
零张量 (形状 (2, 3)):
tensor([[0., 0., 0.],
[0., 0., 0.]])
一张量 (形状 (2, 3)):
tensor([[1., 1., 1.],
[1., 1., 1.]])
空张量 (形状 (2, 3)):
tensor([[2.1321e-38, 5.0837e+24, 3.0763e-41],
[3.0763e-41, 1.2326e-32, 1.8750e+00]])
```
默认情况下,这些函数创建的数据类型为 `dtype=torch.float32` 的张量。您可以使用 `dtype` 参数指定不同的数据类型:
```scala 3
// 创建一个整数类型的一张量
val ones_int_tensor = torch.ones(shape, dtype=torch.int32)
println(s"\n一张量 (dtype=torch.int32):")
println(ones_int_tensor)
```
```
TensorOptions int32Options = new TensorOptions().dtype(new ScalarTypeOptional(ScalarType.Int))
Tensor ones_int_tensor = torch.ones(shape, int32Options);// dtype_int32());
System.out.println("\n一张量 (dtype=torch.int32):");
print(ones_int_tensor);
```
输出:
```
一张量 (dtype=torch.int32):
tensor([[1, 1, 1],
[1, 1, 1]], dtype=torch.int32)
```
**带随机值的张量:**
初始化模型参数通常会从随机值开始。PyTorch 为此提供了函数:
- `torch.rand(*size, ...)`: 创建一个从区间 [0, 1) 均匀采样的张量。
- `torch.randn(*size, ...)`: 创建一个从标准正态分布(均值 0,方差 1)采样的张量。
```scala 3
// 创建带随机值的张量
val rand_tensor = torch.rand(shape) // 均匀分布 [0, 1)
val randn_tensor = torch.randn(shape) // 标准正态分布
println(s"\n随机张量 (均匀分布 [0, 1), 形状 {shape}):")
println(rand_tensor)
println(s"\n随机张量 (标准正态分布, 形状 {shape}):")
println(randn_tensor)
```
```java
// 创建带随机值的张量
Tensor rand_tensor2 = torch.rand(shape); // 均匀分布 [0, 1)
Tensor randn_tensor = torch.randn(shape); // 标准正态分布
Tensor rnadint_tensor3 = torch.randint(shape); //随机整数
System.out.println("\n随机张量 (均匀分布 [0, 1), 形状 " + shape[0] + "x" + shape[1] + "):");
torch.print(rand_tensor2);
System.out.println("\n随机张量 (标准正态分布, 形状 " + shape[0] + "x" + shape[1] + "):");
torch.print(randn_tensor);
System.out.println("\n随机整数 张量 (标准正态分布, 形状 " + shape[0] + "x" + shape[1] + "):");
torch.print(rnadint_tensor3);
```
输出(每次运行结果会有所不同):
```
随机张量 (均匀分布 [0, 1), 形状 (2, 3)):
tensor([[0.6580, 0.5089, 0.1642],
[0.3742, 0.5989, 0.7775]])
随机张量 (标准正态分布, 形状 (2, 3)):
tensor([[-0.2651, -0.3249, -1.0134],
[ 1.1314, 1.1751, -0.1411]])
```
### 基于其他张量创建张量
有时,您需要创建一个新张量,使其与现有张量具有相同的属性(如形状和 `dtype`)。这对于确保操作兼容性很有帮助。PyTorch 为此提供了 `_like` 变体函数:
- `torch.zeros_like(input_tensor, ...)`
- `torch.ones_like(input_tensor, ...)`
- `torch.rand_like(input_tensor, ...)`
- `torch.randn_like(input_tensor, ...)`
这些函数接受一个现有张量作为输入,并返回一个新张量,其内容为指定的值(零、一、随机),但会与输入张量的形状和 `dtype` 匹配,除非明确覆盖。
```scala 3
// 使用现有张量作为模板
val base_tensor = torch.tensor(Seq(Seq(1, 2), Seq(3, 4)), dtype=torch.float32)
println(s"\n基础张量 (形状 {base_tensor.shape}, dtype {base_tensor.dtype}):")
println(base_tensor)
// 创建与基础张量属性匹配的张量
val zeros_like_base = torch.zeros_like(base_tensor)
val rand_like_base = torch.rand_like(base_tensor)
println("\n类似基础张量的零张量:")
println(zeros_like_base)
println(s"形状: ${zeros_like_base.shape}, dtype: ${zeros_like_base.dtype}")
println("\n类似基础张量的随机张量:")
println(rand_like_base)
println(s"形状: ${rand_like_base.shape}, dtype: ${rand_like_base.dtype}")
```
```java
int [][] existing_array = {{1, 2}, {3,4}};
var flatArray = TensorToolkit.flatten(existing_array);
var shapes = TensorToolkit.getShape(existing_array);
Tensor base_tensor = torch.tensor((int[]) flatArray).reshape(shapes).to(ScalarType.Float);
System.out.println("\n基础张量 (形状 " + base_tensor.sizes() + ", dtype " + base_tensor.dtype() + "):");
print(base_tensor);
// 创建与基础张量属性匹配的张量
Tensor zeros_like_base = torch.zeros_like(base_tensor);
Tensor rand_like_base = torch.rand_like(base_tensor);
Tensor ones_like_base = torch.ones_like(base_tensor);
System.out.println("\n类似基础张量的零张量:");
print(zeros_like_base);
System.out.println("形状: " + zeros_like_base.sizes() + ", dtype: " + zeros_like_base.dtype());
System.out.println("\n类似基础张量的随机张量:");
print(rand_like_base);
System.out.println("形状: " + rand_like_base.sizes() + ", dtype: " + rand_like_base.dtype());
```
输出:
```
基础张量 (形状 torch.Size([2, 2]), dtype torch.float32):
tensor([[1., 2.],
[3., 4.]])
类似基础张量的零张量:
tensor([[0., 0.],
[0., 0.]])
形状: torch.Size([2, 2]), dtype: torch.float32
类似基础张量的随机张量:
tensor([[0.1216, 0.5908],
[0.3264, 0.9272]])
形状: torch.Size([2, 2]), dtype: torch.float32
```
如您所见,新张量 `zeros_like_base` 和 `rand_like_base` 自动从 `base_tensor` 继承了 `shape` (torch.Size([2, 2])) 和 `dtype` (torch.float32)。
这些方法为您生成所需的张量提供了一套全面的方式,它们支撑着深度学习模型中的计算。在接下来的章节中,我们将了解如何操作这些张量并进行重要运算。