发布于 2025-02-10 3.13 丢弃法 284 热度 NOTHING 深度学习 方法 除了权重衰减以外,深度学习模型常常使用丢弃法(dropout)来应对过拟合问题。丢弃法有一些不同的变体。本节中提到的丢弃法特 …
发布于 2025-02-06 3.12 权重衰减 260 热度 NOTHING 深度学习 范数 L1范数 L1范数是向量中所有元素绝对值的和。对于一个向量 $ w = [w_1, w_2, …, w_n] $,其L1范数 …
发布于 2025-02-04 3.11 模型选择、欠拟合和过拟合 174 热度 NOTHING 深度学习 训练误差和泛化误差 训练误差(training error)指模型在训练数据集上表现出的误差,泛化误差(generalizatio …
发布于 2025-02-04 3.10 多层感知机的简洁实现 139 热度 NOTHING 深度学习 导入需要的库 3.10.1 定义模型 和softmax回归唯一的不同在于,多加了一个全连接层作为隐藏层。它的隐藏单元个数为256, …
发布于 2025-02-04 3.9 多层感知机的从零开始实现 119 热度 NOTHING 深度学习 导入需要的库 获取和读取数据 定义模型参数 输入个数为784,输出个数为10。实验中,设超参数隐藏单元个数为256。 定义激活函数 …
发布于 2025-02-03 3.8 多层感知机 142 热度 NOTHING 深度学习 隐藏层 多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。隐藏层位于输入层和输出层之间。 具体来说 …
发布于 2025-02-03 3.7 softmax回归的简洁实现 156 热度 NOTHING 深度学习 导入需要的库 获取和读取数据 定义和初始化模型 softmax回归的输出层是一个全连接层,所以用一个线性模块就可以了。 初始化模型 …
发布于 2025-02-02 3.6 softmax回归的从零开始实现 127 热度 NOTHING 深度学习 导入本节实现所需的包或模块 获取和读取数据 先获取Fashion-MNIST数据集,并设置批量大小为256。 使用向量表示每个样本 …
发布于 2025-01-24 3.5 图像分类数据集(Fashion-MNIST) 112 热度 NOTHING 深度学习 获取数据集 通过torchvision的`torchvision.datasets`来下载这个数据集。第一次调用时会自动从网上获取 …
发布于 2025-01-23 3.4 softmax回归 173 热度 NOTHING 深度学习 分类问题 线性回归模型适用于输出为连续值的情景。softmax回归适用于离散值的预测问题。 通常使用离散的数值来表示类别,例如$y …