Files
chill_notes/wiki/Resources/方法论/反向传播.md
2026-04-28 09:41:43 +08:00

59 lines
1.6 KiB
Markdown
Executable File
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
created: 2026-04-28
type: concept
tags: [反向传播,神经网络,梯度下降,深度学习]
---
# 反向传播Backpropagation
> 神经网络训练的核心算法,通过链式法则计算梯度
## 定义
反向传播Backpropagation简称 BP是一种用于训练[[神经网络]]的算法。它通过计算损失函数对每个权重的梯度(偏导数),使得网络可以沿梯度下降方向更新参数。
## 核心思想
```
前向传播:输入 → 网络 → 输出 → 计算损失
反向传播:损失 → 链式法则 → 每个权重的梯度 → 更新权重
```
## 数学基础
链式法则Chain Rule
```
∂L/∂w = ∂L/∂output × ∂output/∂hidden × ∂hidden/∂w
```
即:损失对权重的梯度 = 各层梯度的乘积
## 工作流程
1. **前向传播**:数据通过网络,计算输出
2. **计算损失**:比较预测值与真实值
3. **反向传播**:从输出层向输入层逐层计算梯度
4. **更新权重**:沿梯度反方向更新参数
## 为什么叫"反向"
- 前向传播:从输入到输出(推理方向)
- 反向传播:从输出到输入(梯度计算方向)
## 关键挑战
| 问题 | 说明 | 解决方案 |
|------|------|---------|
| 梯度消失 | 深层网络中梯度越来越小 | ReLU、残差连接 |
| 梯度爆炸 | 梯度变得过大 | 梯度裁剪、归一化 |
## 相关概念
- [[神经网络]](反向传播的应用对象)
- [[机器学习]](反向传播是其中的训练算法)
- [[Transformer 架构]](现代网络中的反向传播实现)
---
*基于深度学习基础知识整理*