CNN 基础:卷积神经网络的基本原理
条评论1. 为什么需要卷积?
在处理图像等高维数据时,传统的全连接网络(Fully Connected Network)会面临参数爆炸的问题。例如,一张 $224 \times 224$ 的彩色图片,如果第一层有 1000 个神经元,参数量将达到 $224 \times 224 \times 3 \times 1000 \approx 1.5$ 亿个。
卷积神经网络通过以下三个核心思想解决了这个问题:
- 局部感受野 (Local Receptive Fields)
- 权值共享 (Shared Weights)
- 空间池化 (Spatial Pooling)
2. 核心操作:卷积层
卷积核(Kernel/Filter)在图像上平滑移动,提取特征。公式表达为:
$$ (f * g)(n) = \sum_{m} f(m)g(n-m) $$
在深度学习中,我们通常关注的是互相关操作(Cross-correlation):
$$ S(i, j) = (I * K)(i, j) = \sum_{m} \sum_{n} I(i+m, j+n)K(m, n) $$
3. 激活函数与池化层
- ReLU: 引入非线性,加速收敛。
- Max Pooling: 减少参数维度,保持平移不变性。
本文为 [课程] 系列 Demo 文章,仅用于展示菜单归档功能。