1. 为什么需要卷积?

在处理图像等高维数据时,传统的全连接网络(Fully Connected Network)会面临参数爆炸的问题。例如,一张 $224 \times 224$ 的彩色图片,如果第一层有 1000 个神经元,参数量将达到 $224 \times 224 \times 3 \times 1000 \approx 1.5$ 亿个。

卷积神经网络通过以下三个核心思想解决了这个问题:

  1. 局部感受野 (Local Receptive Fields)
  2. 权值共享 (Shared Weights)
  3. 空间池化 (Spatial Pooling)

2. 核心操作:卷积层

卷积核(Kernel/Filter)在图像上平滑移动,提取特征。公式表达为:
$$ (f * g)(n) = \sum_{m} f(m)g(n-m) $$

在深度学习中,我们通常关注的是互相关操作(Cross-correlation):
$$ S(i, j) = (I * K)(i, j) = \sum_{m} \sum_{n} I(i+m, j+n)K(m, n) $$

3. 激活函数与池化层

  • ReLU: 引入非线性,加速收敛。
  • Max Pooling: 减少参数维度,保持平移不变性。

本文为 [课程] 系列 Demo 文章,仅用于展示菜单归档功能。