らんだむな記憶

blogというものを体験してみようか!的なー

サンプリング(標本化)定理

C. E. Shannonの定理という形で知られているやつ。結構面倒そうだからずっと放置してたけど、案外本質部分は簡単だった。
情報理論 (ちくま学芸文庫) | 甘利 俊一 | 本 | Amazon.co.jpの第2節 定理4.1を思いっきり簡略化して(かつ興醒めなスパイスを加えて)メモる。

定理(サンプリング定理)

$u \in C^0(\mathbb{R})$とし、$\lim_{|t| \to \infty} (1 + |t|^2)|u(t)| \to 0$を満たすとする。また、$u$のFourier変換$\mathcal{F}u = \widehat{u}$の台がコンパクトであるとする。
この時、$u$はそれ自身の可算個の点上の値によって復元される。

証明

簡単のため、$\mathrm{supp}(\widehat{u}) \subset [-\pi,\ \pi]$とする。$\widehat{u}$は周期函数なのでFourier級数展開すると、
\begin{equation}
\widehat{u}(\xi) = \frac{1}{\sqrt{2 \pi}} \sum_{n = -\infty}^{\infty} a_n \exp(- i n \xi) \hspace{5em} (1)
\end{equation}
となる。ここで、
\begin{equation}
a_n = \frac{1}{\sqrt{2 \pi}} \int_{-\pi}^{\pi} \widehat{u}(\xi) \exp(i n \xi) d\xi \hspace{5em} (2)
\end{equation}
である。
また、減衰性の仮定より(Sobolevの補題を考慮して)、$\widehat{u}$は1回連続微分可能であり、周期性と併せてこのFourier級数展開は一様収束する。

ところで、$u$は逆Fourier変換によって、
\begin{equation}
u(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} \widehat{u}(\xi) \exp(i t \xi) d\xi = \frac{1}{\sqrt{2 \pi}} \int_{-\pi}^{\pi} \widehat{u}(\xi) \exp(i t \xi) d\xi \hspace{5em} (3)
\end{equation}
となるのだが、この式と(2)を比較して$a_n = u(n)$が成立することが分かる。
数列$\{u(n)\}_{n \in \mathbb{Z}}$より(1)によって完全に$\widehat{u}$が決定され、(3)によっていたるところの$t$で$u$が復元される。${}_\square$

減衰性の仮定はおまけだけど、一応何の意味で収束するか保証しとかないと計算が形式的になるのでかなり強い条件を置いてみた。
離散的なポイントでの値でもとの函数が復元されるからくりは、任意の函数が高々可算個の三角函数で復元されるFourier級数の理論にあることが分かる。要は証明は「Fourier級数展開より」のみでも良いくらいだ。

Fourier級数展開は$\mathcal{F}^{-1} \mathcal{F} = id$という関係において、$\mathcal{F}$を離散Fourier変換として書き下したものに他ならないので、技術的な背景はFourier変換のユニタリ性で尽きていると思う。

まぁ、なんとも実益のある形でのFourier変換の応用例だな。