《嵌入式系统数字视频处理权威指南》——3.1奈奎斯特采样准则

简介:

本节书摘来自华章计算机《嵌入式系统数字视频处理权威指南》一书中的第3章,第3.1节,作者:(美)Michael Parker Suhel Dhanani 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

3.1奈奎斯特采样准则

为了避免这些,我们必须提出采样准则,或称采样协定。我们规定,我们的采样频率(闪光频率)至少是我们感兴趣的信号频率的2倍,并且实际中,我们必须留有一定的裕量。因此,我们必须确保采样频率高于信号频率的2倍。

现在我们开始考虑当轮子以逆时针方向较慢移动时,将发生什么。在旋转速度达到4Hz以前,一切看起来都很好。在这个点上,每次闪光,小圆点将交替出现在圆圈的每一边。一旦达到这个点,我们就不能判断轮子以哪个方向旋转,因为两个方向看起来是一样的。这就是我们的采样速度刚好是信号变化速度两倍的临界点。采样速度也就是闪光灯的闪烁速度(这个可以类比为ADC的采样频率)为每秒钟8次,即8Hz。轮子的旋转速度(我们的信号)为4Hz。

如果我们更快地旋转轮子,它看起来是向后运动的(顺时针),并且当旋转速度达到8Hz时,小圆点看起来完全停止了。旋转再快些,轮子看起来又开始正向运动,直到其看起来再次反向运动,并且如此重复这一循环。

总而言之,当你有一个要采样的信号时,你并不能完全确定它的频率。但是如果假定你遵循以下准则:采样信号的频率高于信号频率的两倍,那么采样后的信号频率将和采样前的实际信号完全相同。临界频率为信号频率不会超过的采样频率的一半,称这个为奈奎斯特频率(见图311)。


<a href=https://yqfile.alicdn.com/dcc3dd61a9772ebdb052f8b1341e8d3675f72e15.png" >

如果我们遵循这个准则,那么就可以避免像上面例子中用移动轮子展示的混叠现象。正常情况下,ADC的频率被设定为足够高来采样我们想要进行数字化处理的信号,为了确保高于奈奎斯特频率的无用信号不会被采样,且不会引起混叠,有两个选择:

在采样之前,模拟信号需要通过模拟低通滤波器来过滤信号,以衰减不需要的任何高频信号;

采样速度被设定为模拟信号中变化最快分量的至少两倍。

常见的一维例子为电话系统。假设我们声音信号的最高频率大约为3600Hz。在麦克风中,声音信号通过一个模拟滤波器,用以消除或者至少足够衰减任何频率高于3600Hz的信号。然后,来自麦克风的信号用8000Hz即8kHz的频率采样。后面所有的数字信号处理均基于这个8kSPS(每秒钟千个采样点)的信号。这就是为什么在电话中听到背景音乐时,音乐听起来有降调或失真。我们的耳朵能听到大约15kHz的频率,并且一般音乐包含的频率成分高于3600Hz,但这些高频成分的极少部分能通过电话系统。

图像是在水平和垂直方向上空间采样的。在视频采样中,我们再加入时间维度,其采样率等于帧率。亮度和色调(YcrCb)或者彩色(RGB)分别被采样,而且有时分辨率不同。

和采样相关的最后一个问题就是量化,其关注每个样本用多少个比特表示。对视频处理,需要足够数量的比特来表示彩色和亮度的差,我们的眼睛才能识别。通常采用每个样本10比特,这样每个样本得到210即1024个不同的量化级。其他普遍使用的采样分辨率为8和12比特,分别得到256或4096个量化级。对视频来说,10~12比特的分辨率已经足够。在视频压缩中,量化非常重要,在后面的章节中,我们还会涉及。

相关文章
|
2天前
R语言 线性混合效应模型实战案例
R语言 线性混合效应模型实战案例
|
2天前
|
数据可视化
R语言实现有限混合模型建模分析
R语言实现有限混合模型建模分析
|
2月前
|
机器学习/深度学习 存储 人工智能
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
98 3
|
11月前
|
机器学习/深度学习 人工智能 并行计算
深度学习设计的衍射处理器并行计算数百个变换
深度学习设计的衍射处理器并行计算数百个变换
深度学习设计的衍射处理器并行计算数百个变换
|
11月前
|
人工智能 算法 数据可视化
Intel 开源新作 | ZoeDepth: 第一个结合相对和绝对深度的多模态单目深度估计网络
Intel 开源新作 | ZoeDepth: 第一个结合相对和绝对深度的多模态单目深度估计网络
487 0
|
11月前
|
机器学习/深度学习 编解码 人工智能
阿里团队新作 | AFFormer:利用图像频率信息构建轻量化Transformer语义分割架构
阿里团队新作 | AFFormer:利用图像频率信息构建轻量化Transformer语义分割架构
357 0
|
机器学习/深度学习 编解码 人工智能
CVPR2021 | 视觉推理解释框架VRX:用结构化视觉概念作为解释网络推理逻辑的「语言」
这项工作对神经网络推理逻辑的可解释性进行了探究:区分于大多数现有 xAI 方法通过可视化输入图像和输出结果之间的相关性对网络进行解释,该研究提出用结构化的视觉概念 (Structural Visual Concept) 对神经网络决策背后的推理逻辑和因果关系进行解释,通过解答网络决策中「为什么是 A?为什么不是 B?」 的问题,用人们更容易理解的 high-level 视觉概念和视觉概念之间的结构和空间关系解释神经网络的推理逻辑,并将其作为一种直接指导来提升被解释网络的性能。
CVPR2021 | 视觉推理解释框架VRX:用结构化视觉概念作为解释网络推理逻辑的「语言」
|
存储 Shell 计算机视觉
【数字信号处理】数字信号处理简介 ( 连续时间系统的时域和频域特性 | DSP 解决的问题 | DSP 发展 )
【数字信号处理】数字信号处理简介 ( 连续时间系统的时域和频域特性 | DSP 解决的问题 | DSP 发展 )
211 0
|
机器学习/深度学习 编解码 边缘计算
当随机采样遇见插值,微软亚研提出节省推理计算量的新范式
同一张图像的不同区域空间冗余度是不一样的,背景部分的冗余度往往低于人物区域。如何利用这种特性来节省模型推理的计算量呢?在一篇 ECCV 2020 Oral 论文中,来自微软亚洲研究院等机构的研究者提出了一种随机采样与插值相结合的新方法,可以有效降低节省推理的计算量。
198 0
当随机采样遇见插值,微软亚研提出节省推理计算量的新范式
|
机器学习/深度学习 算法
【两项业界最佳】普林斯顿新算法自动生成高性能神经网络,同时超高效压缩
普林斯顿大学研究人员提出了一种会在训练过程中连接、生长、移除神经元的神经网络。这种神经网络使用梯度和神经元强弱来生长(grow)和修剪(prune),从而实现权重和结构的同时训练。此算法可同时实现神经网络结构的自动选择和超高效压缩。所取得的压缩率,所获得的神经网络模型均为当前业内最好纪录。
3376 0