《嵌入式系统数字视频处理权威指南》——2.4视频处理性能

简介:

本节书摘来自华章计算机《嵌入式系统数字视频处理权威指南》一书中的第2章,第2.4节,作者:(美)Michael Parker Suhel Dhanani 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

2.4视频处理性能

任何视频处理的信号链势必伴随许多颜色空间的转换。这些转换必须以像素速率进行,而高清视频的像素速率是非常高的。

比如每秒60帧,1920×1080分辨率的视频,每秒钟有1920×1080×60个像素,这意味着每秒钟有1244百万的像素,实际上,我们现在还忽略了和每帧视频相关的时序信息。

如果视频必须实时处理——这意味着没有缓冲——那么像素必须以1244MHz的频率来处理。每个像素比特的任何操作必须如此快地进行,以致同样的操作能在1秒钟内对颜色空间中的1244百万像素进行。换句话说,频率为1244MHz。实际上,因为我们必须考虑每帧视频的时序信息,频率约为148MHz

这个频率是非常重要的,因为无论你选择什么处理平台,都必须以这个频率工作。也必须记住每个像素都是由颜色平面组成,并且每个颜色平面是用一定量的比特来表示的。例如,和每个颜色R、G、B有关的比特对应于一个颜色平面,我们假定每个颜色平面有8比特,并且采用简单的RGB颜色空间。回到处理速度,每个像素的24比特不得不以148MHz的频率操作。对于FPGA,因为能采用24比特的硬件处理电路,这是相对容易的,但如果你使用8比特的DSP,因为只能操作8比特,那么你必须使这个DSP以3×148MHz频率工作以跟上进入的像素。实际上,高清视频的操作通常在32bit的DSP或处理器上进行。

相关文章
|
8月前
|
人工智能 弹性计算 并行计算
单GPU运行数千环境、800万步模拟只需3秒,斯坦福开发超强游戏引擎
单GPU运行数千环境、800万步模拟只需3秒,斯坦福开发超强游戏引擎
357 0
|
1月前
|
存储 人工智能 达摩院
社区供稿 | FunASR 语音大模型在 Arm Neoverse 平台上的优化实践
Arm 架构的服务器通常具备低功耗的特性,能带来更优异的能效比。相比于传统的 x86 架构服务器,Arm 服务器在相同功耗下能够提供更高的性能。这对于大模型推理任务来说尤为重要,因为大模型通常需要大量的计算资源,而能效比高的 Arm 架构服务器可以提供更好的性能和效率。
|
11月前
|
机器学习/深度学习 自然语言处理 达摩院
如何用一套语音识别系统实现多语种混合自由说?
语音识别技术,也被称为自动语音识别 (Automatic Speech Recognition,ASR),其目标是将语音转成文字。
239 0
|
存储 算法 芯片
FPGA:硬件描述语言简介
FPGA:硬件描述语言简介
182 0
FPGA:硬件描述语言简介
|
机器学习/深度学习 人工智能 算法
嵌入式端音频开发(Unisound篇)之 7.1 蜂鸟M离线语音芯片简介
嵌入式端音频开发(Unisound篇)之 7.1 蜂鸟M离线语音芯片简介
539 0
嵌入式端音频开发(Unisound篇)之 7.1 蜂鸟M离线语音芯片简介
|
存储 编解码 开发框架
主流视频编码技术H.264简介
  前戏   在之前的调研中,发现还是有些朋友对流媒体感兴趣,所以本人准备几篇文章讲解下流媒体技术。本文呢,讲解下H264,为之后的文章做个铺垫。感谢各位!   H.264简介
291 0
|
存储 Web App开发 编解码
如何使用下一代编码技术提升流媒体体验
本文来自Bitmovin总裁及联合创始人Stefan Lederer LiveVideoStackCon2019北京大会上的分享。Stefan介绍了下一代编解码器和编码技术的实施,以及如何让观众有更好的流媒体和视频体验。另外,还进一步解释HEVC、VP9和AV1如何在不同的设备上运作。如果将这些编解码器结合,可以降低比特率获取更大的存储空间,把CDN成本降低30%。
630 0
如何使用下一代编码技术提升流媒体体验
|
机器学习/深度学习 人工智能 并行计算
机器学习领域技术大图:硬件算力
硬件算力可以说在人工智能三要素中处于发动机的角色,特别是深度学习在最近 10 年之所以获得突飞猛进的发展,很大程度得益于硬件算力在摩尔定律的驱动下获得持续的增长,如 GPU 在最近 10 年的理论算力获得了近几十倍的性能提升。所以,硬件算力也是阿里在人工智能技术领域的重中之重,并进行了重点布局和持续的技术研发投入,我们的技术核心战略是“通过建设核高基领域的研发能力,提供极致性价比的算力供给,奠定阿里云在 IaaS/PaaS 层具备产品易用性、多样性和差异化服务的能力”。 本文将分享当前阿里所有 AI/异构算力的方方面面。
2042 0
机器学习领域技术大图:硬件算力
|
机器学习/深度学习 TensorFlow 算法框架/工具
如何用云端 GPU 为你的 Python 深度学习加速?
负荷 下午,我用 Python 深度学习框架 Keras 训练了一个包含3层神经网络的回归模型,预测波士顿地区房价。 这是来自于 “Deep Learning with Python” 书上的一个例子。
1781 0