《计算机视觉:模型、学习和推理》——2.9 习题

简介:

本节书摘来自华章计算机《计算机视觉:模型、学习和推理》一书中的第2章,第2.9节,作者:(英)普林斯(Prince,J. D.)著, 更多章节内容可以访问云栖社区“华章计算机”公众号查看。

2.9 习题

2.1 列举出真实生活中联合分布的一个实例Pr(x,y),其中x是离散的,y是连续的。
2.2 边缘化5个变量的联合分布Pr(v,w,x,y,z),仅仅考虑变量w和y,结果将会是什么?对于v的边缘化分布结果又是什么?
2.3 证明下面等式成立:
Pr(w,x,y,z)=Pr(x,y)Pr(zw,x,y)Pr(wx,y)
2.4 在我的口袋里有两枚硬币。第一枚硬币是公平的,所以正面向上的似然性Pr(h=1c=1)是0.5,反面向上的似然性Pr(h=0c=1)也是0.5。第二枚硬币是不公平的,正面向上的似然性Pr(h=1c=2)是0.8,而反面向上的似然性Pr(h=1c=2)是0.2。将手伸入口袋,随机选取一枚硬币。选取任何一枚硬币的先验概率是相同的。投掷所选硬币观察到正面朝上,利用贝叶斯公式计算选取第二枚硬币的后验概率。
2.5 如果变量x和y是相互独立的,变量x和z是相互独立的,那么变量y和z是相互独立的吗?
2.6 使用式(2-3)证明,当x和y相互独立时,边缘概率分布Pr(x)与任意y的条件概率Pr(xy=y)等价。
2.7 4个变量的联合概率Pr(w,x,y,z)因式分解为:
Pr(w,x,y,z)=Pr(w)Pr(zy)Pr(yx,w)Pr(x)
证明若Pr(x,w)=Pr(x)Pr(w),x和w是相互独立的。
2.8 考虑骰子6个面{1,2,3,4,5,6}朝上的概率分别为{1/12,1/12,1/12,1/12,1/6,1/12}。骰子的期望值是多少?如果投掷两次骰子,两次投掷的期望值总共是多少?
2.9 证明期望的四个公式E[k]=k
E[kf[x]]=kE[f[x]]
E[f[x]+g[x]]=E[f[x]]+E[g[x]]
E[f[x]g[y]]=E[f[x]]E[g[y]], (x,y相互独立)
对于最后一种情况,需要使用独立性的定义进行证明(见2.6节)。
2.10 利用习题2.9中的关系式证明以下关系式,即趋近于零的二阶矩和关于均值的二阶矩(方差)之间的关系:
E[(x-μ)2]=E[x2]-E[x]E[x]

相关文章
Python3 OpenCV4 计算机视觉学习手册:6~11(5)
Python3 OpenCV4 计算机视觉学习手册:6~11(5)
111 0
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)-2
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)-1
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)
大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
【7月更文挑战第26天】大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
370 11
2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等
6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。
217 8
计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。
【7月更文挑战第2天】计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。AlexNet开启新时代,后续模型不断优化,推动对象检测、语义分割、图像生成等领域发展。尽管面临数据隐私、模型解释性等挑战,深度学习已广泛应用于安防、医疗、零售和农业,预示着更智能、高效的未来,同时也强调了技术创新、伦理考量的重要性。
91 1
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
五月发布的计算机视觉领域重要论文涵盖了扩散模型、视觉语言模型、图像生成与编辑及目标检测。亮点包括:1) Dual3D提出双模式推理策略,实现高效文本到3D图像生成;2) CAT3D利用多视图扩散模型创建3D场景,仅需少量图像;3) Hunyuan-DiT是多分辨率的中文理解扩散Transformer,可用于多模态对话和图像生成;4) 通过潜在扩散模型从EEG数据重建自然主义音乐,展示复杂音频重建潜力。此外,还有关于视觉语言模型和图像编辑的创新工作,如BlobGEN用于合成具有控制性的图像。
344 3

热门文章

最新文章