[实变函数]4.4 依测度收敛

简介: 1 以前学过 $$\bex \mbox{ 点态收敛},\quad \mbox{ 一致收敛}, \eex$$      本节将用测度引进另外一种收敛概念---``依测度收敛'': $$\beex \bea &\quad (f_k\ra f)\ (\mbox{菲赫金哥尔茨的记号})\\ &\lra \...

1 以前学过 $$\bex \mbox{ 点态收敛},\quad \mbox{ 一致收敛}, \eex$$ 

    本节将用测度引进另外一种收敛概念---``依测度收敛'': $$\beex \bea &\quad (f_k\ra f)\ (\mbox{菲赫金哥尔茨的记号})\\ &\lra \forall\mbox{ 误差 }\sigma>0,\ E[|f_k-f|\geq \sigma]\mbox{ 虽然可能很多, 但其测度 }\to 0\ (k\to\infty).    \eea \eeex$$            

 

2 依测度收敛: $$\bex (f_k\ra f)\lra \forall\ \sigma>0,\ \lim_{k\to\infty}m [|f_k-f|\geq \sigma]=0. \eex$$            

 

3 依测度收敛与  $\ae$ 收敛的区别:  

    (1) 依测度收敛但不收敛的例子. 

    (2) $\ae$ 收敛但不依测度收敛的例子:     $$\bex     f_k(x)=\sedd{\ba{ll}     1,&x\in (0,n]\\     0,&x\in (n,+\infty)     \ea}.     \eex$$             

 

4 依测度收敛与 $\ae$ 收敛的联系:  

    (1) (Riesz 定理)     $$\bex     (f_k\ra f)\ra \exists\ \sed{k_j},\st f_{k_j}\to f, \ae.     \eex$$        

    证明:     $$\beex     \bea     &\quad f_k\ra f\\     &\ra \forall\ \sigma>0,\ \lim_{k\to\infty}m [|f_k-f|\geq \sigma]=0\\     &\ra \forall\ \sigma>0,\ \forall\ \ve>0,\ \exists\ k,\st m(E[|f_k-f|\geq \sigma])<\ve\\     &\ra \forall\ s\in\bbZ^+,\ \exists\ k_s,\st mE_s<\frac{1}{2^s}\quad\sex{E_s=E\sez{|f_{k_s}-f|\geq \frac{1}{2^s}}}\\     &\ra m\sex{\cup_{s=1}^\infty E_s}<\sum_{s=1}^\infty \frac{1}{2^s}=1<\infty\\     &\ra m \sex{\varlimsup_{s\to\infty}E_s}=0\quad\sex{\mbox{Page 75 T 11}}\\     &\ra f_{k_s}\to f\mbox{ 于 }E\bs \varlimsup_{s\to\infty}E_s=\cup_{m=1}^\infty \cap_{s=m}^\infty E\sez{|f_{k_s}-f|<\frac{1}{2^s}}.     \eea     \eeex$$ 

    (2) (Lebesgue) 设 $mE<\infty$,     $$\bex     \ae\mbox{ 有限的可测函数列 }\sed{f_k}\ae \mbox{ 收敛于 }\ae\mbox{ 有限的函数 }f.     \eex$$     则     $$\bex     f_k\ra f.     \eex$$     

    证明:     $$\beex     \bea     &\quad m\sex{\cup_{j=1}^\infty \cap_{N=1}^\infty \cup_{k=N}^\infty E\sez{|f_k-f|\geq \frac{1}{j}}}=0\\     &\ra \forall\ j\in\bbZ^+,\ \lim_{N\to\infty} m\sex{\cup_{k=N}^\infty E\sez{|f_k-f|\geq \frac{1}{j}}}=0\\     &\ra \forall\ j\in\bbZ^+,\ \lim_{N\to\infty} m\sex{E\sez{|f_N-f|\geq \frac{1}{j}}}=0.     \eea     \eeex$$     注: Lebesgue 定理中 $mE<\infty$ 是必须的. 否则有反例:     $$\bex     f_k(x)=\sedd{\ba{ll}     1,&x\in (0,n]\\     0,&x\in (n,+\infty)     \ea}.     \eex$$             

    

5 依测度收敛的极限的唯一性 (在 $\ae$ 意义下): $$\bex (f_k\ra f,\ f_k\ra g)\ra f=g,\ae. \eex$$ 证明: $$\beex \bea E[|f-g|>0] &=\cup_{j=1}^\infty E\sez{|f-g|\geq\frac{1}{j}}\\ &=\cup_{j=1}^\infty E\sez{|(f_k-f)-(f_k-g)|\geq \frac{1}{j}}\\ &\subset \cup_{j=1}^\infty \sex{E\sez{|f_k-f|\geq\frac{1}{2j}} \cup E\sez{|f_k-g|\geq\frac{1}{2j}}}. \eea \eeex$$ 

 

6 各种收敛态的关系总结:

       

 

7 作业: Page 95, T 15.    

目录
相关文章
|
6天前
|
数据可视化
R语言极值推断:广义帕累托分布GPD使用极大似然估计、轮廓似然估计、Delta法
R语言极值推断:广义帕累托分布GPD使用极大似然估计、轮廓似然估计、Delta法
|
7月前
|
Serverless
第8章 概率统计——8.2 概率密度计算
第8章 概率统计——8.2 概率密度计算
|
7月前
|
资源调度 数据处理
第8章 概率统计——8.1 产生随机变量
第8章 概率统计——8.1 产生随机变量
|
8月前
|
机器学习/深度学习 算法 Python
数学和微分角度理解梯度下降算法
数学和微分角度理解梯度下降算法
|
算法 定位技术
最优化方法(最速下降、牛顿法、高斯牛顿法、LM算法)
最优化方法(最速下降、牛顿法、高斯牛顿法、LM算法)
376 0
最优化方法(最速下降、牛顿法、高斯牛顿法、LM算法)
|
9月前
|
机器学习/深度学习 并行计算 算法
基于遗传算法和非线性规划的函数寻优算法
以下内容大部分来源于《MATLAB智能算法30个案例分析》,仅为学习交流所用。
|
9月前
最优化--凸函数--拉格朗日乘子法
最优化--凸函数--拉格朗日乘子法
二阶常系数非齐次线性微分方程的通解
二阶常系数非齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
|
11月前
|
机器学习/深度学习 算法 Oracle
NeurIPS 2022 | 马里兰、北大等机构提出量子算法用于采样对数凹分布和估计归一化常数
NeurIPS 2022 | 马里兰、北大等机构提出量子算法用于采样对数凹分布和估计归一化常数

热门文章

最新文章