无需在数据集上学习和预训练,这种图像修复新方法效果惊人 | 论文

简介:
本文来自AI新媒体量子位(QbitAI)

Reddit上又炸了,原因是一个无需在数据集上学习和预训练就可以超分辨率、修补和去噪的方法:Deep image prior。

帖子的博主是俄罗斯斯科尔科沃科技研究院(Skoltech)的博士生Dmitry Ulyanov,他介绍了与两名导师 Victor Lempitsky和Andrea Vedaldi共同完成的论文《Deep Image Prior》。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

效果惊人

在项目主页上,我们看到了Deep image prior惊人的修复结果。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

在这些示例中,研究人员用深度神经网络分析了几个图像恢复问题。值得注意的是,研究人员从来没用数据集来训练或预先训练过它们,而是作为一个结构化的图像整体。

其中蜗牛图的恢复为典型的JPEG压缩图像的盲修复问题,通过不断迭代,这种新方法可以恢复大部分信息同时消除色圈和块效应。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

在4x图像超分辨率的演示中我们发现,新方法从使用过任何一张低分辨率的图像,但却生成了更清晰的结果。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

 4x图像超分辨率结果

在区域修补示例中,尽管没有学习,但新方法可以成功修复大块区域,在这种操作中,超参数的选择很重要。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

 区域修补结果

此外,研究人员还与Shepard网络了卷积稀疏编码的效果对比,对比一看,还是新方法的效果更好。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

 上部分为与Shepard网络的对比,下部分为与卷积稀疏编码的对比

论文摘要

深度卷积网络已然成为图像生成和修复最流行的工具。因为它们能从大量示例图像中学习真实的图像先验(image prior),因此在处理图像时效果显著。

与上述思路相反,在这篇文章中,研究人员表明,生成网络能够在开始任何学习前捕获大量low-level的图像统计信息。为了证明这一点,研究人员还展示了一个随机初始化的神经网络可以作为一个手工先验(handcraft prior),在去噪、超分辨率、图像修复等标准的逆问题上效果很好。

此外,同样的先验可以用来反推深度神经表征进行诊断,并根据输入闪光/无闪光图像对恢复图像。

参考资料

其实,在项目首页上还有更多好玩的对比示例,地址为:

https://dmitryulyanov.github.io/deep_image_prior

论文地址:

https://sites.skoltech.ru/app/data/uploads/sites/25/2017/11/deep_image_prior.pdf

补充材料:

https://box.skoltech.ru/index.php/s/ib52BOoV58ztuPM#pdfviewer

代码地址:

https://github.com/DmitryUlyanov/deep-image-prior/blob/master/README.md

本文作者:林鳞 
原文发布时间:2017-12-01
相关文章
|
2月前
|
机器学习/深度学习 编解码 PyTorch
训练Sora模型,你可能需要这些(开源代码,模型,数据集及算力评估)
在之前的文章《复刻Sora有多难?一张图带你读懂Sora的技术路径》,《一文看Sora技术推演》我们总结了Sora模型上用到的一些核心技术和论文,今天这篇文章我们将整理和总结现有的一些开源代码、模型、数据集,以及初步训练的算力评估,希望可以帮助到国内的创业公司和个人开发者展开更深的研究。
|
5月前
|
存储 Java API
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(下)
62 0
|
4月前
|
自然语言处理 安全 网络安全
22LLMSecEval数据集及其在评估大模型代码安全中的应用:GPT3和Codex根据LLMSecEval的提示生成代码和代码补全,CodeQL进行安全评估【网安AIGC专题11.22】
22LLMSecEval数据集及其在评估大模型代码安全中的应用:GPT3和Codex根据LLMSecEval的提示生成代码和代码补全,CodeQL进行安全评估【网安AIGC专题11.22】
123 0
|
12天前
|
机器学习/深度学习 人工智能 算法
基于AidLux的工业视觉少样本缺陷检测实战应用---深度学习分割模型UNET的实践部署
  工业视觉在生产和制造中扮演着关键角色,而缺陷检测则是确保产品质量和生产效率的重要环节。工业视觉的前景与发展在于其在生产制造领域的关键作用,尤其是在少样本缺陷检测方面,借助AidLux技术和深度学习分割模型UNET的实践应用,深度学习分割模型UNET的实践部署变得至关重要。
58 1
|
5月前
|
存储 自然语言处理 Apache
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(上)
【网安AIGC专题11.7】17ASAP如何更好地改进少样本提示:在LLMs的prompt中添加语义信息,来提高代码摘要生成+代码补全任务的性能。CodeSearchNet数据集(上)
59 1
|
机器学习/深度学习 数据可视化 算法
基于深度学习的瓶子检测软件(UI界面+YOLOv5+训练数据集)
基于深度学习的瓶子检测软件(UI界面+YOLOv5+训练数据集)
255 0
|
8月前
|
人工智能 缓存 并行计算
终极「揭秘」:GPT-4模型架构、训练成本、数据集信息都被扒出来了
终极「揭秘」:GPT-4模型架构、训练成本、数据集信息都被扒出来了
346 0
|
11月前
|
编解码 计算机视觉
详细解读 | Google与Waymo教你如何更好的训练目标检测模型!!!(附论文)(二)
详细解读 | Google与Waymo教你如何更好的训练目标检测模型!!!(附论文)(二)
76 0
|
11月前
|
编解码 计算机视觉 异构计算
详细解读 | Google与Waymo教你如何更好的训练目标检测模型!!!(附论文)(一)
详细解读 | Google与Waymo教你如何更好的训练目标检测模型!!!(附论文)(一)
128 0
|
11月前
|
机器学习/深度学习 自然语言处理 算法
CVPR 2022 | 大幅减少零样本学习所需的人工标注,马普所和北邮提出富含视觉信息的类别语义嵌入
CVPR 2022 | 大幅减少零样本学习所需的人工标注,马普所和北邮提出富含视觉信息的类别语义嵌入