博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
利用光场进行深度图估计(Depth Estimation)算法之一——聚焦算法
阅读量:5131 次
发布时间:2019-06-13

本文共 1286 字,大约阅读时间需要 4 分钟。

https://www.cnblogs.com/riddick/p/6754554.html

前面几篇博客主要说了光场相机,光场相机由于能够记录相机内部整个光场,可以实现重聚焦(模糊线索)和不同视角的变换(视差线索),同时也可以利用这个特性进行深度估计(Depth Estimation)。

 

先说一下利用重聚焦得到的不同聚焦平面图像获取深度图(模糊线索 ,defocus),其实这个原理非常简单。

 

1. 以聚焦范围为0.2F-2F为例,alpha∈(0.2,2),取Depth Resolution=256, 那么步长就为(2-0.2)/256,我们通过重聚焦算法可以获取得到这个范围内的256幅重聚焦图像。

 

2. 对每一幅重聚焦的图像进行求梯度的操作,得到梯度图,比如使用matlab中的Gradient2D()函数,得到256幅梯度图。注意,都是三通道的,所以求梯度也要在每一个通道进行。

用C++实现的gradient2D的代码如下:

 

 
View Code

 

 

 

 

3.对每一幅梯度图在局部窗口内进行均值滤波,相当于参考每一个像素点处的邻域梯度值,增加鲁棒性。这个可以简单的使用OpenCV中的Blur()函数实现。

 

4.均值滤波后的图像也是三通道的,这一步需要将每一个像素点处的三个通道值求平均,得到灰度图像。每一个像素点处的灰度值就为其对应的梯度值,而大家都知道,梯度值能够反应边缘、纹理等信息。

 

5.在每一个像素点处,遍历256幅图像,找到梯度值最大的那一幅图像(即该点在这一幅图像中最清晰,也就是聚焦到该像素点对应的物平面),获取该图像的索引值。(比如某一像素点处的第200幅图像中的梯度值最大,则记录index=200)。遍历所有像素点,并获取索引值。这样得到的是一幅索引图像,每一个像素点处的值对应为该点在该索引下的图像中梯度最大,在程序中为0~255.

6.得到上述索引图后就简单了,可以根据每一个像素点处的索引值找到对应的alpha值,也就相应的得到alpha*F的值,该值就为像距V。

 

7.得到像距V,根据光学中的物像位置公示1/U +1/V = 1/F。V和F均已知,当然可以算出该点处的U值,而U就是深度,深度图就得到了。

 

这次没有放图,有时间再放上去,原算法参考论文为[1],中文较为详细的参考[2]

[1] Tao M W, Hadap S, Malik J, et al. Depth from combining defocus and correspondence using light-field cameras[C]//Proceedings of the IEEE International Conference on Computer Vision. 2013: 673-680.

[2] 杨德刚, 肖照林, 杨恒, 等. 基于光场分析的多线索融合深度估计方法[J]. 计算机学报, 2015, 38(12): 002437-2449

转载于:https://www.cnblogs.com/jukan/p/9204912.html

你可能感兴趣的文章
5.分组函数
查看>>
java_Observer Design Pattern
查看>>
【c++编程思想】字符串
查看>>
Python入门神图
查看>>
CentOS 7.0安装
查看>>
在小程序开发的新风口 看华为云如何助立创科技抢占市场红利
查看>>
第一次博客随笔:苏钰冰
查看>>
HIS-DELPHI-读取数据库配置
查看>>
如何引入iconfont图标与Element-UI组件
查看>>
获取Model的所有属性字符串
查看>>
设计模式--模板方法 And State模式
查看>>
模板方法模式分析、图表和基本代码
查看>>
ArcMap合并之路 -- 该段路合并成一个完整的路
查看>>
该文件没有程序与之关联来运行该操作。请在控制面板的目录选项中创建关联 解决代码...
查看>>
(译)iOS Code Signing: 解惑
查看>>
[leetcode]70. Climbing Stairs爬楼梯
查看>>
sharepoint 脚本 强迫以管理员权限运行
查看>>
小程序中保持图片不变形并且铺满盒子
查看>>
姚拒拍日本广告
查看>>
linux常用命令:ip 命令
查看>>