裸眼3D显示

2025-01-02

裸眼3D显示(精选10篇)

裸眼3D显示 篇1

摘要:在制作3D节目内容的过程中, 某些实体对象, 特别是活动的人物很难用3D建模工具软件来制作, 而需要实地拍摄。在分析裸眼3D显示原理的基础上, 探讨了实体对象的多视角3D拍摄原理和方法, 讨论了立体“图像对”的不同显示方法所产生的不同视觉效果, 以及重建目标虚拟深度的控制方法, 并给出了具体的计算公式和处理步骤。

关键词:裸眼3D,拍摄与显示,虚拟重建,深度调整

由于裸眼3D在观看时不需要佩戴眼睛, 且可以采用多视点手段, 让用户从不同的视角看到物体的不同侧面, 因此更加具有真实感。因此, 裸眼3D正在被逐步应用于很多领域。然而, 目前也有很多制约裸眼3D发展的因素, 其中片源是其中一个重要的方面。

对于大多数3D内容, 通常可以采用3DMAX等3D创作工具软件来设计制作[1], 通过多台虚拟摄像机共同拍摄, 从而很方便地得到多视点的视频内容。但是, 对实际生活中的某些实际场景和对象, 用户如果需要看到真实3D效果, 就很难用创作工具来建模制作, 这就需要通过摄像机的真实拍摄和处理来得到。

然而, 如何进行拍摄和处理才可以达到预期的目的, 使得特定的场景内容重建在特定的深度位置上?本文分析了拍摄和显示过程中可能遇到的问题, 给出了具体的设计和计算方法, 从而使得拍摄和显示的效果可以预料和控制。

1 裸眼3D显示基本原理

3D视觉效果, 来自于左右眼的视差[2]。如图1, OL和OR是同一物点O在左右两个图像中的像, O'是O的视觉重建。当处于图1a的情况时, 右眼看到的图像在左边、而左眼看到的图像在右边, 两个视线的交点就是在大脑中感觉到的重建像O'的虚拟3D位置, 这时是凸出到屏幕前面, 为负深度。类似地, 图1b中, OL和OR位于屏幕的同一位置, 虚拟重建像点O'也与它们一样位于同一位置, 即在屏幕的表面上, 为0深度。而图1c中, O'则在屏幕的表面的背后, 为正深度。

裸眼3D的原理是在不带眼镜的情况下, 通过某种方法让左右眼分别看到具有视差的两幅图像, 从而在大脑中感觉到深度层次的存在 (如图1所示的原理) [3,4]。通常会将从不同视角拍摄的多幅图像融合显示在一个平面显示器上, 并采用狭缝光栅或者柱状透镜光栅的方法来将它们分别投射到左右眼中, 即“分像”作用。

图2中是3个视点的例子, 人眼处于图中的位置时, 左眼看到的全部是画面2的像素, 而右眼看到的全部是画面3的像素, 它们构成一个图像对, 即图像2-3。人眼左右移动, 左右眼就可以分别看到图像对2-3、3-1和1-2。因此只要相邻画面为具有一定视差的画面, 人们就可以看到立体视觉效果[5]。

因此, 在显示的一幅平面图像中, 适当地安排各个图像的像素排列, 通过图2的原理达到“分像”的效果;同时, 同一物点的像在各分图中位于不同的坐标位置, 通过图1的原理达到3D的视觉效果。

2 3D视频的拍摄

3D拍摄通常有两种相机配置方法, 即平行相机和汇聚摄像机[2]。由于汇聚摄像系统必然产生图像内容的梯形变化, 需要更为复杂的后处理。这里选择平行摄像机配置为例。

平行相机系统中, 多个摄像机的光心位于一条直线上, 光轴互相平行。各个相机拍摄的图像将最终作为裸眼3D显示的“分图像”。由于3D重现时, 人眼在同一时刻只看到相邻的两幅图像, 因此下面取任意两台相邻摄像机来研究, 例如C0和C1 (见图3) 。

设在世界坐标系中的物点P (X, Y, Z) , 摄像机C0的光心位置为C0 (0, 0, 0) 。摄像机的图像平面垂直于Z轴, 在此平面中建立图像平面坐标系 (x, y) , x轴和y轴的方向分别与X, Y方向平行, 坐标原点位于图像的中心。设点P (X, Y, Z) 在C0像平面坐标系中的像点坐标为p0 (x0, y) , 则有

式中:f为摄像机的焦距, 即光心与像面的距离。

假设另一台同样规格的摄像机的位置为C1 (B, 0, 0) , B>0, 与第一台摄像机平行放置, 间距为B。设同一物点P (X, Y, Z) 在该摄像机的像平面坐标系中的像点为p1 (x1, y) , 其y坐标与p0 (x0, y) 中的相同, x1坐标为

把拍摄到的两幅画面重叠放置时, p1和p0并不重合, 而是有一定的相对位移dx=x1-x0, 这就是视差。实际上, 在3D重现时, 由于显示器的尺寸可能随时变化, 因此引入显示放大倍数k, 即在显示屏幕上的实际视差物理位移为

可见, 当k, B, f固定时, dx'与Z成反比关系, 因此视差dx记录了深度Z信息。

3 3D视觉深度重现

在进行裸眼3D显示时, 全部N个相机拍摄的图像将被重叠显示在一个屏幕上 (当然观看时要经过光栅的分像处理, 这里不详细讨论) 。为论述方便, 这里为重建系统建立坐标系 (X', Y', Z') , 原点位于显示器的屏幕中心, Z'轴指向屏幕背后, 如图4所示。设重建的虚拟物点为P' (X', Y', Z') , 根据几何关系, 则无论视差为正还是为负, 都可以推导出如下关系

式中:D为观看距离, 即人眼到屏幕的距离 (无符号数) ;E为人的左右眼间距 (无符号数) , 而Z'和dx'为有符号数。在某一观看位置, 人眼只被允许看到由相邻分图像组成的图像对, 比如I0和I1, I1和I2, I2和I等。然而, 人眼对左右图像的不同观察次序将会导致不同的视觉效果。

3.1 同序观看

假设让左边的眼睛看到左边相机拍摄的图像 (如I0) , 右眼看到右眼相机拍摄的图像 (如I1) , 即同序观看, 如图4所示。

则重建的虚拟像点P'将位于屏幕和人眼之间, 亦即具有负深度。式 (3) 即描述了这种关系, 将式 (3) 代入 (4) , 则

由于Z∈ (f, ∞) , 可知, Z'全部为负深度, 因此所有物体都被压缩显示于屏幕和人眼之间, 并且深度次序是正确的。Z'∈ (-D1+E/k B, 0)

3.2 反序观看

反过来, 让左边的眼睛看到右边相机拍摄的图像 (如I1) , 右眼看到左边相机拍摄的图像 (如I0) , 即反序观看, 则像点P'将位于屏幕之后, 如图5所示。

这时有

从几何关系上明显看出:如果dx'≤E, 则视线无法在眼睛前方汇聚。因此必须有dx'

由式 (8) 和 (7) 可知, Z'>0, 即所有物体都被压缩显示于屏幕之后的一段距离内。并且深度次序是逆转的, 即实际上远的物体看起来近, 而近的却看起来远。因此, 这种模式不能得到正确的视觉效果。

3.3 深度移动

根据上文的讨论, 应该选择同序观看方式, 以便得到正确的观察结果。

然而, 即使在这种方式下, 所有重建对象都凸出在屏幕前方, 会影响显示效果。因为在现有的多视点显示技术中, 虚拟位置偏离屏幕表面时, 都会带来分图像之间的交调现象, 偏离屏幕越远交调现象越严重。这是实际显示过程中难以避免的。因此, 希望将重建对象的虚拟位置整体向屏幕后方移动, 以便使最重要的重建内容位于屏幕的表面, 即显示坐标系中的0深度, 而整体场景以屏幕表面为中心在深度上前后分布, 从而得到最佳的视觉效果。如图6所示。

假设世界坐标中Z=Z0处的物体虚拟显示在屏幕表面, 则Z0的重建虚拟深度Z0'=0, 或者对应的视差为0。为此, 将画面左右相对平移Δx, 使得Z0处的物点对应的屏幕视差为0, 即可达到目的。即令dx'Z=Z0+Δx=0, 结合式 (3) 得

式中:K0=fk/Z0。例如对于图像对I0和I1, 需要将I0向左平移|Δx|, 或者将I1向右平移|Δx|。裸眼3D的分图像 (即视点) 数通常采用5~9个, 则每一对相邻视图之间都要做相对平移。以5视点为例, 即分图像为I4, I3, I2, I1, I0。可选择中间的图像I2不作移动, 而左边摄像机的图像 (I0, I1) 都向左移动, 即I1左移|Δx|, I0左移2|Δx|, 右边摄像机的图像都向右移动, 即I3右移|Δx|, I4右移2|Δx|。平移后, 物体的重建虚拟深度Z'变为

由于f/Z0为拍摄时的缩小比例, k为显示时的放大比例, 因此K0为综合的缩放比例, 即:中心物面Z0处的物体真实尺寸与其屏幕显示尺寸的变换比例。设空间物体的实际尺度为S, 它在屏幕上显示的物理尺度为S', 则有

比如Z0处有一个直径10 cm的球, 其在屏幕上显示的实际尺寸也是10 cm, 则K0=1, 如果在屏幕上显示为5 cm, 则K0=0.5。这提供了一种从宏观角度估算平移像素数量的方法, 即首先测量S'和S, 并计算K0, 然后根据K0计算Δx。

4 拍摄和处理步骤举例

拟拍摄的场景中包括坐在椅子上翘起腿的人物, 人物后面的桌子以及桌子上的茶杯, 桌子后面是白色的墙壁, 如图7所示。选择5视点系统, 采用上海狼影通信技术有限公司出品的21.5 in (1 in=2.54 cm) 狭缝光栅裸眼3D显示器, 点距离0.248 mm, 显示分辨率为1 920×1 080。

采用5台摄像机同时拍摄, 摄像机配置为B=60 mm。拍摄画面如图8所示。

作为例子, 选择人物为核心对象, 也就是显示的时候希望把人物显示在屏幕的表面, 来估算像素平移的数目, 处理步如下:

1) 测量人物的实际高度。人物坐下来的实际高度为S0=1 250 mm。

2) 测量人物在显示器上的高度。把其中任意一个图片显示在屏幕上, 并测量人物的高度, 约为200 mm。

3) 计算K0, K0=S'/S=0.16。

4) 计算画面平移的物理距离为Δx=K0B=9.6 mm。

5) 计算折合像素数n=Δx/0.248=38.7像素。

据此, 进行图像的平移与3D合成, 合成的方法见参考文献[5], 这里不再详述。合成后的效果如图9c所示。

图9a是原始图像的直接合成, 没有做平移处理, 这时的重建画面都虚拟显示在屏幕的前方, 由于大部分内容的视差较大, 图像交调现象明显, 视觉效果不好。图9b是平移28像素的合成情况, 杯子的视差为0, 杯子显示在屏幕表面, 最为清晰, 而人物的视觉效果依然不佳。图9c为平移38像素的情况, 人物纵向中心 (例如右手) 位置的视差为0, 各个分图像的这部分内容完全重合在一起, 人物中心虚拟重建在屏幕的表面, 杯子和双脚分布在屏幕的后面和前面, 这时画面的整体3D视觉效果比较好。

在实际的拍摄处理过程中, 由于计算和测量的误差, 需要在合成软件中为用户提供中心物面的选择机会, 并依据实际视觉效果进行画面平移量的微调。

5小结

本文分析了3D拍摄过程中可能遇到的技术问题, 详细讨论了平行摄像机系统下, 从拍摄到屏幕重现的原理、不同的显示方法所带来的不同效果, 以及重建视觉深度的调节方法, 给出了具体的计算关系。该方法不仅适合于静态图像的处理, 也适合动态场景的设计, 比如将舞台中心作为中心物面, 则舞台上的人物活动的整体视觉效果都会比较好。作为一个例子, 总结了具体深度要求下的图像平移像素数目的估算步骤, 实验显示了计算的正确性, 为裸眼3D的内容拍摄者提供参考。

参考文献

[1]杜江, 刘文文.基于自由立体显示的3DMAX立体显示功能的实现[J].计算机时代, 2007 (7) :30-31.

[2]贾振堂, 张俊峰, 韩艳芳.Windows环境下的立体视频测试平台技术[J].电视技术, 2007, 31 (9) :80-83.

[3]王琼华.3D显示技术与器件[M].北京:科学出版社, 2011.

[4]JAVIDI B, MYUNGIIN C.3D imaging and visualization:an overview of recent advances[C]//Proc.12th Workshop on Digital Object Identifier.[S.l.]:IEEE Press, 2013:1-3.

[5]JIA Zhentang, HAN Yanfang.3D mouse realization in autostereoscopic display[C]//Proc.Multimedia and signal Processing Seconds International Conference.Shanghai:[s.n.], 2012:367-374.

裸眼3D知多少 篇2

人眼所见均3D

3D即Three-dimensional的缩写,指三维立体图像。而人的左右两只眼睛距离大约在6.5厘米,对同一物体左右眼将看到不同的视角影像,大脑再将视角影像合成具有深度特征的3D影像。因此,人类看到的物体都是3D图像。

3D显示技术原理

眼睛具有3D识别能力,但对于显示设备(例如显示器)来说必须顺应眼睛的识别原理来构建图像,否则无法实现3D效果。3D眼镜就是通过眼镜将左右影像分离开来分别送到左右眼中从而实现3D效果。裸眼3D技术则是通过调节光的角度使左右影像分别输入人眼以实现3D效果。

各种主流裸眼3D技术

目前,柱状透镜、视差障壁、指向光源为三种主流裸眼3D技术,下面来一一了解。

1.柱状透镜裸眼3D技术

工作原理:在液晶显示屏的前面加一层柱状透镜,使液晶屏的成像平面位于透镜的焦平面,每个柱状透镜下面的图像像素就被分成几个子像素,透镜就能以不同的方向投影每个子像素。由于像素间的间隙会因为透镜而放大,在技术处理上,需要将透镜与像素列错开一定的角度。这样,人的双眼就可以从不同的角度观看显示屏幕,进而能看到不同的子像素,最终完成3D效果的呈现(图1)。

2.视差障壁裸眼3D技术

工作原理:使用一个开关液晶屏、偏振膜和高分子液晶层,利用液晶层和偏振膜制造出一系列方向为90°的垂直条纹(宽几十微米),这些条纹的光就形成了垂直的细条栅,被称作“视差障壁”。而“视差障壁裸眼3D”正是利用安置在背光模块及LCD面板间的视差障壁来阻隔一只眼睛对目标图像的可视性。例如,在立体显示模式下,应该由左眼看到的图像显示在液晶屏上时,视差障壁会遮挡右眼,反之,视差障壁遮挡左眼,通过将左眼和右眼的可视画面分开,进而实现视差而最终形成3D视觉效果(图2)。

3.指向光源裸眼3D技术

工作原理:搭配两组LED,配合快速反应的LCD面板和驱动,让画面以排序的方式进入观看者的左右眼互换影像产生视差,进而形成3D效果(图3)。这种技术比较先进,比柱状透视、视差障壁裸眼3D技术更具优势,例如这种技术可以应用到手机、电脑、游戏机等设备中,进而可以普及发展。不过,这种技术仍处于研发阶段,距离产品上市仍需一定的时间。

对于这三种裸眼3D技术来说,各有优点及缺点。柱状透镜技术的亮度不会受到影响,但观测视角宽度会稍小;视差障壁技术由于背光遭到视差障壁的阻挡,所以亮度也会随之降低,要看到高亮度的画面比较困难,除此之外,分辨率也会随着显示器在同一时间播出影像的增加成反比降低,导致清晰度的降低;而指向光源技术在3D显示的亮度和分辨率上都能够得到保障,但是這种技术尚未成熟。

视差障壁由于技术复杂度比柱状透镜低,目前市场上该类产品较多,而柱状透镜技术则是趋势和主流。国内外3D业内人士一致认为,随着3D产业链的逐渐成形,商用展示将是3D产业最先启动的市场,随后是便携式个人消费类电子产品,最后将是市场规模庞大的家用市场。

裸眼3D显示 篇3

随着人们生活品质的改善, 对色彩和显示技术特别是3D显示技术提出了更高的要求。就目前3D显示技术中, 总体分为了眼镜式3D技术以及裸眼式3D技术两大类, 并以眼镜式3D技术的偏振式3D技术为主流[1]。但眼镜式3D技术具有严重的缺陷, 就是光线经过偏振片过滤之后, 亮度变暗, 容易模糊不清;并且需要观看者配戴眼镜, 这就给原本就佩戴了眼镜 (如近视眼镜) 的观看者带来了不便和十分糟糕的体验, 达不到预期的欣赏效果。此时裸眼3D显示技术的探究就显得格外重要。

从立体视觉原理来分析, 每只眼睛看到的图像会有细微的不同, 根据人左右眼感光细胞的视差成像在视网膜上, 大脑会将这些图像处理成立体视觉效果, 而不是真正在物理空间上呈现3D立体特征。目前主流裸眼3D显示技术原理主要是这种基于双目视差的深度暗示[2]。特提出一种基于光电效应的激光“萤火虫效应”的裸眼3D显示方法, 从新的角度探索3D显示技术。

1理论分析

根据人眼细胞的感光频率, 光按照是否可见, 分为可见光和不可见光。二者的频率范围不同。研究真正物理空间上呈现3D立体特征, 需要解决的基本问题是按照各个物体的结构显示, 那么就需要在具体的物体空间内有可见光进入人眼, 而且要符合物体的基本结构。

由于光在介质材料中传播, 其频率不变, 不能将不可见光转变为可见光, 那么在显示空间内外都是可见光, 无法显示空间物体的基本结构, 所以不能直接使用可见光。但是如果采用不可见的激光, 并在传播中与介质材料发生光电效应现象[3]。发生电子跃迁, 光子逸出, 使光子在合适的可见光频率范围内, 达到将不可见光转变为可见光。再对可见光进行显示控制, 使其能够在空间内显示出物体, 这种方法称为“萤火虫效应”。

“萤火虫效应”是指假设空间内有无数按规则排列整齐的萤火虫, 根据物体的结构特征规则, 按规则点亮该空间内的萤火虫, 而规则外的萤火虫则不点亮;萤火虫时亮时暗, 利用人眼的视觉暂留, 由此而显示出物体结构特征。根据该效应, 光电介质材料是空间内按照规则排列整齐的萤火虫;激光的光电效应产生光子就是点亮萤火虫, 而显示出物体结构特征就是按照规则发射出激光。因为光电效应的发生是不需要时间, 发出激光则点亮, 激光停止则瞬间熄灭, 所以只要控制好激光发射的时间和位置就可以在空间内显示物体。

为了提高显示效果, 像素的分辨率是一项重要指标[4]。那么在“萤火虫效应”原理下, 一只萤火虫, 或者说一个光电效应所逸出的光子, 就对应一个像素点。以目前技术标准, 达到高清1080P画质, 其分辨率为1920×1080PPI, 每英寸的像素数为207万。像素点大小约为3214百万个/平方米, 即激光点大小和出光口大小为3214百万分之一m2, 同时要求光电材料的敏感度为7.56万分之一m, 约为1.3×10-5m, 达到了微米级别。具体空间内的像素点越小, 则分辨率越高, 显示效果就越好, 那么同时对激光点大小和光电材料的敏感度的要求也越高。

2单、双面激光源显示模型对比

如图1所示, 对排列整齐的光电材料的位置关系建立空间直角坐标系, 某个位置点的坐标为, 单面激光源中与该位置点对应的激光点坐标为。

在单面激光源下, 要点亮坐标, 发生光电效应, 需要点的激光源发出激光。但是若Z方向上的光电材料各点的激发特性一致, 在点的激光源发出激光后, OZ方向上所有的点都被激发, 光子逸出而点亮, 这显然不满足现实的要求。所以需要在Z方向上光电材料各点的激发特性不一致, 其激发频率随Z的坐标呈现函数关系f=f (Zi) , 该函数关系最好是线性的, 而且要求其分辨率达到微米级别。由此, (xi, yi, 0) 点的激光源发出激光的频率也符合该函数关系。

矩阵向量, 该向量上的点亮规则矩阵G=[a1, a2, a3, ……, an], 其中a1, a2, a3, ……, an的取值为0或1。所以矩阵向量Z上的点是否点亮取决于ZGT=[a1Z1, a2Z2, a3Z3, ……, anZn], 若ai取0, 则aiZi=0, 表示Zi不点亮;ai取1, 则aiZi=Zi, 表示Zi点亮。综上, 根据ZGT=[a1Z1, a2Z2, a3Z3, ……, anZn]内的取值, 激光发射频率f为ZGT矩阵内各个元素对应频率的混合叠加。

同理, 如图2所示, 光电材料的位置关系建立空间直角坐标系。某个位置的坐标, 而面激光源1中的坐标为, 面激光源2中的坐标为。

在双面激光源下, 要点亮坐标发生光电效应, 需要 (0, y1i, z1i) 、 (x2i, y2i, 0) 两点的激光源同时发出激光。因此即使光电材料激发特性的一致, 也能点亮坐标 (x2i, y2i, z2i) 。但是, 由单面激光源可知, 因为光电材料的各点激发特性一致, 激光频率给定不变。一个激光点会引起OX方向上所有的点都被点亮;另一个激光点会引起OZ方向上所有的点都被点亮, 故不满足要求。所以要求只有在两点的激光源同时发出激光才能点亮坐标, 这就要求光电材料具有双点激发性。

单、双面光源优缺点比较:单面光源只需要一面激光源, 其功率小, 更加节能;但需要激光点发出的激光频率符合函数, 并且需要同一激光点发出多个频率的激光, 即多个函数值;同时对光电材料也要求符合这一频率函数的激发特性, 这二者要求难以到达。双面光源不需要变频激光, 其频率为定值, 容易实现;但两面激光源, 其消耗功率大, 是同等条件下单面光源的两倍;它要求两点同时发出激光, 而且要求光电材料只有在两点光源的汇交点时, 才会被激发。

由此可知, 用面激光点点亮立体点, 从二维平面点到三维立体点, 终究会有一个方向上的信息, 不足。只有补充这个方向上的信息才可以点亮特定点。这个信息可以依据光电材料的特性设定, 例如上述的激发频率、双点激发性, 甚至还可以是温度。这就对激光技术研发和寻找光电材料提出了新的要求。

3结束语

文章从新的角度探索裸眼3D显示技术, 摒弃了目前主流的双目视差的深度暗示, 而是在物理空间上真实呈现3D立体特征。提出了一种基于光电效应的激光裸眼3D显示方法和“萤火虫效应”的概念。该方法提出了单、双面光源“萤火虫效应”的模型, 并进行了点亮“萤火虫”的规则研究。阐述了各自模型对激光和光电材料在微米级别的制造要求和特性要求, 以及各自的优缺点。

参考文献

[1]张兴, 郑成武, 李宁, 等.液晶材料与3D显示[J].液晶与显示, 2012 (4) :448-455.

[2]王琼华.3D显示技术与器件[M].北京:科学出版社, 2011.

[3]王庆有.光电技术 (第2版) [M].北京:电子工业出版社, 2008.

国内首款裸眼3D手机 篇4

外观设计

好的外观令人印象深刻。卓普ZP200设计较为普通,但简单平凡的外观给人成熟、稳重之感。它采用了4.3英寸夏普原裝ASV裸眼3D显示屏,支持多点触控。在摄像方面,搭载了800万像素的SONY摄像头,而前置摄像头则有30万像素,支持主流的720P高清视频录像。

性能测试↑

卓普ZP200采用了国产自主品牌手机惯用的MTK平台设计,搭载了主频为1GHZ的MTK MT6575单核处理器,1GB运行内存,内置PowerVR SGX531图形芯片,整体性能在单核手机中处于领先水平,可以满足日常应用需求。

从安兔兔和Neocore的测试成绩来看,卓普ZP200的测试结果还是令人满意的。跑分情况已经处于单核顶级水平,跟双核手机成绩也十分接近,应付日常应用绰绰有余。但稍有遗憾的是,卓普ZP200没有自己独特的UI界面。从界面的功能来看,卓普还要在提高用户的操作体验上下功夫了。

裸眼3D效果↓

小编随意打开一张3D照片,从图中可以清晰地看出3D的立体效果。当点击2D/3D切换键后,可以将3D照片迅速转换成2D样张风格。不过在视频显示方面,裸眼3D的实际效果不明显。

←拍照效果

从样张呈现的效果来看,图片的整体色彩偏暖色调,拍照时自动对焦较为迅速,速度比较理想。

裸眼3D显示 篇5

本文提出的基于FPGA的SD卡图片读取显示,通过对FPGA的逻辑设计实现对SD卡BMP图片寻址、读取、缓存、解码和显示等处理,实验表明系统准确完整地读取图片,为立体图像实现提供数据来源。

1 SD卡读取显示结构

SD卡选用SanDisk的2G容量的SDHC卡,SD卡允许两种通信协议:SD模式和SPI模式[2],系统采用SPI模式实现SD卡的读取。FPGA选用Altera Cyclone系列的EP2C8Q208C8N,系统总体结构如图1所示图像数据从DO输入FPGA,经过FPGA处理后输入到液晶显示器的信号接口。

为完成SD卡图片的采集、缓存及显示,FPGA的控制逻辑设计应包括SD卡控制模块,系统控制模块,SDRAM控制模块和VGA控制显示模块。FPGA的输入晶振为50 MHz,SDRAM工作时钟为100 MHz,系统设计了系统控制模块解决时钟的同步问题和产生稳定的系统复位信号。FPGA逻辑设计结构如图2所示。

2 图片数据读取

2.1 SPI总线接口及时序

SPI接口具有高速、全双工同步通信的特点,SD卡的工作采用独立序列输入和序列输出的SPI模式。SPI以主从方式工作,由SCK,MOSI,MISO,CS组成,其中时钟信号由主机产生,MOSI是从机输入,MISO是从机输出,CS为片选位。[3]作为一种同步串行外设接口,SPI在每个SCK的时钟沿变化传送一位数据。为和外设进行数据通信,根据外设工作要求,需要配置其输出串行同步时钟极性和相位,设置CPOL=1和CPHA=1,串行同步时钟空闲时为高电平且在SPI_CLK第二个跳变沿采样数据。时序图如图3所示。

系统设计了SPI_CTRL模块用于实现SPI通信协议,模块接口如图4所示。

SPI_CTRL控制数据通道的打开关闭,当spi_tx_en=1时,将数据寄存器spi_tx_db的数据逐位移入spi_mosi线,供从机接收,8位数据来自主机输入;当spi_rx_en=1时,将spi_miso线上的数据逐位移入到8位的spi_rx_db中,供主机从SPI控制模块获得数据。

2.2 SD卡文件读取

进行图片数据读取操作之前,需确定文件存储的地址,但由于SD卡的文件格式和容量大小的不同,其引导扇区、各扇区的大小、FAT的数量都不一样,设计中通过WinHex软件以管理员权限运行查看SD卡的存储结构方式确定地址。待读取文件的地址计算方法:相对偏移+offset。查看偏移量0x0B~OxOC读出每扇区的字节大小为0x200,以物理驱动器的方式打开SD卡读出地址偏移量0x1C6~0x1C9的值为0x00000083,乘以每扇区字节数计算相对偏移:0x00000083×0x200=0x00010600,offset可以直接读出,由上可以确定Photo的地址。

为完成图片数据的读取设计分两步进行,SD卡上电初始化以及SD卡数据读取操作。SD卡上电后延时40μs等待SD就绪,然后发送74+个spi_clk,发送的时候需保持spi_cs_n=1,spi_mosi=1,之后发送CMDO并等待SD卡回应0x01,重复发送CMD55和ACMD41直至SD卡回应0x00,最后发送CMD16命令设置一次读写BLOCK为512个字节完成初始化。初始化完成发送命令CMD17,接收读数据起始令牌0xfe后读取512 hyte数据以及2 hyte的CRC,设置一个32位参数寄存器arg,发送一次CMD17命令,arg<=arg+32'h0000_0200以完成对图片数据的完整读取图5为使用QuartusⅡ10.1软件的State Machine Viewer查看的SD卡控制模块状态转移图。

3 图像数据缓存

SD卡控制模块寻址图片后将图片数据和FIFO写请求wrf_wrreq发送到缓存模块进行数据流的控制。缓存模块结构示意图如图6所示,利用Cyclone芯片内部资源构建512word的16位宽wrfifo和rdfifo,接收wrf_wrreq后将数据写入wrfifo,发送写SDRAM请求给SDRAM控制模块,数据被写入SDRAM,需要显示时发送读SDRAM请求,数据读出到rdfifo。

采用乒乓操作实现数据的双缓冲,设计两个Buffer,Buffer1用于接收并处理数据,Buffer2则作为液晶显示器的扫描缓冲。在Bufferl准备好数据时将两个Buffer进行调换,在LCD液晶屏上显示从SD卡中读出的左右格式图片。

SDRAM选用三星K4S641632,内部结构1 M×16 bit×4 bank,共64 Mbit的存储容量。SDRAM控制模块完成SDRAM的初始化和读写操作。SDRAM上电延时200μs后对4个bank预充电,随后8次刷新,8次刷新完毕进行MRS设置SDRAM操作模式[4],设计中为提高数据存取效率,设计了SDRAM读写的全页突发模式实现在0~255地址递增期间传送0~255的数据,在每个page burst后必须发送突发停止命令。初始化完成进入等待状态,响应发送的读写命令。图7是使用SignalTap嵌入式逻辑分析仪捕获的SDRAM的操作波形图。

图7中we_n为高电平,捕获时SDRAM正在进行页读取传输。

4 图像显示

BMP格式图片数据是从图片左下开始右上结束存储的RGB数据,液晶显示器数据扫描为从左到右、从上到下,数据从rdfifo读出之后需先色彩表解码后再送VGA显示。根据VESA标准,VGA显示的行场时序都需有各自的同步脉冲、显示前沿、显示时序段和显示后沿[5]。以800×600分辨率图片为例进行显示验证,图片显示带宽为:800×600×72 Hz=34.56 MHz,VGA显示时序图如图8和表1所示。vga_ctrl模块控制通过计数器x_cnt和y_cnt设定显示区域,产生hsync和vsync信号,将R、G、B数据分别送至相应VGA接口以及发送读FIFO请求rdf_rdreq。

5 系统仿真及实现

使用ModelSim对VGA控制模块进行仿真,仿真波形如图9所示。VGA控制模块发送读FIFO请求信号rdf_rdreq,数据从rdfifo中读出,TestBench中定义译码之后用于显示的dis_data为8'bl 1100011,当valid为高电平,行场信号hsync和vsync也为高时,dis_data的8位数据分别输出给VGA接口的R、G、B进行显示。图10是使用Quartus内嵌逻辑分析仪对系统下载sof配置文件进行在线调试的波形图,数据从SD卡中读出经过FIFO和SDRAM的缓存后输出到液晶显示器显示。

系统采用台式电脑液晶显示器和TFT LCD液晶屏作为图像显示设备进行实验,完整采集到SD卡图片数据,系统工作稳定。图11是FPGA完成数据读取、缓存和驱动VGA显示SD卡图片。图12为读取SD卡图片数据进行双缓存之后在LCD液晶屏显示左右格式图片。

6 小结

本文提出的在裸眼3D系统下基于FPGA的SD卡图片读取显示,利用FPGA并行处理的优势,解决便携式3D设备图片数据来源、较大图像数据缓存以及BMP图片解码问题,应用于广告机、数码相框等,为裸眼3D系统的左右格式图像合成提供参考和数据来源,具有较好的通用性。

实现了图片数据读取、缓存、双缓存、解码和显示,系统工作稳定,通过修改VGA_CTRL、rdfifo容量和图片数据地址可以实现显示双视图,且支持不同分辨率的图片的读取,可

参考文献

[1]梁发云,何辉,施建盛,等.基于FPGA的视频信号采集[J].电视技术.2014,38(7):54-57.

[2]李德桥,丁克勤.SD卡控制器的FPC,A实现[J].仪表技术,2010(8):44-45.

[3]陈磊.基于FPGA的SD卡控制器设计[D].武汉:武汉理工大学,2013.

[4]张林,何春.高速SDRAM控制器设计的FPGA实现[J].电子科技大学学报,2008(37):109-112.

裸眼3D显示 篇6

随着科技的不断发展, 电影行业不断提高现代人的口味, 将3D技术应用到了电影中, 制作出了立体电影, 这使人们在观看电影的过程中犹如身临其境, 感受到前所未有的真实感与震撼力, 唯一美中不足的是观看3D电影需要戴眼镜, 否则就享受不到立体电影的魅力所在。如何打破这一瓶颈, 开发裸眼3D技术成为了备受社会各界关注的科研话题。

科技攻关, 追求卓越

毕业于合肥工业大学仪器科学与光电工程学院, 目前担任南昌大学机电工程学院副教授的梁发云, 在第一次体验立体电影时就发现了戴镜观影的不便, 便萌发了破解裸眼立体技术的想法。经过艰苦卓绝的反复实验攻关, 他带领研究团队在裸眼3D技术、机器人立体视觉交互技术等领域做出了出色的成绩, 获多项科技成果奖, 并承担国家自然科学基金、省部级科技项目的研究工作。

艰难起步, 敢为人先。在2002年梁发云攻读博士学位期间, “裸眼立体显示技术研究”正式立项, 梁发云也顺势开始了对裸眼3D技术难题的研究。十几年如一日, 他始终坚信, 想要建立我国在3D技术上的主导地位, 必须在关键技术、行业核心技术上走自主研发的可持续发展道路, 于是他带领科研团队潜心研究, 不断打破裸眼3D技术瓶颈, 成为国内该领域研究的先行者。

梁发云的研究并未从最初使他萌发想法的3D电影开始, 而是首先从飞行员训练的角度出发的。因为飞行员上天前通常要进行模拟训练, 模拟训练所使用的屏幕是立体三维才能达到与上空时同样的场景, 才能使飞行员在驾驶训练时可以清晰地观察到飞机行进的实况图。“为了更加逼近真实感觉, 减轻飞行员负担, 免去戴眼镜带来的麻烦, 裸眼体验立体空间的真实性显得迫在眉睫。”梁发云称。

在进行研究前, 由于国内在这个方向上的研究还基本上是空白, 公开的资料和文献都非常稀少, 导致梁发云的整个科研团队根本不知道从何下手, 通过什么样的方法来达到真实场景的显示?它的机理是什么?都无从知晓。但是在强烈的使命感驱使下, 他们必须持之以恒地进行科研攻关。

由于当时可供参考的文献基本来自国外, 梁发云为了搜集和翻阅国外的相关研究资料, 为自己的科研项目寻求突破口, 在开始课题研究的前几个月基本上是一手摘录笔记, 一手翻英汉词典。

裸眼3D技术需在机构、电子、光学三个领域的有机集成, 光学机理最为关键。利用光学技术将光学差分板固定在液晶显示屏的前面 (或后面) 构成前置式与后置式的裸眼3D液晶屏, 裸眼3D液晶屏使用TFT LCD作为图像显示单元, 左右眼图像分别显示在奇列和偶列构成的亚屏幕上, 其光学差分组件改变图像显示单元上的左右眼图像传输光线, 在观看区域会聚后形成左右眼独立视区, 双眼接收到各自独立的互不干扰的图像, 从而获得立体视觉效果, 这是实现裸眼技术的关键所在。

攻克关键技术, 初战告捷

科研攻关, 必须抓住关键点。梁发云通过长期思考, 认为裸眼3D技术关键在于控制光线走向, 设计光路图。按照图像分离原理, 通过仿真, 经过无数次尝试, 他终于通过编程寻优获得了可实现双视图分离的光路图。这意味着研究的最大难题基本攻克。光路图的正确与否需要实验验证, 因此必须寻找有实力的光学仪器厂生产光学元件, 复原光路图。为了寻找元件加工单位, 他不辞辛劳, 跑遍了全国各大城市, 考察了多家光学仪器厂, 经过深思熟虑, 最终与深圳的光学仪器厂达成合作。

2003年11月, 国内第一台裸眼立体显示器样机终于正式诞生, 屏幕大小为15英寸, 外观看起来就象普通的液晶显示器, 通过演示, 样机基本达到裸眼立体的效果, 为裸眼3D技术的发展打开了艰难的一页。

样机研制成功了, 但是其质量是否能达到满意的效果呢?梁发云的研究工作重心开始转向了技术质量评价方法的研究。当时, 政府计量部门还没有对裸眼3D设备技术质量进行测试的装备, 学术界也没有涉足此项研究的案例。梁发云与课题组成员只能尝试自己攻关, 经过反复推敲, 在使用CCD相机来测试眼睛观看3D显示器时获得的图像上找到了突破口。他们设计了能在亚屏幕上显示测试图案的软件和CCD传感器定位装置, 传感器在显示器前方的空间里密集移位拍照, 亚屏幕上的目标图案被完整记录下来。经过对几百张图片进行分析, 终于有了重大发现, 有些照片里只有一个清晰的亚屏幕测试图案, 而另一个亚屏幕测试图案非常暗淡。又经过反复调试和实验, 课题组终于获得了裸眼3D显示器技术质量评价的重要测试方法, 提出了“立体度”和“独立视区”来描述该技术的技术质量, 从而攻克了裸眼3D显示这种新型显示技术发展的重要瓶颈问题。

目前, 裸眼立体技术的关键部分已经完满解决, 该技术的主要创新点可以总结为提出了亚屏幕和独立视区的概念, 完善了裸眼3D技术的光学机理研究;提出了立体度参数评价方法, 为裸眼3D显示器的技术质量评价提供了一种有效的测试手段;提出了基于眼睛跟踪的自动多视点技术的实现方法, 提高了亚屏幕图像的分辨率。为我国裸眼3D技术的进一步研究打下了科研基础。

就这项研究, 梁发云共发表学术论文20余篇, 并申请了多项专利, 获得数项江西省高校科技成果奖。2012年12月16日在江西省教育部门组织召开的“裸眼3D技术理论及应用研究”科技成果鉴定会上, 对该项研究的鉴定结论为“项目研究内容及成果丰富, 创新性明显, 在裸眼3D技术参数评价方法和自动多视点技术研究方面达到了国内领先水平, 具有重要的理论意义和实际应用价值。”这些都是对他个人及其科研成果的充分肯定。

实践应用, 打造全新的视觉冲击

每一项科研成果都是为实践应用铺路的, 因为只有将科研成果转化为生产力, 才能创造更大的价值。裸眼3D显示器的研究成功只是梁发云研究工作的开始, 更艰难的课题是裸眼3D显示器的普及应用。比如扩大应用范围使之在不同的领域发挥作用。完善裸眼立体显示器的产品化设计, 进一步研究不同尺寸屏幕下的裸眼3D技术以及尝试裸眼立体技术的不同实现方法等等。怎样才能让自己的科研成果更好的为国家和人民创造价值, 成为了梁发云和他的课题组的又一新课题。

付出总是有回报的, 多年的兢兢业业, 换来了硕果累累, 梁发云的研究团队在裸眼立体技术基础理论及定标模型和应用研究、裸眼3D液晶屏组件成套技术研究开发、基于光学差分技术的自适应裸眼3D显示产品等项目上都取得了突破性的进展。研究成果中的一些主要创新点, 即亚屏幕和独立视区的概念、立体度参数评价方法、裸眼3D显示器视觉特性测量、自动多视点技术等, 更是让国内外专家侧目, 受到业界专家学者的关注。

2010年4月, 梁发云毅然组建了南昌兴亚光电科技发展有限公司, 专注于裸眼3D技术产品的研制与开发。随着科技的发展, 3D技术已经逐渐深入到了普通民众的生活。他顺应时代的潮流, 将裸眼3D技术广泛应用于台式计算机显示器、笔记本计算机显示器、3D广告机、移动3D电视、手机、平板电脑等领域, 给人们带来了不一样的视觉冲击, 具有巨大的市场价值, 有专家预言:“裸眼3D技术将引领一场前所未有的科技革命和产业革命。”

产业化发展, 拓展未来视野

在市场经济体制下, 最前沿的科研成果必将对经济发展起到巨大的推动作用。于是在目前产业转型和倡导实体经济建设大背景下, 梁发云果敢尝试, 在取得了一些科研成果之后, 毅然将目标投向了科技产业化。他组建的科技公司就是他将裸眼3D技术产品推广并将其产业化发展最好的平台。

梁发云准确把握市场脉搏, 瞄准裸眼3D产品的市场前景, 在公司发展的最初阶段, 他们试制了17英寸产品并进行了小批量试用, 用户反映3D效果明显。这让他更加信心满满, 不断加快了公司的产业化步伐。根据市场调查, 他们得出小尺寸裸眼3D系统应用面广、经济价值更高的结论, 于是公司不断致力于开发10英寸以下小尺寸产品, 以裸眼3D屏为基础, 开发嵌入式电路系统和应用软件, 在ARM高频芯片上组建平板电脑系统及应用系统, 研制裸眼3D视觉传感器以及图像视频播放软件。这也受到社会各界的广泛关注, 并已经得到科技部中小企业创新基金支持, 融资支持裸眼3D产品批量生产, 给公司带来巨大的经济效益的同时, 也带来了极大的社会效益, 推动了我国经济建设的加速发展。

公司还不断尝试将裸眼3D技术应用于更加广泛的领域, 包括车载系统、智能小区门禁系统等, 并取得了很好的效果。2013年国庆期间, 裸眼3D技术应用到了天安门广场“大花篮”的搭建之中, 业内有专家认为, 这意味着需要专业辅助器才可实现的3D技术即将被裸眼3D技术取代, 更标志着我国裸眼3D技术研究取得了重大突破。梁发云介绍说:从专业技术角度来说, 裸眼式3D可分为光屏障式柱状透镜技术和指向光源, 其最大的优势便是摆脱了眼镜的束缚, 但是分辨率、可视角度和可视距离等方面存在不足。不过, 经过多年的研究, 裸眼3D技术的弊端已经基本被解决。

对于裸眼3D技术的未来发展方向, 梁发云认为, 实现裸眼3D技术的产业化发展是未来的必然趋势, 裸眼3D技术未来可广泛应用于多个领域。裸眼3D技术是影像行业的最新、最前沿的高新技术, 它的出现和发展改变了传统平面图像给人们的视觉疲惫, 也是图像制作领域的一场技术革命, 是一次质的变化, 在未来有着广阔的前景。

目前, 裸眼3D已经在一些电子产品覆盖的主要领域铺开, 已上市的裸眼3D产品主要有裸眼3D手机、裸眼3D电视、裸眼3D笔记本, 裸眼3D摄像机等等。同时, 梁发云也表示, 要实现裸眼3D技术的产业化发展, 目前还需深入研究3D图像处理技术、3D传感器技术、3D视觉交互技术以及3D视觉测量技术及其精度理论。他也将带领科研团队继续攻关, 继续走在裸眼3D技术及产品研究开发的前沿。

披荆斩棘, 勇攀高峰

作为工学博士, 副教授, 硕士生导师, 梁发云桃李天下, 将自己多年的科研知识、经验和成果传授给了热爱科研的新一代。作为科研人员他呕心沥血, 专注于裸眼3D技术、虚拟现实技术、智能化仪器仪表的研究, 为祖国的科研事业做出了突出贡献。他先后在国营企业、船舶重工集团研究所、高新技术企业任职。主持及参与多项研究课题, 主持江西省教育厅一般科技项目一项、重点项目一项 (裸眼立体技术基础理论及定标模型和应用研究) 、重大产学研项目一项 (裸眼3D液晶屏组件成套技术研究开发) , 主持中小企业科技创新基金项目。他研究的“裸眼3D技术理论及研究”获得了高等学校科技成果奖。

对于未来, 梁发云执着追求, 他将继续行走在科研的道路上, 不断耕耘, 不断收获。

裸眼3D技术必将为人类带来前所未有的视觉盛宴, 成为未来显示设备的主流标准。它在中国的成功开发与应用, 开启了福泽未来的产业变革。穿越技术瓶颈, 纵横科技天地, 呈现在人们面前的是历经风雨后的碧海蓝天, 抒写了这位高知学者不平凡的人生, 预示着他更加辉煌的未来。梁发云怀着对科研事业的热爱和对祖国培育之情的感恩, 继续攀登高峰, 为“中国梦”的实现奉献终身。

一种裸眼3D电视系统的设计方案 篇7

近几年利用人眼视觉原理的眼镜式3D显示在电视领域得到了大规模应用[1], 而裸眼3D显示不需佩戴如眼镜之类的辅助设备就能观看到3D立体图像[2], 是未来3D电视应用和发展的主要方向之一。裸眼3D显示分为视差屏障、柱状透镜、指向光源、全息、多层显示等技术[3,4,5];指向光源、全息、多层显示等技术非常复杂、工艺不成熟、成本高, 尚未得到较大规模商业应用;而视差屏障和柱状透镜技术实现简单、工艺成熟、成本低, 在教育、广告、娱乐等商业领域已经得到广泛应用。

视差屏障3D技术是在2D屏幕表面设置细条狭缝光栅来形成屏障, 通过遮挡并控制不同图像像素光线的走向, 让左右两眼接收到不同图像影像产生视差, 形成3D立体效果。如图1 (左) 所示, 左眼只能接收到奇像素发出的光线、右眼只能接收到偶像素发出的光线, 左、右眼分别接收到奇、偶图像, 使观者看到3D影像。柱状透镜3D技术是在2D屏幕表面加上一层柱状透镜光栅, 每个柱状透镜下有不同图像的像素, 透镜以不同方向折射不同图像像素发出的光线, 于是双眼从不同角度观看显示屏就接收到不同图像影像、产生视差, 形成3D立体效果。如图1 (右) 所示, 柱状透镜将奇像素发出的光线折射进左眼、将偶像素发出的光线折射进右眼, 左、右眼分别接收到奇、偶图像, 使观者看到3D影像。

本文提出一种裸眼3D电视系统的设计方案, 可应用于视差屏障式裸眼3D电视或柱状透镜式裸眼3D电视, 能够进行快速推广和应用。

1 系统原理

裸眼3D电视系统原理如图2所示。

前端处理对从USB、HDMI等端口输入的2D或3D电视信号进行解码、缩放、去隔行、格式转换、帧率转换等处理后, 输出统一格式的2D单视点图像信号或L/R双视点图像信号。输出格式与前端处理芯片的处理能力、接口带宽紧密相关。2D显示时, 该系统输出的格式为3840*2160@30Hz, 3D显示时, 该系统输出的格式为1920*1080@120Hz。

目前绝大多数电视信号为2D单视点或3D双视点信号, 进行裸眼3D电视的应用推广必须进行视点转换。视点转换将前端处理后的单视点图像或L/R双视点图像信号转换成多个视点图像信号 (以N视点为例, 分别为第1、第2、第3、...、第N视点) 。对于双视点转多视点, 系统根据L/R双视点图像对象的像素位移来估算出各个像素深度并生成景深图, 最后插值渲染出N-2个视点图像;而对于单视点转多视点, 系统根据单视点图像对象的位置关系、姿态、阴影等信息, 采用清晰度分析法来估算对象深度并生成景深图, 最后插值渲染出N-1个视点图像。

视点合成则根据裸眼3D屏物理像素和光栅的排列情况, 对N个视点图像的像素进行交织排列后, 形成一副合成图像。合成图像经过FRC (帧频转换) 倍频等后端处理, 驱动裸眼3D屏实现图像显示。

裸眼3D屏主要由2D屏与光栅组成, 采用狭缝光栅则是视差屏障式裸眼3D电视系统, 采用柱状透镜光栅则是柱状透镜式裸眼3D电视系统。裸眼3D屏进行屏幕分像, 将合成图像分解成独立的N个单视点图像 (视点顺序为1至N或N至1) , 即:经过FRC处理后的合成图像信号驱动2D屏像素发出光线, 光线经光栅阻挡或折射后集中在设定的N个视点区域, 处于不同视点区域的左、右眼接收到不同视点图像, 形成立体视觉感受。

2 关键技术

2.1 双视点转多视点技术

双视点转多视点过程如图3 (a) 所示。接收到L和R图像后, 分析图像的轮廓、边沿、纹理等几何特征信息, 根据几何特征信息进行对象匹配, 获取L和R图像中的相似对象区域。然后在相似对象区域选取匹配的一个像素点i (或选取一个像素点及其临近的像素, 将这些像素一起当成一个像素点) 进行像素矢量位移计算, 得到像素视差, 根据像素视差计算出像素深度值, 如图3 (b) 所示。像素深度值为:

其中, 像素视差P=|dr-dl|, dr和dl分别为L和R图像像素矢量位移, D为观看距离、E为人的双眼间距。

计算出所有像素深度值后, 将其转换为像素空间坐标, 将各个像素空间坐标连接起来形成一个整体, 绘制出深度图。根据深度图来插值生成某一角度新视点的灰度图, 并以L视点图像作为参考、根据新视点与L视点间的位置差异来进行颜色渲染填充, 输出虚拟的视点图像。将虚拟出的N-2个视点图像与原有图像一起组成N个视点图像。

2.2 单视点转多视点技术

单视点转多视点如图4所示。接收到单视点图像后, 分析图像中物体的远近和交叠等位置关系以及物体形状、姿态和阴影等暗示, 将图像划分为前景图像类、中景图像类和背景图像类。搜索和检测前景、中景和背景图像类中物体的边界和轮廓, 获取前景、中景和背景图像类中的各个物体对象。

然后根据各图像类灰度信息的空间频率分布情况来估算出前景、中景和背景图像类的清晰度值分别为Qf、Qm和Qb, 采用同样的方法估算出物体对象i的清晰度值xi。以前景图像类的清晰度值Qf估算为例:前景图像类的一个像素灰度值为:

前景图像类的清晰值Qf取|U (g, l) |最大值。

其中, R (s, t) 、G (s, t) 和B (s, t) 为像素的R/G/B (红/绿/蓝) 分量值, s和t为像素的行和列坐标, S和T为前景图像类的像素的最大坐标, g=0、1、2、…、S-1, l=0、1、2、…、T-1。

根据物体对象i的清晰度值xi以及Qf、Qm和Qb来估算出其深度值WP (i) :

其中, Qs为基准清晰度, β为设定系数。当图像为前景图像类物理对象时, Qs取Qm;当图像为背景图像类和中景图像类物理对象时, Qs取Qb。

进一步采用不同的函数来估算各个图像类中物体对象的景深值DP (i) 。中景图像类的物体对象景深值为:

背景图像类的物体对象景深值为:

前景图像类的物体对象景深值为:

其中, ω为设定比例系数, Curve为设定曲线函数, 且景深值与深度值具有相同正负。深度值越小则景深值越小, 深度值越大则景深值越大;深度绝对值越小则压缩比越小, 深度绝对值越大则压缩比越大。例如, Curve (-50) =-40, 压缩度为0.2;Curve (-100) =-60, 压缩度为0.4。

最后根据各个物体对象的景深值来绘制出深度图, 以单视点图像为参考、插值渲染出不同视点位置的虚拟视点图像。最后将虚拟出的N-1个视点图像与原有单视点图像一起组成N个视点图像。

2.3 多视点合成技术

多视点合成是对N个视点图像进行子像素抽取, 然后按照光栅排列情况进行子像素交织重排, 形成适合基于光栅的裸眼3D屏显示的合成图像。合成图像的像素交织方式与裸眼3D屏及分辨率密切相关。如图5所示为5视点的合成图像。2D屏幕分辨率为3840*2160, 每一像素点由横向排列的R/G/B三个子像素构成, 共3*3840*2160个子像素;每个光栅单元下面有1~5视点内的一个像素点, 像素点由倾斜角度为β的R/G/B三个子像素组成, 每个视点的分辨率为2304*720。

3 结束语

本文提出一种能够快速应用于柱状透镜式和光栅屏障式裸眼3D电视系统的设计方案, 详细阐述了方案的原理及关键技术的实现。该方案已应用于55寸柱状透镜裸眼3D电视和视差屏障裸眼3D电视, 具有较好的3D清晰度和亮度, 水平方向上3D可视范围约120°, 在2m至5m范围内可提供良好的3D体验。

摘要:本文提出一种裸眼3D电视系统的设计方案, 详细阐述了方案的原理及关键技术的实现。方案系统先将电视信号处理成单视点或双视点图像, 然后将单视点或双视点图像转换成N个视点图像, 并将N个视点图像交织成一幅合成图像来驱动裸眼3D屏发出图像光实现裸眼3D显示。该方案可快速应用于柱状透镜式和光栅屏障式裸眼3D电视产品, 具有广泛的应用价值。

关键词:裸眼3D,N视点,合成图像,柱状透镜,光栅屏障

参考文献

[1]徐遥令.一种眼镜式3D电视系统的设计[J].电子产品世界, 2014, 21 (7) :25-27.

[2]王飞, 王晨升, 刘晓杰.立体显示的原理、体视因素和术语[J].工程图学学报, 2010 (5) :25-27.

[3]胡素珍, 姜立军, 李哲林, 等.自由立体显示技术的研究综述[J].计算机系统应用, 2012, 23 (12) :1-8.

[4]张兴, 郑成武, 李宁.液晶材料与3D显示[J].液晶与显示, 2012, 27 (4) :448-455.

裸眼3D显示 篇8

随着科学技术的日趋高速发展,中国3D影视市场近年来呈现爆发性增长,人们对硬屏显示的要求也越来越高。多年来,许多企业和研究机构致力于荧屏显示技术的创新研究,使荧屏显示技术由原始普通的平面显示、液晶显示、立体显示发展到今天,已开发出了不需佩戴立体眼镜的3D裸眼显示技术。而硬件设备飞速的发展,使3D影视内容的崛起也异常之快。

时代华影拥有国内影院系统设备供应80%的市场份额,近期正在全国400余家影院投放42 in(1 in=2.54cm)全高清裸眼3D显示屏进行影院3D媒介系统的建设,全力打造裸眼3D应用新的商业模式,具时代华影董事副总裁周永业透露,该系统总计划设立3 000个3D裸眼媒介点,除了自身拥有的影院资源外,也正在与国内一批知名的3D产业公司进行洽谈合作,目前在硬件方面与广州朗辰、上海易维视、重庆卓美等达成了合作共识,在内容制作和商业运作方面已与华南唯一一家立体实拍单位立体互联达成了合作意向,不久将签订合作协议,共同打造裸眼3D产业链和生态模式,为裸眼3D产业的发展助力。

梁发云:裸眼3D技术领跑者 篇9

南昌大学机电工程学院梁发云副教授通过近十年的努力,使人们的这一设想有了实现的可能。

梁发云,1970年12月出生,工学博士,副教授,硕士生导师。长期致力于裸眼3D技术、虚拟现实技术、智能化仪器仪表技术的研究。先后在国营企业、船舶重工集团研究所、高新技术企业任职。主持及参与多项研究课题,发表论文20多篇,获得国家专利10余项,江西省高校科技成果奖多项。2012年12月,其代表性的研究成果“裸眼3D技术理论及研究”通过江西省教育厅成果鉴定。

这是一项什么样的技术,竟然吸引梁发云投注了十余年的热情?

2002年,梁发云放弃了某研究所的工作,决定跟随他的硕士研究生导师邓善熙教授继续攻读博士学位,并选定裸眼3D技术作为研究方向。

当时大部分计算机是CRT显示器,液晶显示器还属高端应用。邓教授提供了几个博士论文选题,建议他试试不用佩戴眼镜的3D技术,当时还没有“裸眼3D技术”的称谓。在文献资料廖廖无几、研究组在显示技术领域积累薄弱的条件下,解决关键技术的难度很大,梁发云“冒失”“大胆”地选择:研究下去。

选题确定后,他钻研液晶技术,参观展览会,查找文献,了解人眼立体视觉机理,拆解研究液晶显示器,设想能实现裸眼3D的光学器件结构……有一阵子,他甚至每天在往返于食堂、实验室的途中,脑子里萦绕的都是光学机理、质量测试、评价方法等问题……

通过不懈钻研,他终于将心中的设想变成了手中的现实:2003年底,国内第一台裸眼立体显示器样机正式诞生,效果优于国外第一代裸眼3D样机。

他和研究小组的成员们通过自制的标定设备,进行了大量的测试、验证,最终确定了独立视区的分布规律,发现了“立体度”参数的质量评定方法,为优化设计和质量检测提供了一种有效的技术手段。“裸眼3D技术质量评价方法”相关论文发表后,为国内国际的裸眼3D技术的升级、优化提供了有效手段。

2005年,梁发云博士毕业,到南昌大学机电工程学院从事教学科研工作。在这里,他将裸眼3D技术向更精深处开拓。

梁发云团队使用光学差分板固定在液晶显示屏的前面(或后面)构成前置式与后置式的裸眼3D液晶屏,液晶屏是用TFT LCD作为图像显示单元,左右眼图像分别显示在奇列和偶列构成的亚屏幕上。其光学差分组件改变图像显示单元上的左右眼图像传输光线,在观看区域会聚后形成左右眼独立视区,双眼接收到各自独立的互不干扰的图像,从而获得立体视觉效果。

通过攻关,他们提出了亚屏幕分区、独立视区及其空间分布特征等理论,完善了裸眼3D技术的光学机理研究;探索了立体度参数及相应测试方法,完成裸眼式3D显示器的质量评价和视觉特性测试研究;提出一种具有特色的不同于柱透镜原理的自动多视点技术实现方法,在眼睛识别与跟踪算法和播放软件等方面进行了深入研究。

2012年12月16日,江西省教育部门在南昌组织有关专家召开了“裸眼3D技术理论及应用研究”科技成果鉴定会。鉴定结论认为,裸眼3D技术研究内容及成果丰富,创新性明显,在裸眼3D技术参数评价方法和自动多视点技术研究方面达到了国内领先水平,具有重要的理论意义和实际应用价值。这一成果研究的光学差分式裸眼3D技术可以作为图像、视频、文字的视觉接口,可广泛应用于图文显示设备。

学以致用,这是梁发云钻研裸眼3D技术的最终归属:“工科研究不能沉迷于书斋、满足于实验样机,对此极具应用价值的技术,需要尽快市场化,实现产业价值。”

梁发云说:“裸眼3D技术是新型显示技术领域的重点发展方向,科技部‘十二五’计划专门规划了其理论和应用的发展目标。3D技术已经进入产业化阶段,特别在消费电子领域具有巨大的市场前景,市场容量巨大,产业链的产值每年上千亿。”

基于上述认识,为了凝聚研究方向,在光学机理、评价标准和测试方法、视觉特性、3D图像与视频信号处理方法、微电子3D电路、3D传感器、虚拟图像、3D人机交互等领域加强研究,梁发云组建了裸眼3D技术与虚拟现实技术研究中心。

中心目前承担了厅委重点科技项目和产学研科技项目的研究开发工作,在产业化应用方面承担了科技部中小企业创新基金支持的产业化研究。为此,研究团队成立了南昌兴亚光电科技发展有限公司,专门从事裸眼3D技术的成果转化及产业化工作,向着他心中的产业化蓝图进发。

随着3D市场的逐步普及,3D影视作品将加快生产步伐,大部分影视剧及视频节目开始采用3D技术拍摄发行,3D动漫领域也将形成巨大的产能。裸眼3D技术的影像产品适合于中小尺寸的家庭电视机、电脑显示器、监控设备、楼宇广告设备、车载影像设备、便携娱乐影音设备、通信设备等,产品模块化、标准化的发展趋势日益明显。裸眼3D技术的应用体系非常广泛,可以形成不同尺寸规格、功能多样化的技术产品,丰富用户需求,促进产业链发展。裸眼3D技术将加速3D时代的到来!

裸眼3D显示 篇10

友达推出的裸眼全视角3D显示技术, 突破传统裸眼3D显示的视角限制, 以眼球追踪技术 (eye-tracking system) 抓取观者眼球移动的位置, 使得观众无论站在那个位置, 均能看到相同效果3D的影像, 不仅观众看到的3D画面效果更优异, 没有视角限制, 让欣赏3D影像更加轻松自由。

该技术具有高亮度、无穆尔纹 (Moire free) 的影像画质, 并可在同一画面下同时观看2D和3D模式, 或是在二个模式中切换, 均能呈现高分辨率影像, 观众可以在享受3D影像时, 仍能看清楚画面中的所有文字, 呈现最佳视觉效果, 也最能满足目前3D技术应用在信息显示器应用方面的最大需求。

在今年日本国际平面显示器展 (FPD International 2010) 中, 友达所展出全球第一的全视角3D显示技术产品, 分别为Full HD 15.6寸、WXGA 10.1寸, 可应用于笔记本电脑及平板电脑显示器, 预计于2011年第三季即可量产。

友达光电致力投入3D面板显示技术开发, 提早技术专利布局, 包括收购Ocuity公司的Lenticular lens 3D显示技术, 为了提升3D影像液晶屏的技术, 友达也与全球领先的裸眼3D技术解决方案供应商超多维公司 (Super D) 合作, 在3D液晶屏产品中导入Super D裸眼3D技术解决方案。友达光电将注资Super D 6000万港元, 并获得Super D公司的10%股份, 友达与Super D将携手共同提升3D影像面板的技术与生产能力, 推动裸眼3D技术在信息显示器面板的应用发展。该项技术将会运用到计算机等显示器中, 为消费者带来方便、清晰、逼真的3D影像, 消费者将不须配戴眼镜就能感受到栩栩如生的3D影像世界。

上一篇:供应链企业竞合研究下一篇:核定扣除办法