裸眼3d大揭秘(我们来探讨裸眼)

文/ 杨光临、李舜,北京大学电子学系空间图像处理研究室,接下来我们就来聊聊关于裸眼3d大揭秘?以下内容大家不妨参考一二希望能帮到您!

裸眼3d大揭秘(我们来探讨裸眼)

裸眼3d大揭秘

文/ 杨光临、李舜,北京大学电子学系空间图像处理研究室

3D 显示技术概述

随着社会科技的进步发展,各种各样的图像显示设备推陈出新。从早期的黑白电视机、彩色电视机,再到后来的数字电视和高清电视,以及如今的4 K、8 K分辨率电视机,人们对于视觉享受的需求越来越高。

近些年,随着 3D 电影的上市,如阿凡达等一系列 3D 电影在全球的风靡,人们感受到 3D 图像显示带来的强烈视觉冲击。3D 图像显示被认为是下一代的显示方式,蕴含着巨大的市场前景和经济效益,众多厂商如索尼、东芝均投入资金,加快对 3D 图像显示的研究开发。研究3D图像显示具有相当的市场前瞻性和经济价值。

目前,常见的 3D 图像显示技术可分为如下几类:计算机 3D 动画、主动式 3D 显示、被动式 3D 显示以及全息 3D 显示[1]。

  • 计算机 3D 动画

    计算机生成的 3D 动画,是采用计算机计算生成的 3D 模型,如各式各样的 3D 游戏。其实质是在 2D 平面上模拟出立体物体的投影效果,使得人在观看该 2D 图像时,能够通过大脑的信息二次加工,感受到原 3D 物体的立体感。

    由于在显示上是 2D 的普通图像,故计算机 3D 动画实际上是“伪 3D”,不涉及人眼本身的立体视觉。其基本的实现方式是在空间坐标系中通过计算机构建出一个假想的物体模型,在空间坐标系中摆放一台假想的“相机”,通过摄像投影的一系列坐标变换,将立体图像投影到平面上。为了增加真实感,中间步骤还需使用照明光、纹理映射等图形学的方法。

  • 主动式 3D 显示

    主动式 3D 显示是指观看者必须佩戴特制的眼镜才能观看到 3D 图像,如 3D 电影《阿凡达》等。其利用了立体视觉的基本原理,即由于人眼是有视差间隔的,故双眼看到的实际上是同一物体不同角度的图像,大脑会将这两路具有视差的图像综合为立体图像。

    主动式 3D 显示就是利用特制的观看眼镜分别将带有视差的图像送入双眼,通过大脑将该视差图像进行视觉信息处理,使观看者“误以为”看到了真实的立体物体。换句话说,对于计算机 3D 动画而言,其立体感是需要大脑通过调用曾经有过的经验加以还原原始立体场景而想象出来的。而对于主动式 3D 显示,大脑接受到的就是视差图像,这种方式利用人眼的立体视觉机制“欺骗”大脑,使其误以为看到了真实的立体物体,而其实只是两幅具有视差的图像。

    目前常见的主动式 3D 显示技术,根据所佩戴的眼镜种类不同,可分为色差式、偏振式以及主动快门式。这三种眼镜的区别如表1所示。

    表1 主动式 3D 显示分类

  • 被动式 3D 显示

    被动式 3D 显示是指无需佩戴特制眼镜即可直接观看到 3D 效果的观看方式,也就是裸眼 3D 显示。图1所示为裸眼 3D 视频立体实时显示装置。目前市面上使用的裸眼 3D 显示系统仍然较少,能见到有裸眼 3D 手机、裸眼 3D 平板等,其支持观看 3D 效果的角度都很小,而且只限于观看特制的裸眼 3D 影片。

    图1 裸眼 3D 视频立体实时显示装置(13 个视点)

    其基本原理同样是利用了人的立体视觉机制,如果说主动式 3D 显示是通过特制的眼镜将视差图像送入双眼,裸眼 3D 显示则是通过特制的显示屏将光线分到不同的方向上,使观看者在这些方向上能够接收到视差图像。

    根据观看的范围可以分为单视点裸眼 3D 显示和多视点裸眼 3D 显示。单视点裸眼 3D 显示只能在屏幕前某个固定的位置上才能看到 3D 图像,而多视点裸眼 3D 显示能够在屏幕前的多个位置,甚至是一个较大的范围均能观看到 3D 图像。根据显示屏的构造,裸眼 3D 显示可分为视差障壁式柱状透镜式集成成像式,这三种方式的区别如表 2 所示。

    表2 被动式 3D 显示分类

    目前制造裸眼 3D 显示屏的公司有:飞利浦、东芝、LG、Magnetic3D、Exceptional3D、Vestel、TCL、京东方等。

    飞利浦于2010年推出了56英寸 LCD 裸眼3D 显示器,观看范围为120度,15个视点[2];东芝于2010年推出了两款12英寸和20英寸的裸眼 3D 显示器,观看范围为 30度,13个视点和24个视点。值得一提的是惠普实验室的研究人员发明的一种多角度衍射背光技术,该技术采用基于发光二级管的导波照明,能够实现高分辨率全视差宽视场的裸眼 3D 显示[3]。

  • 全息 3D 显示

    全息最基本的原理是采用相干光与已记录好的全息媒介发生干涉,再现出原记录物体的物波信息。全息 3D 显示是真正的裸眼 3D 显示,其不同于主动式或被动式 3D 显示,而是确实生成了一个真实的三维光场,该三维光分布从人眼看上去与真实存在的 3D 物体类似。从物体的光分布上说,全息显示出的立体感和真实的物体是类似的。

    换句话说,全息 3D 让人感受到的立体感,并不是采用一系列具有视差的 2D 图像并利用人的双目视觉机制去“欺骗”大脑,将这些视差图像综合出的立体感,而是在人面前放置一个 3D 物体,只不过这个 3D 物体并不实际存在,而只存在其相应的光分布。如果论视点数,那么全息 3D 因其光分布是连续的,具有无穷多个视点数。

    由于全息 3D 显示具有美好前景, 众多研究机构纷纷加入对全息 3D 显示的研究。美国 University of Arizona 和 Nitto Denko Technical Corporation 的研究人员, 采用全息立体图形技术[4] 以及光折变聚合物作为记录介质,完成了全息图像的动态显示,每帧刷新频率为2秒[5];MIT多媒体实验室的研究人员,采用 Kinect 深度相机拍摄并制作出实时的多视点全息图 Diffraction Specific Coherent Panoramagram [6]。

    目前全息 3D 显示技术尚未成熟,仍处于实验室探索阶段,无法实用。值得一提的是,还有一些不属于上文所述的 3D 显示技术同样能实现裸眼 3D 显示。比如 MIT 多媒体实验室开发的 Compressive Light Field Synthesis 技术[7], 以及日本 NICT 开发的 fVisiOn 技术[8]。随着科技的进步,可以预见 3D 显示研究将保持良好的发展趋势,各式各样的 3D 显示方式将层出不穷。

    裸眼 3D 显示的现存问题探讨

    主动式 3D 显示由于要佩戴主动式眼镜才能观看到 3D 效果,对于已经佩戴了眼镜的观众而言非常不方便,同时主动式眼镜价格较高且带起来并不舒适,所以相较而言裸眼 3D 有着直接观看的优势。此外,从长远来看,3D 显示有着向移动终端移植的趋势,因此裸眼 3D 就比主动式 3D 显示具有较大的优势。

    但同时目前裸眼 3D 显示也主要存在着两个问题:

    1)用于显示的裸眼 3D 显示器价格较为昂贵,且分辨率不高,观众在观看 3D 视频时易出现头晕等舒适度上的问题;

    2)缺乏用于裸眼3D 显示的片源。

    欧洲在2002年就开始了名为 Advanced Three-dimensional Television System Technologies (ATTEST) 的项目[9],其目标是实现欧洲第一个商用 3DTV 播放系统 [10]。他们采用了 16 个相机阵列建立了第一个从采集、传输、并最终裸眼显示动态场景的裸眼 3D 系统;日本 Nagoya University 采用密集相机阵列组建了第一个 Free-Viewpoint TV (FTV) 系统;Moving Picture Experts Group (MPEG) 自2001年以来, 将 3D video(3DV) 作为 FTV 的第一阶段目标,提出了一系列基于深度图像的 3DV 的标准[11],并发布了一系列 3DV 片源制作的相关工具[12];由此可见,要得到具有裸眼 3D 显示 3D 效果的片源,很重要一点就是要获得多视点图像源。

    目前市面上的裸眼 3D 显示器播放的大多都是通过计算机图形建模生成的动画,其真实感较差,无法比拟真实场景。在计算机视觉领域,为了得到多视点图像,需要首先获得源场景的深度信息。由于现存大量 2D 视频,有学者试图采用 2D 转 3D 的方式[13],从普通 2D 片源提取深度信息,但是从 2D 视频中抽取 3D 结构信息目前仍然是图像理解领域一个较难的问题,抽取得到的深度信息并不十分准确,同时需要大量的人为手工调整,工作量较大。

    除了从 2D 图像中提取深度信息,更为常见的是通过立体视觉的方法求取深度。对于立体视觉领域,目前存在着两种获得深度信息的方法:被动式和主动式[14]。被动式即通过经典的立体匹配算法得到视差信息,主动式即采用 Time-of-Flight (TOF) 相机发射红外光波后测量回波时间得到深度信息[15]。采用主动式方法较之立体匹配而言,需要采用昂贵的深度相机,并且深度相机标定和一般相机不同,比较复杂,同时其本身畸变较大,难以对于深度不连续的地方做出精确测量[16]。目前国内对于裸眼 3D 的研究刚刚兴起,许多技术尚未成熟,对于裸眼 3D 技术还在探索阶段。

    参考文献

    1. Liang Z, Vazquez C, and Knorr S. 3D-TV Content Creation: Automatic 2D-to-3D Video Conversion[J]. IEEE Transactions on Broadcasting, 2011, 57:372-383.

    2. engadget/2010/09/03/philips-dimenco-3d-tv-of-the-glasses-freefuturehopefully-our/.

    3. David Fattal, Zhen Peng, Tho Tran, Sonny Vo, Marco Fiorentino, Jim Brug, and Raymond G. Beausoleil. A multi-directional backlight for a wide-angle, glasses-free three-dimensional display[J]. Nature, 2013,495(7441):348–351.

    4. D J Debitetto. Holographic Panoramic Stereograms Synthesized from White Light Recordings[J]. Applied optics, 1969, 8(8):1740-1741.

    5. Blanche, et al . Holographic threedimensional telepresence using large-area photorefractive polymer.[J]. Nature, 2010, 468(7320):80-83.

    6. James Barabas, et al . Diffraction specific coherent panoramagrams of real scenes [J]. Practical Holography XXV: Materials and Applications,2011,7957:02.

    7. G o r d o n We t z s t e i n , e t a l . Te n s o r d i s p l a y s : c o m p r e s s i v e l i g h t f i e l d synthesis using multilayer displays with directional backlighting[ J]. ACM Trans,2012,31(4):8001-8011.

    8. Yoshida, S. fVisiOn: Glasses-free tabletop 3D display to provide virtual 3D media naturally alongside real media[J]. ThreeDimensional Imaging, Visualization and Display, 2012, 8384.

    9. A. Redert, M.O. de Beeck, C. Fehn, W. Ijsselsteijn, M. Pollefeys, L. Van Gool, E. Ofek, I. Sexton, and P. Surman. Advanced three-dimensional television system technologies[J].In 3D Data Processing V i s u a l i z a t i o n a n d T r a n s m i s s i o n , 2002,01:313-319.

    10. Wojciech Matusik and Hanspeter Pfister. 3D TV: a scalable system for realtime acquisition, transmission, and autostereoscopic display of dynamic scenes[J]. Acm Siggraph,2004,23(3):814–824.

    11. Video and Requirements. Applications and requirements on 3D video coding. ISO/IEC JTC1/SC29/WG11 N10857, July 2009.

    12. Video Subgroup. 3dv depth estimation and view synthesis software package. ISO/IEC JTC1/SC29/WG11 MPEG2011/N12188, July 2011.

    13. Yu-Lin Chang, Chih-Ying Fang,et al. Depth map generation for 2d-to-3d conversion by short-term motion assisted color segmentation[C].In Multimedia and Expo, on 2007 IEEE International Conference , 2007, 1958–1961.

    14. Jiejie Zhu, Liang Wang, Ruigang Yang, J.E. Davis, and Zhigeng Pan. Reliability Fusion of Time-of-Flight Depth and Stereo for High Quality Depth Maps[J]. IEEE transactions on pattern analysis and machine intelligence, 2011, 33(7):1400-1414.

    15. Cheon Lee, Hyok Song, Byeongho Choi, and Yo-Sung Ho. 3D Scene Capturing Using Stereoscopic Cameras and A Timeof-Flight Camera[J].Consumer Electronics,2011,57(3):1370-1376.

    16. Daniel Herrera C., Juho Kannala, and Janne Heikkil. Joint Depth and Color Camera Calibration with Distor tion Correction[J].Pattern Analysis and Machine Intelligence,2012, 34(10):2058-2064.

    作者简介

    杨光临,北京大学电子学系副教授,美国IEEE 会员,美国 OSA 高级会员,中国光学学会高级会员。研究方向主要包括光学立体成像、数字全息和 3D 图像显示等。

    李舜,日本索尼公司工程师,2010 年获得南京理工大学工学学士学位,2014 年获得北京大学工学硕士学位。研究方向主要包括电子通信、3D 图像显示等技术方面。

  • 免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

      分享
      投诉
      首页