当前位置:首页 » 电影百科 » vr电影如何制作
扩展阅读
小师姐大电影 2023-08-31 22:05:11
十大禁播韩国电影 2023-08-31 22:05:02
一个外国电影木瓜 2023-08-31 22:04:55

vr电影如何制作

发布时间: 2022-04-11 20:16:40

⑴ vr电影是怎么拍摄的,和传统电影的制作有什么区别

用多镜头的专用设备拍摄,由于是第一视角,制作的时候局限性很大,没有传统电影那么高的自由度和发挥空间。

⑵ VR全景是怎么制作的

拍摄制作VR全景图的步骤:

1、选择器材、拍摄照片:

目前市面上除了网络地图等大平台在用全景相机拍摄VR全景图以外,大部分的个体或从业者都是使用单反相机+广角镜头或者鱼眼镜头为需要的企业拍摄VR全景图。VR全景图是由多个照片拼接起来的,因此拍照的时候各个角度一定要有一部分的重叠,这样才能保证拼接的时候更好操作。

在拍摄时找好定点以后,在放置三脚架和云台时,一定要检查好相机、云台刻度等细节问题,然后针对不同的焦距镜头选择拍摄张数。

做完这三部基本上一张完整的VR全景图就出来了,上传到九商VR云平台以后还可以把做好的VR全景图分享给朋友,供朋友欣赏,对于专业的从业者,则只需分享链接就可以向客户交差了。

⑶ 怎么制作一个完整的VR全景视频

当我们拍完全景图,要把他发到如微信公众号的文章当中,会发现一个问题,全景图2:1的效果看上去很怪,所以我们要把它变成视频,现在VR云带你简单轻松的把360度全景图变成视频。

这个教程简单而且实用,只需要一个软件就能完成。废话不多说,下面我们来看教程。


方法如下:

1、打开ev录屏软件


5、点击文件-另存为-保存(完成后得到)

注意事项:

录制时的窗口最好是全屏

全景图开启自动巡游

录制旋转180度以内视角最佳

⑷ VR电影怎么拍

7月20日,极图科技在京发布了广播级VR摄像机Upano XONE,售价46800元。

Upano
XONE拥有六颗摄像头,每颗摄像头像素达到3000万像素,并且都有超视角光学镜头。这款VR摄像机内置GPS,支持LBS信息采集,还搭载了九轴姿态
传感器。据Upano介绍,XONE支持6K/30fps全景录制,4K/30fps全景直播。此外,XONE还支持双组360度3D VR摄像。

Upano-XONE

功能方面,XONE支持机内实时拼接渲染,还支持实时预览,方便导演实时监控,此外,它还支持后期单路分别调色。

这样的一款设备售价46800元人民币,你觉得贵吗?据黑匣网了解,2015年7月,极图科技发布过商用的高端全景摄像机Upano-J2VR。Upano-J2VR由3台Red Dragon(红龙)摄像机组成,造价高达180万元(也有用4台红龙,造价240万的方案)。黑匣网曾报道,好莱坞拍摄的VR影片《Help》使用的设备,就是由造价不菲的Red Dragon(红龙)摄像机组成的。延伸阅读:王思聪的钱,够拍多少小时的VR电影?
资料来源 黑匣网

⑸ 网上那些vr视频是怎么做出来的

VR视频的制作步骤主要如下:

  1. 打开网络浏览器,在输入框中输入“Media converter”并下载安装。

⑹ 制作一部 VR 电影会经历怎样的过程

  • 完整文章链接:制作一部VR电影会经历怎样的过程?转自:www.vr013.com

不少VR领域的从业者都认同这样的观点:娱乐型应用是VR领域的一个最重要突破口,也是最有可能首先盈利的。这样的言论下,最直接的结果是,围绕VR内容方面的创业者与讨论越来越多。一个直观的案例是:从2012年美国圣丹斯电影节上第一次出现VR电影开始,到2016年,参展影片的数量已经达到了33部。

VR+电影显然是一个被看好的方向,但VR电影又不仅仅是在屏幕上讲一个好故事那么简单。内容与技术发生碰撞,VR电影如何讲一个好故事?

在“当资本遭遇技术:2016,VR真的会爆发吗?”活动中,北京圣威特科技有限公司创始人杨涛和微影时代副总裁陈海峰、追光动画VR短片《再见,表情》的导演米粒,一起探讨了有关“VR+电影”的诸多问题。

极客公园:具体来讲,“VR+电影”如何创作?

米粒:其他大公司在交互上投入了非常大的力量,交互会走一些叙事的捷径,我们目前希望做的事情,是在交互尽量少的情况下,如何讲好故事,同时保持观众的注意力,跟上我们设计的叙事节奏。

我们一直在传统与前沿科技之间找平衡,VR作为一个以沉浸式体验为主要特点的设备,是它先天性的优势,但是如何利用这种优势讲故事,是我们目前行业内一个基本空白的状态,我们更多的注意力是在故事和体验之间找到平衡,为了控制时长,我们会比较克制地去使用交互,尽量利用各种各样的手法引导观众关注我们的故事。

另一点我们在制作过程中发现传统的视听语言受到限制,很多视听语言在VR中失效,剪辑的功能就失效了。制作过程中间我们有大量的手段尝试用这些手法在VR应用中,目前发现是失败的。当观众处于VR环境里,会认为自己切身地在那个环境里,一旦出现剪辑的话,观众会觉得自己像闪电侠一样移来移去。我们使用过很多方式,黑场、闪白、淡入、淡出进入这种转换,但是绝大部分还是在场景里。

屏幕快照2016-02-03下午5.40.54.png

(VR短片《再见,表情》)

交互的处理上我们是非常克制的,观众体验我们短片的时候,几乎没有跟电影角色里非常强的互动,更多的是通过声音,通过光,甚至通过主角的各种调度和位移来引导观众,从本能的一些反应来让他们关注故事的发展和跟进这个角色的表演。

另一方面,我们在声音的交互上也做了一些尝试,这在今天的VR上也能够体现,我们实验室在VR动画短片上使用目前电影新的技术,比如全景声方面的体验。我们不太想依赖简单的耳机,双声道的系统来体验VR的声音。

接下来比较重要的是沉浸感和仪式感。做VR动画短片的一个非常大的问题是观众的自我认知。很多观众在看VR短片的时候,很大的问题是“我是谁”,我在这个故事里到底是什么样的角色。我们在设计动画短片的时候,剧本开始就有考虑到这个点。在刚开始的时候,故事创作设计了一个更像是一个会场的环境,当观众戴上眼镜之后第一个反应我在一个会场里,我处于类似电影观影的场景,观众会觉得是观众的视角,不会认为我自己是主角。因为很多观众戴上VR设备的时候,信息量非常大,他会看周围的环境,在刚开始的前一两分钟让观众进入故事是非常困难的,我们更多的重心是如何让观众先进入这个场景,以最快时间明确自己在故事里的身份,这样更容易让故事正常的进行下去。

极客公园:VR电影游戏化和游戏电影化相比,谁更容易走得通?

米粒:游戏电影化这件事情在游戏持续非常长的时间了。有一家法国公司很早做游戏电影化,已经非常深入探讨游戏电影化的趋势,包括一些玩家做的选择产生的效应,你会有20个甚至更多不同的结局,让玩家体验游戏的时候产生不同的体验。游戏电影化这件事情对于VR来说是一个比较容易的事情。因为它只是将内容搬到一个新的交互平台上去,但是电影的游戏化是一个相对空白的区域。我觉得从创造内容上来说,还是要学习好莱坞。好莱坞已经将电影和故事的类型化推到非常高的平台级别,已经能够在内容层级上对观众进行非常细致的划分,对他们所产生的内容进行基本的一个相对准确的预判。

杨涛:从另外一个角度看,我感觉游戏和电影这两个东西都是建立在屏幕的基础上,是建立投影仪和电视上面,而VR全景的东西,我自己感觉是改变完全底层的东西,生长出来的到底是电影还是游戏,这个需要改变思维方式。我们现在从底下往上去走,还是已有的方块往下去走,这个我现在不好说最后结果什么样,但一定是全新的东西。

极客公园:在VR电影方向上来说,好的故事与新鲜的体验哪个更重要?

米粒:都挺重要的,视觉上的刺激和体验是VR延伸出来的一个优势。如何在这样的优势下去创造故事是一个难点,我们觉得未来观众进电影院去看VR,一定是带着这两方面的期待去的。有很多的故事并不是需要VR的方式才能得到最佳的体验,我们很多时候还是希望能够以第三人称,置身事外的感觉看别人的故事,所以有一类的故事需要我们沉浸感比较强,一旦观众选择VR的方式去观看一个电影,他一定是有两方面的期待,两方面的平衡还是需要我们未来在不停的尝试和各种探索。

杨涛:和电影的发展历程很像,技术的新鲜首先吸引大家的关注,在产生需求的基础上,后面才是真正提升故事性和剧本的阶段。

极客公园:VR市场上赚钱的方式可能有哪些?

杨涛:国内市场来说,如果要是没有极大诱惑力的话,靠硬件去盈利。在VR领域可能短期之内会依靠硬件盈利,但是一旦盈利就会面临免费的冲击。后面具体怎么盈利,以2016年年初的眼光看来,可能只是传统的这些模式,靠广告、版权,一些授权,或者体验店的形式,这些可能是可见盈利的手段。

陈海峰:有很多方式,很大一部分可能会跟内容本身关联度会很高。平台这个东西将来是挣平均利润,未来可能这些利润的差异会来自于内容的不同,或者是最终提供一种服务的差异,这是未来真正盈利的一个效果而且在某一天真正可以从C端上挣到钱了,这个行业才算真正在消费层级上站住了,可之前会烧很多钱。

⑺ VR全景如何制作

它赋予游戏玩家更身临其境的带入感,使得游戏从平面真正走向立体。

⑻ VR虚拟现实的视频是怎么做出来的。类似图片这样的,一般的普通视频可以做成下面图片那样吗!然后带上

图片是可以p出来的,但是真正运用到眼镜上并不会有虚拟现实的效果,因为视频必须经过主机的特殊处理之后才行,而且视频格式本身就很特殊,其中包含了动态的八声道音频,可以根据陀螺仪的位置矫正声道递送方向,视频包含了两个以及更多层次,才会有虚拟现实的效果,不然撑死是3d电影罢了

⑼ VR全景视频怎么拍

1、投影方式
全景拍摄并非是多么时新的一个概念,事实上它甚至可以追溯到12世纪的《韩熙载夜宴图》:
当然这并非真正意义上的沉浸式体验,就算我们把这幅长画给卷成一个圆筒,然后站在中心去观看,也依然会觉得缺失了一点什么,没错,一个明显的接缝,以及头顶和脚下两片区域的空白。
出现这种问题的原因是很简单的,因为宋朝人并没有打算把这幅画做成沉浸式的体验——当然这是废话——真正的原因是,画面对应的物理空间视域并没有达到全包围的程度,也就是水平方向(经度)360度,垂直方向(纬度)180度。没错,说到这里,你一定想到了这张图:
类似这样的世界地图也许在你家里的墙面上已经贴了有一些年头了,也许自从升上大学之后你从未正眼瞧过它,但是它却符合一张全景图片需要的全部条件,你把它放到各种VR眼镜里去观看的话,就宛若陷入了整个世界的环抱当中。
这种能够正确地展开全物理视域的真实场景到一张2D图片上,并且能够还原到VR眼镜中实现沉浸式观看的数学过程,就叫做投影(projection)。
而那张看起来平凡无奇的世界地图,使用的就是一种名为Equirectangular的常见投影方式,它的特点是水平视角的图像尺寸可以得到很好的保持,而垂直视角上,尤其是接近两极的时候会发生无限的尺寸拉伸。
下图中对于这种投影方式的拉伸现象体现得更为明显,注意看穹顶上的纹路变化,越是靠近画面的顶端,就越是呈现出剧烈的扭曲变形。幸好,VR头盔和应用软件的意义也就在于将这些明显变形的画面还原为全视角的内容,进而让使用者有一种身临其境的包围感。

然而全景图像的投影方式远不止这一种,比如最近刚刚发布的理光Theta S以及Insta360全景相机,就采用了另外一种更为简单而有效的投影策略:
通过它的两个鱼眼摄像头输出的画面,各自涵盖了180度的水平和垂直视场角,然后将两个输出结果“扣”在一起就是全视域的沉浸式包围体了。
当然,这种名为Fisheye的投影方式,生成的2D画面事实上扭曲变形是更加严重的。而通过图像重投影处理的方式将它变换到VR眼镜中显示的时候,受到图像采样频率的限制(或者通俗点说,像素点大小的限制),这样的扭曲被还原时会多少产生一定程度的图像质量损失,因而也可能会造成全景内容本身的质量下降。
由此看来,作为全景内容的一种重要承载基体,投影图像(或者视频)不仅应当完整包含拍摄的全部内容,还要避免过多的扭曲变形以免重投影到VR眼镜时产生质量损失。
那么,除了上述两种投影方式之外,还有更多方案可以选择吗?答案是,当然了,而且有的是!
比如墨卡托投影(Mercator),它沿着轴线的拉伸变形比Equirectangular更小,对应实际场景的比例更为真实,但是垂直方向只能表达大约140度左右的内容;
又比如Equisolid投影,也有人称之为“小行星”或者“720度”全景,它甚至可以把垂直方向的360度视域都展现出来,但是前提是使用者并不在乎巨大的扭曲变形可能带来的品质损失:
那么,有没有什么投影方式生成的画面,是能够覆盖至少360度水平方向和180度的垂直方向,并且没有任何画面的扭曲变形呢?
答案是:没有扭曲变形的单一图像投影方式,是不存在的。然而,如果投影的结果画面不是单一图像的话,方法还是有的:
如果你正好是一位图形开发或者虚拟现实软件开发的从业者的话,这张图对你来说应该是非常熟悉的,这就是Cubemap(立方体图像)。
它相当于一个由六幅图像拼合组成的立方体盒子,如果假设观察者位于立方体的中心的话,那么每幅图像都会对应立方体的一个表面,并且在物理空间中相当于水平和垂直都是90度的视域范围。而观察者被这样的六幅画面包围在中心,最终的视域范围同样可以达到水平360度,垂直360度,并且画面是绝对不存在任何扭曲变形的。
如下:
是一种很理想的投影结果了,并且如果你恰好懂得使用一些离线渲染软件或者插件来制作和输出全景内容的话,这一定是最合适的一种选择。然而,在实际拍摄当中我们却几乎不可能用到这种立方图的记录方式,原因很简单——我们现有的拍摄设备难以做到。
2、拼接与融合
如果说有六台摄像机,它们的FOV角度被严格限定为水平和竖直都是90度,然后造一个一丝不苟的支架,把这六台摄像机牢固而稳定地安装到支架上,确保它们的中心点严格重合在一起,并且各自朝向一个方向——这样的话,输出的图像也许能够正好符合立方图的标准,并且可以直接使用。
然而,无论摄像机镜头的感光面积,焦距参数(以及因此计算得到的FOV视场角度),还是支架的钢体结构设计与制作,都无法确保精确地达到上面要求的参数,几mm的光学或者机械误差看似无伤大雅,但是对于严丝合缝的立方图图像来说,必然会在最终呈现的沉浸式场景中留下一条或者多条明显的裂缝。更何况还有支架运动时产生的振动问题,以及相机镜头老化产生的焦点偏移问题,这些看似细小的麻烦各个都足以让我们刚刚构建的理想物理模型化为泡影。
理想和现实的差距如此之大,幸好我们还有解决的办法——没错,如果在拼接的地方留下足够大的冗余,然后正确识别和处理两台摄像机画面重合的区域,这样不就可以做到六幅画面的输出和组成全景内容了吗——而这正是全景内容制作的另一大法宝,图像的拼接与边缘融合。
下图是360Heros系列全景摄像机。
它使用了6个GoPro运动相机以及一个支架来辅助完成拍摄,这六台相机分别朝向不同的方向,如果采用4X3宽视角设定的话,其水平和垂直FOV角度约为122度和94度。
在全景视频拼接和输出软件中读取六台摄像机的输入流或者视频文件,并且设置它们在支架上的实际方位信息(或者直接获取数码相机本身记录的姿态信息)。这样我们就得到了足够覆盖全视域范围的视频内容。
正如我们之前所描述的,因为无法做到精确的对齐,因此需要在每台相机的视域角度上提供必要的冗余,因而得到的视频画面互相之间会存在一定的交叠关系,直接输出全景画面的时候,可能会存在明显的叠加区域或者错误的接边。虽然目前几种常见的全景视频处理工具,诸如VideoStitch,Kolor等具备一定程度的自动边缘融合功能,但是很多时候我们还是免不了要自己手动去裁切和调整这些边缘区域(例如下图中使用PTGui来进行各幅画面接缝的修正),择取画面质量更高或者畸变更小的边缘区域,并且确保画面之间是严格对齐的。
这样的工作耗时耗力,并且有一个重要的前提,就是作为输入源的画面必须能够覆盖360度全视域并且存在冗余。
正如我们之前所计算的,如果采用六个相机拼装的方式,那么每个相机的FOV角度不应小于90度,对于GoPro Hero3系列相机来说,此时必须采用4x3的宽视域模式,如果是16x9的宽高比设置,那么垂直方向的FOV角度很可能无法达到要求的数值,进而产生“无论如何都拼接不上”的问题——当然我们可以通过在支架上调整各个相机的朝向角度,或者增加相机的数量,来避免这一问题的产生,不过无论从何种角度来看,采用接近1x1的宽高比的宽视域相机都是一个更为理想的选择。
如果只是为了输出一张全景图片的话,那么上面的步骤通常来说已经绰绰有余,不需要再考虑更多的事情。但是,不会动的图片是很难让戴上VR头盔的人哇哇大叫的,能看到身边战火纷飞,或者野鬼出没的动态景象才更加刺激。如果你正在考虑如何制作如是的VR电影,那么有一个问题不得不提出来,那就是——
同步性——简单来说,就是你手中所有的摄像机如何精确保证同时开始,以及在录制的过程中保持帧率的一致性。
这看起来似乎并不算什么问题,然而如果两台摄像机的开始时间不一致的话,会直接影响到它们的对齐和拼接结果——甚至如果场景中存在大量的动态元素或者相机位置在这个过程中发生了改变的话,结果可能根本是无法对齐的。因此,对于需要大量摄像机同时参与的全景拍摄工作而言,同步开始以及同步录制的需求就变得分外重要了。
要从硬件上根本解决这个问题,可以用到“同步锁相”(genlock)的技术,即通过外部设备传递时间码来控制各台相机的同步运行(典型的例如Red One专业电影摄像机)。当然并不是所有的摄像机都具备专门的Genlock接口,这种情况下,也可以考虑一些传统或者是看起来略微“山寨”的同步方法,例如:路见不平一声吼……
在拍摄开始的时候,演员大吼一声,或者用力拍一下巴掌。然后在进行拼接的过程中,找到每个视频当中吼声对应的时间节点,作为同步开始的位置,然后再进行全景视频的拼接。这种方法虽然并没有什么精确性可言,但是同样没有开销什么额外的成本;但是确保了基本的同步起始位置之后,再进行视频的细微调节和拼缝工作,却无疑从相当程度上简化了后期制作的难度。
类似的方法还有给所有的摄像机蒙上黑布,然后开始拍摄的时候快速抽走,等等。总之在硬件条件无法完全具备的前提下,就是八仙过海各显神通的时候了。
3、立体与伪立体
细心的你可能已经发现,之前讨论的所有全景视频的拍摄过程都忽略了一个要点:无论采用何种投影方式,生成的都只是一幅360度的全景内容,放在PC或者网页端去观看当然没有任何问题,但是如果要将这样的内容输入到VR头盔显示器上,结果恐怕是不正确的。为了将画面赋予立体感并呈现到人的眼中,我们提供的内容必须采用左右眼水平分隔显示的模式:
这看起来只是将原来的全景画面复制了一份而已,但是悉心观察的话,在靠近画面边界的位置就会发现,左右画面的内容存在了一定的偏移。因为人的双眼是存在一定的视角差的,双眼各自看到的图像有一定的差异,再通过大脑的解算就可以得到立体的感受。景物距离人眼越近,这种视差就越明显,远处的景物则相对没有很强的立体感。
而任何一种现有的VR眼镜,都需要通过结构的设计确保佩带者的左右眼都只能看到实际屏幕的一半,也就是分别看到分隔后的左右眼画面内容,从而模拟了人眼的真实运作机制。
这种情形下,全景内容的拍摄设备也需要做出一些对应的改动,比如将原来的6台相机改成12台相机,即每个方向都有左右眼两台相机负责拍摄;支架的构建形式也因此与原来的设计大相径庭(图中为360 Heros3 Pro12,使用了12台GoPro运动相机)。
对于拼接和融合软件来说,倒是并没有什么特别需要做的,只是要先后两次读取六个视频流,处理后输出两个不同的全景视频,分别对应左右眼的画面内容。之后再通过后期工具或者应用程序将它们合并到一幅画面中即可。
当然了,另辟蹊径的路子也有很多,比如从2011年就震动了Kickstarter的众筹者,却直到如今VR全景应用大火却依然没有按期发出的Panono,它的设计原理是通过均匀分布在球体上的36个摄像头来拍摄,拼接并得到左右眼的全景图像。
这个设计虽然看起来拽得飞起,实际上却是万变不离其宗:朝向不同方向的36台摄像机拍摄的画面,叠加在一起足以覆盖水平360度和垂直360度的视域范围,并且一定可以覆盖两遍!再加上自身精准的结构设计和安装姿态,这样就能够从内部准确计算出拼接后的全景图像,并且直接按照左右眼两幅图像的标准输出视频流或者文件,其能够输出的实际分辨率也是相当可观的。
与之相仿的还有Bublcam(四个遍布球身的超大广角镜头),Nokia的OZO(8个遍布球身的广角镜头),以及Jaunt研发中的产品等等。它们都具备直接输出立体形式的全景内容的能力。
当然了,最不济的情形下,我们还有一种选择,就是自己假造一种立体模式……
将原始的全景画面复制成两份,其中一份向左偏移一点,另一份向右偏移一点,然后各自做一个轻度的透视变换(为了模拟视线角度的偏转)。这样构成的“立体”画面在多数情形下也具有一定的立体欺骗效果,但是对于近处的景物,或者左右眼画面中的景物存在遮挡关系的时候(比如模拟脸贴在门上,一只眼被门闩挡住的情景),则会有明显的瑕疵。当然了,对于依然对VR全景内容处于懵懂阶段的爱好者来说,这也许暂时不是什么严重的问题了。