當前位置:首頁 » 電影百科 » vr電影如何製作
擴展閱讀
小師姐大電影 2023-08-31 22:05:11
十大禁播韓國電影 2023-08-31 22:05:02
一個外國電影木瓜 2023-08-31 22:04:55

vr電影如何製作

發布時間: 2022-04-11 20:16:40

⑴ vr電影是怎麼拍攝的,和傳統電影的製作有什麼區別

用多鏡頭的專用設備拍攝,由於是第一視角,製作的時候局限性很大,沒有傳統電影那麼高的自由度和發揮空間。

⑵ VR全景是怎麼製作的

拍攝製作VR全景圖的步驟:

1、選擇器材、拍攝照片:

目前市面上除了網路地圖等大平台在用全景相機拍攝VR全景圖以外,大部分的個體或從業者都是使用單反相機+廣角鏡頭或者魚眼鏡頭為需要的企業拍攝VR全景圖。VR全景圖是由多個照片拼接起來的,因此拍照的時候各個角度一定要有一部分的重疊,這樣才能保證拼接的時候更好操作。

在拍攝時找好定點以後,在放置三腳架和雲台時,一定要檢查好相機、雲台刻度等細節問題,然後針對不同的焦距鏡頭選擇拍攝張數。

做完這三部基本上一張完整的VR全景圖就出來了,上傳到九商VR雲平台以後還可以把做好的VR全景圖分享給朋友,供朋友欣賞,對於專業的從業者,則只需分享鏈接就可以向客戶交差了。

⑶ 怎麼製作一個完整的VR全景視頻

當我們拍完全景圖,要把他發到如微信公眾號的文章當中,會發現一個問題,全景圖2:1的效果看上去很怪,所以我們要把它變成視頻,現在VR雲帶你簡單輕松的把360度全景圖變成視頻。

這個教程簡單而且實用,只需要一個軟體就能完成。廢話不多說,下面我們來看教程。


方法如下:

1、打開ev錄屏軟體


5、點擊文件-另存為-保存(完成後得到)

注意事項:

錄制時的窗口最好是全屏

全景圖開啟自動巡遊

錄制旋轉180度以內視角最佳

⑷ VR電影怎麼拍

7月20日,極圖科技在京發布了廣播級VR攝像機Upano XONE,售價46800元。

Upano
XONE擁有六顆攝像頭,每顆攝像頭像素達到3000萬像素,並且都有超視角光學鏡頭。這款VR攝像機內置GPS,支持LBS信息採集,還搭載了九軸姿態
感測器。據Upano介紹,XONE支持6K/30fps全景錄制,4K/30fps全景直播。此外,XONE還支持雙組360度3D VR攝像。

Upano-XONE

功能方面,XONE支持機內實時拼接渲染,還支持實時預覽,方便導演實時監控,此外,它還支持後期單路分別調色。

這樣的一款設備售價46800元人民幣,你覺得貴嗎?據黑匣網了解,2015年7月,極圖科技發布過商用的高端全景攝像機Upano-J2VR。Upano-J2VR由3台Red Dragon(紅龍)攝像機組成,造價高達180萬元(也有用4台紅龍,造價240萬的方案)。黑匣網曾報道,好萊塢拍攝的VR影片《Help》使用的設備,就是由造價不菲的Red Dragon(紅龍)攝像機組成的。延伸閱讀:王思聰的錢,夠拍多少小時的VR電影?
資料來源 黑匣網

⑸ 網上那些vr視頻是怎麼做出來的

VR視頻的製作步驟主要如下:

  1. 打開網路瀏覽器,在輸入框中輸入「Media converter」並下載安裝。

⑹ 製作一部 VR 電影會經歷怎樣的過程

  • 完整文章鏈接:製作一部VR電影會經歷怎樣的過程?轉自:www.vr013.com

不少VR領域的從業者都認同這樣的觀點:娛樂型應用是VR領域的一個最重要突破口,也是最有可能首先盈利的。這樣的言論下,最直接的結果是,圍繞VR內容方面的創業者與討論越來越多。一個直觀的案例是:從2012年美國聖丹斯電影節上第一次出現VR電影開始,到2016年,參展影片的數量已經達到了33部。

VR+電影顯然是一個被看好的方向,但VR電影又不僅僅是在屏幕上講一個好故事那麼簡單。內容與技術發生碰撞,VR電影如何講一個好故事?

在「當資本遭遇技術:2016,VR真的會爆發嗎?」活動中,北京聖威特科技有限公司創始人楊濤和微影時代副總裁陳海峰、追光動畫VR短片《再見,表情》的導演米粒,一起探討了有關「VR+電影」的諸多問題。

極客公園:具體來講,「VR+電影」如何創作?

米粒:其他大公司在交互上投入了非常大的力量,交互會走一些敘事的捷徑,我們目前希望做的事情,是在交互盡量少的情況下,如何講好故事,同時保持觀眾的注意力,跟上我們設計的敘事節奏。

我們一直在傳統與前沿科技之間找平衡,VR作為一個以沉浸式體驗為主要特點的設備,是它先天性的優勢,但是如何利用這種優勢講故事,是我們目前行業內一個基本空白的狀態,我們更多的注意力是在故事和體驗之間找到平衡,為了控制時長,我們會比較克制地去使用交互,盡量利用各種各樣的手法引導觀眾關注我們的故事。

另一點我們在製作過程中發現傳統的視聽語言受到限制,很多視聽語言在VR中失效,剪輯的功能就失效了。製作過程中間我們有大量的手段嘗試用這些手法在VR應用中,目前發現是失敗的。當觀眾處於VR環境里,會認為自己切身地在那個環境里,一旦出現剪輯的話,觀眾會覺得自己像閃電俠一樣移來移去。我們使用過很多方式,黑場、閃白、淡入、淡出進入這種轉換,但是絕大部分還是在場景里。

屏幕快照2016-02-03下午5.40.54.png

(VR短片《再見,表情》)

交互的處理上我們是非常克制的,觀眾體驗我們短片的時候,幾乎沒有跟電影角色里非常強的互動,更多的是通過聲音,通過光,甚至通過主角的各種調度和位移來引導觀眾,從本能的一些反應來讓他們關注故事的發展和跟進這個角色的表演。

另一方面,我們在聲音的交互上也做了一些嘗試,這在今天的VR上也能夠體現,我們實驗室在VR動畫短片上使用目前電影新的技術,比如全景聲方面的體驗。我們不太想依賴簡單的耳機,雙聲道的系統來體驗VR的聲音。

接下來比較重要的是沉浸感和儀式感。做VR動畫短片的一個非常大的問題是觀眾的自我認知。很多觀眾在看VR短片的時候,很大的問題是「我是誰」,我在這個故事裡到底是什麼樣的角色。我們在設計動畫短片的時候,劇本開始就有考慮到這個點。在剛開始的時候,故事創作設計了一個更像是一個會場的環境,當觀眾戴上眼鏡之後第一個反應我在一個會場里,我處於類似電影觀影的場景,觀眾會覺得是觀眾的視角,不會認為我自己是主角。因為很多觀眾戴上VR設備的時候,信息量非常大,他會看周圍的環境,在剛開始的前一兩分鍾讓觀眾進入故事是非常困難的,我們更多的重心是如何讓觀眾先進入這個場景,以最快時間明確自己在故事裡的身份,這樣更容易讓故事正常的進行下去。

極客公園:VR電影游戲化和游戲電影化相比,誰更容易走得通?

米粒:游戲電影化這件事情在游戲持續非常長的時間了。有一家法國公司很早做游戲電影化,已經非常深入探討游戲電影化的趨勢,包括一些玩家做的選擇產生的效應,你會有20個甚至更多不同的結局,讓玩家體驗游戲的時候產生不同的體驗。游戲電影化這件事情對於VR來說是一個比較容易的事情。因為它只是將內容搬到一個新的交互平台上去,但是電影的游戲化是一個相對空白的區域。我覺得從創造內容上來說,還是要學習好萊塢。好萊塢已經將電影和故事的類型化推到非常高的平台級別,已經能夠在內容層級上對觀眾進行非常細致的劃分,對他們所產生的內容進行基本的一個相對准確的預判。

楊濤:從另外一個角度看,我感覺游戲和電影這兩個東西都是建立在屏幕的基礎上,是建立投影儀和電視上面,而VR全景的東西,我自己感覺是改變完全底層的東西,生長出來的到底是電影還是游戲,這個需要改變思維方式。我們現在從底下往上去走,還是已有的方塊往下去走,這個我現在不好說最後結果什麼樣,但一定是全新的東西。

極客公園:在VR電影方向上來說,好的故事與新鮮的體驗哪個更重要?

米粒:都挺重要的,視覺上的刺激和體驗是VR延伸出來的一個優勢。如何在這樣的優勢下去創造故事是一個難點,我們覺得未來觀眾進電影院去看VR,一定是帶著這兩方面的期待去的。有很多的故事並不是需要VR的方式才能得到最佳的體驗,我們很多時候還是希望能夠以第三人稱,置身事外的感覺看別人的故事,所以有一類的故事需要我們沉浸感比較強,一旦觀眾選擇VR的方式去觀看一個電影,他一定是有兩方面的期待,兩方面的平衡還是需要我們未來在不停的嘗試和各種探索。

楊濤:和電影的發展歷程很像,技術的新鮮首先吸引大家的關注,在產生需求的基礎上,後面才是真正提升故事性和劇本的階段。

極客公園:VR市場上賺錢的方式可能有哪些?

楊濤:國內市場來說,如果要是沒有極大誘惑力的話,靠硬體去盈利。在VR領域可能短期之內會依靠硬體盈利,但是一旦盈利就會面臨免費的沖擊。後面具體怎麼盈利,以2016年年初的眼光看來,可能只是傳統的這些模式,靠廣告、版權,一些授權,或者體驗店的形式,這些可能是可見盈利的手段。

陳海峰:有很多方式,很大一部分可能會跟內容本身關聯度會很高。平台這個東西將來是掙平均利潤,未來可能這些利潤的差異會來自於內容的不同,或者是最終提供一種服務的差異,這是未來真正盈利的一個效果而且在某一天真正可以從C端上掙到錢了,這個行業才算真正在消費層級上站住了,可之前會燒很多錢。

⑺ VR全景如何製作

它賦予游戲玩家更身臨其境的帶入感,使得游戲從平面真正走向立體。

⑻ VR虛擬現實的視頻是怎麼做出來的。類似圖片這樣的,一般的普通視頻可以做成下面圖片那樣嗎!然後帶上

圖片是可以p出來的,但是真正運用到眼鏡上並不會有虛擬現實的效果,因為視頻必須經過主機的特殊處理之後才行,而且視頻格式本身就很特殊,其中包含了動態的八聲道音頻,可以根據陀螺儀的位置矯正聲道遞送方向,視頻包含了兩個以及更多層次,才會有虛擬現實的效果,不然撐死是3d電影罷了

⑼ VR全景視頻怎麼拍

1、投影方式
全景拍攝並非是多麼時新的一個概念,事實上它甚至可以追溯到12世紀的《韓熙載夜宴圖》:
當然這並非真正意義上的沉浸式體驗,就算我們把這幅長畫給捲成一個圓筒,然後站在中心去觀看,也依然會覺得缺失了一點什麼,沒錯,一個明顯的接縫,以及頭頂和腳下兩片區域的空白。
出現這種問題的原因是很簡單的,因為宋朝人並沒有打算把這幅畫做成沉浸式的體驗——當然這是廢話——真正的原因是,畫面對應的物理空間視域並沒有達到全包圍的程度,也就是水平方向(經度)360度,垂直方向(緯度)180度。沒錯,說到這里,你一定想到了這張圖:
類似這樣的世界地圖也許在你家裡的牆面上已經貼了有一些年頭了,也許自從升上大學之後你從未正眼瞧過它,但是它卻符合一張全景圖片需要的全部條件,你把它放到各種VR眼鏡里去觀看的話,就宛若陷入了整個世界的環抱當中。
這種能夠正確地展開全物理視域的真實場景到一張2D圖片上,並且能夠還原到VR眼鏡中實現沉浸式觀看的數學過程,就叫做投影(projection)。
而那張看起來平凡無奇的世界地圖,使用的就是一種名為Equirectangular的常見投影方式,它的特點是水平視角的圖像尺寸可以得到很好的保持,而垂直視角上,尤其是接近兩極的時候會發生無限的尺寸拉伸。
下圖中對於這種投影方式的拉伸現象體現得更為明顯,注意看穹頂上的紋路變化,越是靠近畫面的頂端,就越是呈現出劇烈的扭曲變形。幸好,VR頭盔和應用軟體的意義也就在於將這些明顯變形的畫面還原為全視角的內容,進而讓使用者有一種身臨其境的包圍感。

然而全景圖像的投影方式遠不止這一種,比如最近剛剛發布的理光Theta S以及Insta360全景相機,就採用了另外一種更為簡單而有效的投影策略:
通過它的兩個魚眼攝像頭輸出的畫面,各自涵蓋了180度的水平和垂直視場角,然後將兩個輸出結果「扣」在一起就是全視域的沉浸式包圍體了。
當然,這種名為Fisheye的投影方式,生成的2D畫面事實上扭曲變形是更加嚴重的。而通過圖像重投影處理的方式將它變換到VR眼鏡中顯示的時候,受到圖像采樣頻率的限制(或者通俗點說,像素點大小的限制),這樣的扭曲被還原時會多少產生一定程度的圖像質量損失,因而也可能會造成全景內容本身的質量下降。
由此看來,作為全景內容的一種重要承載基體,投影圖像(或者視頻)不僅應當完整包含拍攝的全部內容,還要避免過多的扭曲變形以免重投影到VR眼鏡時產生質量損失。
那麼,除了上述兩種投影方式之外,還有更多方案可以選擇嗎?答案是,當然了,而且有的是!
比如墨卡托投影(Mercator),它沿著軸線的拉伸變形比Equirectangular更小,對應實際場景的比例更為真實,但是垂直方向只能表達大約140度左右的內容;
又比如Equisolid投影,也有人稱之為「小行星」或者「720度」全景,它甚至可以把垂直方向的360度視域都展現出來,但是前提是使用者並不在乎巨大的扭曲變形可能帶來的品質損失:
那麼,有沒有什麼投影方式生成的畫面,是能夠覆蓋至少360度水平方向和180度的垂直方向,並且沒有任何畫面的扭曲變形呢?
答案是:沒有扭曲變形的單一圖像投影方式,是不存在的。然而,如果投影的結果畫面不是單一圖像的話,方法還是有的:
如果你正好是一點陣圖形開發或者虛擬現實軟體開發的從業者的話,這張圖對你來說應該是非常熟悉的,這就是Cubemap(立方體圖像)。
它相當於一個由六幅圖像拼合組成的立方體盒子,如果假設觀察者位於立方體的中心的話,那麼每幅圖像都會對應立方體的一個表面,並且在物理空間中相當於水平和垂直都是90度的視域范圍。而觀察者被這樣的六幅畫麵包圍在中心,最終的視域范圍同樣可以達到水平360度,垂直360度,並且畫面是絕對不存在任何扭曲變形的。
如下:
是一種很理想的投影結果了,並且如果你恰好懂得使用一些離線渲染軟體或者插件來製作和輸出全景內容的話,這一定是最合適的一種選擇。然而,在實際拍攝當中我們卻幾乎不可能用到這種立方圖的記錄方式,原因很簡單——我們現有的拍攝設備難以做到。
2、拼接與融合
如果說有六台攝像機,它們的FOV角度被嚴格限定為水平和豎直都是90度,然後造一個一絲不苟的支架,把這六台攝像機牢固而穩定地安裝到支架上,確保它們的中心點嚴格重合在一起,並且各自朝向一個方向——這樣的話,輸出的圖像也許能夠正好符合立方圖的標准,並且可以直接使用。
然而,無論攝像機鏡頭的感光面積,焦距參數(以及因此計算得到的FOV視場角度),還是支架的鋼體結構設計與製作,都無法確保精確地達到上面要求的參數,幾mm的光學或者機械誤差看似無傷大雅,但是對於嚴絲合縫的立方圖圖像來說,必然會在最終呈現的沉浸式場景中留下一條或者多條明顯的裂縫。更何況還有支架運動時產生的振動問題,以及相機鏡頭老化產生的焦點偏移問題,這些看似細小的麻煩各個都足以讓我們剛剛構建的理想物理模型化為泡影。
理想和現實的差距如此之大,幸好我們還有解決的辦法——沒錯,如果在拼接的地方留下足夠大的冗餘,然後正確識別和處理兩台攝像機畫面重合的區域,這樣不就可以做到六幅畫面的輸出和組成全景內容了嗎——而這正是全景內容製作的另一大法寶,圖像的拼接與邊緣融合。
下圖是360Heros系列全景攝像機。
它使用了6個GoPro運動相機以及一個支架來輔助完成拍攝,這六台相機分別朝向不同的方向,如果採用4X3寬視角設定的話,其水平和垂直FOV角度約為122度和94度。
在全景視頻拼接和輸出軟體中讀取六台攝像機的輸入流或者視頻文件,並且設置它們在支架上的實際方位信息(或者直接獲取數碼相機本身記錄的姿態信息)。這樣我們就得到了足夠覆蓋全視域范圍的視頻內容。
正如我們之前所描述的,因為無法做到精確的對齊,因此需要在每台相機的視域角度上提供必要的冗餘,因而得到的視頻畫面互相之間會存在一定的交疊關系,直接輸出全景畫面的時候,可能會存在明顯的疊加區域或者錯誤的接邊。雖然目前幾種常見的全景視頻處理工具,諸如VideoStitch,Kolor等具備一定程度的自動邊緣融合功能,但是很多時候我們還是免不了要自己手動去裁切和調整這些邊緣區域(例如下圖中使用PTGui來進行各幅畫面接縫的修正),擇取畫面質量更高或者畸變更小的邊緣區域,並且確保畫面之間是嚴格對齊的。
這樣的工作耗時耗力,並且有一個重要的前提,就是作為輸入源的畫面必須能夠覆蓋360度全視域並且存在冗餘。
正如我們之前所計算的,如果採用六個相機拼裝的方式,那麼每個相機的FOV角度不應小於90度,對於GoPro Hero3系列相機來說,此時必須採用4x3的寬視域模式,如果是16x9的寬高比設置,那麼垂直方向的FOV角度很可能無法達到要求的數值,進而產生「無論如何都拼接不上」的問題——當然我們可以通過在支架上調整各個相機的朝向角度,或者增加相機的數量,來避免這一問題的產生,不過無論從何種角度來看,採用接近1x1的寬高比的寬視域相機都是一個更為理想的選擇。
如果只是為了輸出一張全景圖片的話,那麼上面的步驟通常來說已經綽綽有餘,不需要再考慮更多的事情。但是,不會動的圖片是很難讓戴上VR頭盔的人哇哇大叫的,能看到身邊戰火紛飛,或者野鬼出沒的動態景象才更加刺激。如果你正在考慮如何製作如是的VR電影,那麼有一個問題不得不提出來,那就是——
同步性——簡單來說,就是你手中所有的攝像機如何精確保證同時開始,以及在錄制的過程中保持幀率的一致性。
這看起來似乎並不算什麼問題,然而如果兩台攝像機的開始時間不一致的話,會直接影響到它們的對齊和拼接結果——甚至如果場景中存在大量的動態元素或者相機位置在這個過程中發生了改變的話,結果可能根本是無法對齊的。因此,對於需要大量攝像機同時參與的全景拍攝工作而言,同步開始以及同步錄制的需求就變得分外重要了。
要從硬體上根本解決這個問題,可以用到「同步鎖相」(genlock)的技術,即通過外部設備傳遞時間碼來控制各台相機的同步運行(典型的例如Red One專業電影攝像機)。當然並不是所有的攝像機都具備專門的Genlock介面,這種情況下,也可以考慮一些傳統或者是看起來略微「山寨」的同步方法,例如:路見不平一聲吼……
在拍攝開始的時候,演員大吼一聲,或者用力拍一下巴掌。然後在進行拼接的過程中,找到每個視頻當中吼聲對應的時間節點,作為同步開始的位置,然後再進行全景視頻的拼接。這種方法雖然並沒有什麼精確性可言,但是同樣沒有開銷什麼額外的成本;但是確保了基本的同步起始位置之後,再進行視頻的細微調節和拼縫工作,卻無疑從相當程度上簡化了後期製作的難度。
類似的方法還有給所有的攝像機蒙上黑布,然後開始拍攝的時候快速抽走,等等。總之在硬體條件無法完全具備的前提下,就是八仙過海各顯神通的時候了。
3、立體與偽立體
細心的你可能已經發現,之前討論的所有全景視頻的拍攝過程都忽略了一個要點:無論採用何種投影方式,生成的都只是一幅360度的全景內容,放在PC或者網頁端去觀看當然沒有任何問題,但是如果要將這樣的內容輸入到VR頭盔顯示器上,結果恐怕是不正確的。為了將畫面賦予立體感並呈現到人的眼中,我們提供的內容必須採用左右眼水平分隔顯示的模式:
這看起來只是將原來的全景畫面復制了一份而已,但是悉心觀察的話,在靠近畫面邊界的位置就會發現,左右畫面的內容存在了一定的偏移。因為人的雙眼是存在一定的視角差的,雙眼各自看到的圖像有一定的差異,再通過大腦的解算就可以得到立體的感受。景物距離人眼越近,這種視差就越明顯,遠處的景物則相對沒有很強的立體感。
而任何一種現有的VR眼鏡,都需要通過結構的設計確保佩帶者的左右眼都只能看到實際屏幕的一半,也就是分別看到分隔後的左右眼畫面內容,從而模擬了人眼的真實運作機制。
這種情形下,全景內容的拍攝設備也需要做出一些對應的改動,比如將原來的6台相機改成12台相機,即每個方向都有左右眼兩台相機負責拍攝;支架的構建形式也因此與原來的設計大相徑庭(圖中為360 Heros3 Pro12,使用了12台GoPro運動相機)。
對於拼接和融合軟體來說,倒是並沒有什麼特別需要做的,只是要先後兩次讀取六個視頻流,處理後輸出兩個不同的全景視頻,分別對應左右眼的畫面內容。之後再通過後期工具或者應用程序將它們合並到一幅畫面中即可。
當然了,另闢蹊徑的路子也有很多,比如從2011年就震動了Kickstarter的眾籌者,卻直到如今VR全景應用大火卻依然沒有按期發出的Panono,它的設計原理是通過均勻分布在球體上的36個攝像頭來拍攝,拼接並得到左右眼的全景圖像。
這個設計雖然看起來拽得飛起,實際上卻是萬變不離其宗:朝向不同方向的36台攝像機拍攝的畫面,疊加在一起足以覆蓋水平360度和垂直360度的視域范圍,並且一定可以覆蓋兩遍!再加上自身精準的結構設計和安裝姿態,這樣就能夠從內部准確計算出拼接後的全景圖像,並且直接按照左右眼兩幅圖像的標准輸出視頻流或者文件,其能夠輸出的實際解析度也是相當可觀的。
與之相仿的還有Bublcam(四個遍布球身的超大廣角鏡頭),Nokia的OZO(8個遍布球身的廣角鏡頭),以及Jaunt研發中的產品等等。它們都具備直接輸出立體形式的全景內容的能力。
當然了,最不濟的情形下,我們還有一種選擇,就是自己假造一種立體模式……
將原始的全景畫面復製成兩份,其中一份向左偏移一點,另一份向右偏移一點,然後各自做一個輕度的透視變換(為了模擬視線角度的偏轉)。這樣構成的「立體」畫面在多數情形下也具有一定的立體欺騙效果,但是對於近處的景物,或者左右眼畫面中的景物存在遮擋關系的時候(比如模擬臉貼在門上,一隻眼被門閂擋住的情景),則會有明顯的瑕疵。當然了,對於依然對VR全景內容處於懵懂階段的愛好者來說,這也許暫時不是什麼嚴重的問題了。