上個月,人工智能(Artificial Intelligence)憑借AlphaGo和國人棋手柯潔的圍棋大戰(zhàn)成了火熱的新概念。事實上,AI領域的飛速發(fā)展所帶來的潛力早已滲透進入影視制作行業(yè)。近期,有三款AI攜著全新的利用價值在研究領域掀起了轟動。
AI自動進行場景剪輯
在絕大多數(shù)電影的拍攝中,同一個場景會被從不同角度拍攝多次,然后錄像被丟給剪輯師和分鏡師按要求把多個鏡頭進行無縫連接,構成一個多角度、有特定風格的場景敘事。然而,這一“手藝活”如今面臨被AI替代的可能。
一個來自斯坦福大學和Adobe公司的AI能夠自行同步相同場景的錄像,把它們對上演員正在念的臺詞。然后,獨特的面部情感捕捉技術將會自動識別和分析演員所體現(xiàn)出的人物形象;隨后,根據(jù)導演對風格的要求, AI會依據(jù)數(shù)據(jù)庫里較為成熟的剪輯風格和鏡頭語言對錄像進行自動選擇和組裝。
例如,針對一個傳統(tǒng)風格的對話,AI會使用一個常規(guī)的“建立場景”鏡頭,并接下來在雙方面部不斷切換特寫鏡頭,其中夾雜著一些廣角鏡頭。如果導演追求其他風格的分鏡,只要告訴AI自己的要求,“多用跳剪”、“廣角開始“或者“聚焦保持不變”,AI就會重組一個場景出來,比如下圖所顯示的這樣:
(圖中的Style A、B和C分別代表了有不同側的剪輯方案)
在文獻中,研究人員表示這個AI用了3秒鐘就剪出來一個71秒的視頻,而一般經驗豐富的剪輯師可能需要幾個小時完成這項工作。此AI的出現(xiàn)給導演們開啟了嘗試更多拍攝方法的可能,因為剪輯一個場景、不滿意重頭再來的時間成本從原本的幾天變成了幾個小時。
AI處理后期制作瑕疵
如今的動畫電影和電視劇常常用電腦來模擬光線的自然變化,但是模擬足夠的光線需要用到大量的人力資源和時間。為了節(jié)省成本,制作人員傾向做更少的模擬,不過這樣做容易在終出品的圖像上造成明顯的瑕疵(也叫噪聲noise)。
迪斯尼和皮克薩共同研發(fā)的AI采用了叫做“卷積神經網絡”(Convolutional Neural Network)的深度學習模型,通過研究《海底總動員2》中的大量處理瑕疵的案例,AI學會自動將因光線過少引起的瑕疵糾正成光線飽滿而自然的樣子,這樣,制作過程中耗時費勁要去抹掉的瑕疵就可以交給不知疲倦的計算機了~ 這款人工智能的技術已經并被成功用在了這個月大火的《汽車總動員3》的制作中。
(這是《海底總動員2》降噪處理前后的對比圖,也是這款AI學習的對象)
(這是AI學習后在處理《汽車總動員3》的時候的效果)
此AI的出現(xiàn)標志著光線處理除增加光線、人工降噪之外的另一解決方案。迪士尼的副研發(fā)總監(jiān)MarkusGross表示,在其他方案變得越來越復雜、相對質量提升越來越慢的情況下,這一款AI算是向新方向的一大重要進步。
獨立制作“小電影”的AI
IBM的認知技術平臺和近在和紐約翠貝卡電影節(jié)合作,讓電影制作人們協(xié)助開發(fā)IBM的AI ”Watson“。在舉辦的”Storyteller with Watson“比賽中,前記者、電影人格羅斯曼提出了一個算法,讓AI可以識別任意一段視頻中的臺詞和場景的意義,包括角色的心情、情況的復雜程度以及跟影片前后段的聯(lián)系。當和劇本本身進行比對之后,這個技術可以被用作快速生成一段影片的預告(更準確的說來是梗概)。這樣,從長篇的電影中提煉出來的“小電影”就成型了。
(方法的提出者Seth Grossman在進行解說)
這個方法被期望能夠給導演更多的靈感。同時,這個算法在電視劇領域有著較大的商業(yè)價值,可以被用于快速提取每一集的宣傳片,便于制作組進行項目宣傳。另外,劇組可以自行選擇給AI提供的視頻資料豐富程度,進而對劇情發(fā)展的不同階段進行人為分類,產生涵蓋內容更豐富或者更詳細的短片段,投放到市場。
內容由作者原創(chuàng),轉載請注明來源,附以原文鏈接
http:///news/882.html全部評論
分享到微信朋友圈
表情
添加圖片
發(fā)表評論