新電影動畫:阿凡達的故事及人臉繪圖突破歐陽明教授/馬萬鈞/鄭亦珊/葉哲華

引言

近年來的電影越來越多運用到3D、虛擬場景的技術,尤其在去年的阿凡達(Avatar)電影中,不僅集結了特效,更在虛擬空間中建構了似真的人臉,在皮膚、臉部紋理都有很好的效果,但這是怎麼做的呢?又有甚麼是有別於之前電影所應用的技術?

在近代電影中,常常可以在影片中看到極壯觀的場景、或是很多不可能由真人在現場演出的場景,如:在空中飛翔、人在外太空、或潛入很深的深水之下…等;在實際拍攝的時候,我們可能無法找到這種景觀,或無法在那樣的環境下進行拍攝;此時就需要對影片進行後製,我們稱此為一種電影特效,亦即一種虛擬實境(Virtual Reality)。我們經常可以在電影花絮中,看到演員站在以藍色或綠色為背景的布幕前進行拍攝;這樣做的目的,是為了讓前景角色和背景之間產生顏色差異,經由後製,可將綠幕(或藍幕)的部分去除,再透過電腦圖形技術,可以將特效場景與拍攝人物合成在一起,得到彷若置身於真實場景的效果。隨著電腦技術進步,目前已經可以透過一些3D模型生成軟體,如:3dmax、Maya…等,生成3D模型,且將之置入所想要的場景中。

在電影阿凡達中,我們可以看到納美人臉部上擁有許多豐富的表情,無論是喜悅、憤怒、悲傷、齜牙裂嘴,更甚於是惶恐、無辜…等,諸如人類才有的細微表情,都被栩栩如生的呈現出來。大家都知道,真實世界中沒有所謂的納美人,他們都是由電腦所製作出來的3D模型,來模擬真實的人臉。

早期的人臉動畫生成,是捕捉演員的特徵點讓既有的3D模型變形,以生成外型相似於拍攝人物的數位演員。然而,如此產生的數位演員模型,並無法完整模擬真實演員皮膚紋路細節,以及在不同照明條件和場景下所導致臉部膚色的反射結果,這將使得數位演員在影片中不夠真實或是與影片場景格格不入。對於日益挑剔的廣大電影客群而言,這是越來越不被允許的事情。那是否還有其他的方法可以生成較為精細的臉部模型呢?事實上是有的,只是大多數的做法都需要花費很多時間及昂貴的成本,要不然就是不夠精確。

在2000年時,美國柏克萊大學Paul Debevec博士的博士論文,提出了一種名為light stage的攝影裝置。Light stage在拍攝人臉的時候,會加入許多經過設計的光照條件,例如:不同光源位置或者改變光射出的樣式。如此的光照條件使得人臉的每個細部都能夠具有明顯強烈的特徵;不只如此,這些特殊的光照條件也有助於影像間做出精確且大量的對應,精細的程度甚至可以使各別影像中每個像素在其餘影像中找到相對應關係的像素,這樣的結果可以使我們在空間中計算出成千上萬的3維座標點,我們稱為Point cloud。這跟動態捕捉技術只能捕捉到少數的感應點,產生幾百個點是不一樣的。這項技術的提出有助於重建精確的人臉模型。

Paul Debevec博士之後到南加大任教,繼續跟他的學生改良light stage。我們實驗室的馬萬鈞博士(畢業於臺灣大學資訊工程研究所)過沒多久也參與這個團隊,合作研究虛擬人臉建模。

經過了幾年的努力,利用light stage做人臉建模的技術漸趨成熟。2008年馬萬鈞博士參與的Emily Project,這計畫是利用light stage製作出演員的臉部3D模型,再合成到真人錄製的影片中,結果已經讓人不太能分辨出動畫和真人的差異。因為電腦重建出來的3D模型,在皮膚的毛孔、皺紋,以及透光度的呈現上已經有了非常真實的成果,以致一般人無法分辨真偽。

達到這樣的技術突破,背後的概念是甚麼呢?我們可以將人臉表面的材質想成兩層。一層是粗糙皮膚,一層是油脂皮膚。粗糙皮膚對入射光的反應是散射反射,這種反射強度與觀測者所在的位置無關。油脂皮膚對入射光的反應是似鏡面反射,與觀測者的位置有關。我們可以在拍攝人臉的時候,同時對人臉打上不同的光照,並利用硬體設備,將反射到攝影機的反射光的來源分成散射反射跟似鏡面反射,就可以分別做出粗糙皮膚跟油脂皮膚的材質以及幾何性質圖)。最後再將這兩種材質的皮膚合成,所做出來的人臉模型就非常真實。

結論

在本文中我們介紹了在阿凡達製作中所用到與我們實驗室的相關技術,並提出了對電影製作的貢獻之處,尤其在人臉模型上已經可以通過圖寧測試(Turing test),這代表我們所建出來的3D臉模型已可達到幾可亂真的程度。我們相信這樣的發展是一大突破,也希望這樣的視覺技術,未來能夠在虛擬實境的領域開發出更多應用。