特效大神用真人視頻一鍵生成動畫,動畫師要失業了?

狂丸研究所 發佈 2024-03-31T04:21:41.774188+00:00

近期外國知名視頻特效團隊Corridor就整了一個狠活兒,AI在他們手中要創作的不再是一幅畫,而是要讓畫面組成一個完成的動畫。

狂丸研究所,每天漲點新知識

網友對AI生成圖片的各種嘗試,比想像中的還要狂暴。

之前把普通照片變成二次元畫風的各種AI,大家或多或少都了解過:


又或者是讓AI創造一個真實的美女:


不過這些都是靜態的圖片,有些人則在思考能不能讓AI搞出點片子來看。

近期外國知名視頻特效團隊Corridor就整了一個狠活兒,AI在他們手中要創作的不再是一幅畫,而是要讓畫面組成一個完成的動畫。例如下面這個片段,其實就是AI照著真人繪製的:


動畫中兩位王子進行了了一場慘烈的決鬥,而方式竟然是「剪刀石頭布」!雖然沙雕,但這畫面確實夠熱血的:


看不出來是AI做的?可以對比一下真人鏡頭,簡直完美同步,無縫切換:


畫面乾淨,表情生動,沒有鬼畜,甚至畫風還有點經典。就好像是有一個動畫團隊用畫筆照著現實中的人物繪製了一幅幅畫面。但其實Corridor僅僅用到了四五個人,而且他們壓根也都不會製作動畫。


可以想像一下,AI先是讓你能從0基礎變成畫師,現在又有可能變成動畫製作者,聽起來創作更加輕鬆自由,這就有點科幻了。


所以,他們到底是怎麼做的?


整個步驟簡單來說,就是先讓真人演一下,然後讓AI把真人視頻弄成動畫版本。當然這個過程說起來容易,做起來複雜。

他們使用的工具是我們之前介紹過的Stable Diffusion,關鍵詞給到AI,根據你添加的模板,它能幫忙生成各種風格的畫面。


而想做視頻首先要解決的問題,就是畫面的不穩定性。

因為每一幀的畫面不同,AI生成的畫面也會有明顯差異。例如之前網友製作的「塞爾達風格侏羅紀公園」,作品已經相當流暢,但依然可以看出人物本身都在飛速變化,髮型不斷改變。


所以Corridor先嘗試在幾幀內固定了畫面風格,以此來讓畫面大體穩定住,不要變動得太離譜。

但此時人物風格依然在不斷轉變,比如每張圖中,角色的眼睛大小、畫風都會更換,甚至有時候戴眼鏡有時候不戴。


為了解決這個問題,就要用到一個固定的模型,統一畫風,讓AI別想太多。

於是他們用《吸血鬼獵人D》的畫面對AI進行訓練,使用的截圖包括各種面部特寫、肢體、身體等等:


這樣一來,生成的畫面都是以這部動畫為基礎,眼睛也就不會忽大忽小了。


同時還要解決一個問題,那就是臉部的細節依然不穩定,而處理這個問題的方法,就是同時訓練一個演員自己的真人模型。需要演員穿上戲服,然後多角度瘋狂拍照,給AI製作素材。


製作團隊不僅要給AI鎖定了動畫的風格,同時也要鎖定演員的樣貌,大幅度減少生成的圖片的隨機性。

經過訓練的AI也可以生成演員的圖像,只不過手指頭偶爾還是殘缺的。


接著還需要繼續訓練,用演員的照片生成動畫形象,不斷疊代,最終才有了比較滿意且穩定的動畫形象。


在多重訓練的加持下,動畫的效果也就變得理想了一些,畫面的統一性基本穩定下來了:


再用上視頻特效技術減少閃爍,畫面由此變得更加驚艷,人物的情緒飽滿,動作連貫而且流暢:


再加一些漫畫特效,你說這是某部動畫裡剪輯出來的片段都沒問題。


接下來他們要給自己的動畫設計故事情節與背景:「國王死了,兩個王子要用石頭剪刀布爭奪王位」,這劇情聽著都像是AI寫的。


技術有了,故事腳本有了,接下來開始正式製作。例如開始配音,雖然沒有畫面,但幾位老哥還是吼到聲嘶力竭。


之後就是從網上搞一下服裝,兩個主演穿上就去拍戲了。


真人視頻拍好就交給AI處理畫面,同時加入各種細節對畫面進行調整。


於是現實中的各種演出,就這樣被AI一點點給動畫化了。


把綠幕摳掉,人物素材就基本完成


接著還需要製作背景。於是他們直接用虛幻引擎中的素材,從素材中尋找鏡頭圖片:


然後把圖餵給AI,再生成一大堆的背景圖。


接下來就是對視頻的整合與進一步處理,包括鏡頭、衣服、光線的變化等等。


例如讓背景平移,這樣鏡頭看起來像是在旋轉,動態感就有了:


人物與背景相結合,最後輸出成動畫:


在動畫中,甚至一些微表情也能對照真人進行還原,眼角的跳動,嘴角的抽搐,真人怎麼做,AI就怎麼畫:


石頭剪刀布搞得像是放出了殺招一樣,看著又尬又好玩:


這樣的製作,已經完全脫離AI畫圖的感覺了。


這部動畫在推出後目前已經有了超過200萬的播放量,並引發了激烈討論。

大多數人的觀點再次認為,AI將引發新一輪的革命,要失業的感覺籠罩了不少網友。


但也有人指出,AI的成本並不比畫師的工作量小。

首先,Corridor是一個極為專業的特效團隊,每個人都能力出眾。以前惡搞波士頓動力機器人反殺人類的視頻就出自他們之手,當時很多人對此都真假難分。


所以與其說是AI生成得好,不如說他們本身就拍得好,花了兩個月才有了動畫的精彩演出,普通人想要這樣操作還有點遙遠。

同時畫風也是鎖死的,因為他們的動畫是根據真人來製作的,所以畫風也貼近寫實,如果畫風再誇張一點效果可能又會變得不理想。


最後爭論的就是版權問題,不少畫師還是很牴觸自己的作品被餵給AI的。

但想要完全脫離畫師製作動畫也不現實,像是這次的製作就還是使用了《吸血鬼獵人D》的畫面進行訓練,想讓AI完全自己繪製還是兩個概念。

對此也有人指出,只要工具好用,動畫公司會自己搞定版權,最後受傷的只有普通打工人。


話說回來,我還是對AI的成長充滿期待。

生成一張圖片,改變圖片的風格,生成真人,又把真人變成動畫,AI的玩法明顯越來越多。過幾天說不定語音都不用真人去錄製,視頻都不再用真人去拍攝。


按照這個進化趨勢,以後把一部電視劇餵給AI,說不定也能輕鬆輸出一部動畫版本。一想到這裡,這下不得不期待了。

關鍵字: