21世紀經濟報道記者肖瀟北京報道
“生成式AI既不是工具,也不高效,更不廉價。它是一臺有缺陷、具有破壞性且運行成本高昂的復印機。”
在有“動畫界奧斯卡”之稱的安納西國際動畫電影節(jié)召開之際,多家工會機構聯合發(fā)表了一份緊急聲明《動畫行業(yè)陷入危機:面對AI的使用,各國工會宣布進入緊急狀態(tài)》,并面向監(jiān)管者和行業(yè)高層提出三項明確主張。
簽署的25家組織主要為歐美大型行業(yè)工會,包括西班牙視頻游戲工會、法國動畫和視覺特效工會,美國、比利時、荷蘭、愛爾蘭等國動畫工會。
“動畫行業(yè)進入緊急狀態(tài)”
這份最新發(fā)布的緊急聲明,最主要擔心的是就業(yè)替代問題。聲明認為,AI不僅基于受版權保護的作品進行訓練,卻并未經過創(chuàng)作者授權,更逐步擠壓人類創(chuàng)作者的生存空間。“用受控制和偏見的創(chuàng)造力替代了人類獨有的創(chuàng)造力,會導致永遠無法恢復的人才和知識流失。”
對此,多家工會引用了國際勞工組織的研究,明確提出應以“3C原則”作為未來AI發(fā)展的底線:
第一,同意原則。必須在獲得作品作者(知情)同意的情況下,才能使用受版權保護的作品來訓練AI。科技發(fā)展不能以犧牲創(chuàng)作者權益為代價。
第二,補償原則。如果被AI使用,創(chuàng)作者應該獲得公平的補償,包括AI生成內容中的插圖、動畫、文字、配音、肖像或圖像。
第三,控制原則。創(chuàng)作者要能控制自己的作品、身份、創(chuàng)意如何被AI使用。這種控制需要確保創(chuàng)作者的IP和勞動聲譽得到尊重,充分協(xié)商雇傭條件,確保創(chuàng)作者的自主權。
值得注意的是,這份聲明提到,動畫行業(yè)本身正處于深度調整期。“動畫行業(yè)在過去幾年遭受了巨大的沖擊。流媒體的經濟效益已被證明毫無利潤,而那些被虛假承諾雇傭的員工正承受著巨大的沖擊:大規(guī)模裁員、外包、并購加劇,最終導致工作室倒閉和預算不斷縮減。”
簡單來說,現實背景是,流媒體雖然成為過去兩年動畫內容增長最快的發(fā)行渠道,但商業(yè)化路徑卻遠未成熟。無論是Netflix、Disney+等海外平臺,還是B站、字節(jié)跳動等國內廠商的動漫項目,多數動畫內容難以實現盈利,反而在賬面形成虧損。與此同步而來的,是創(chuàng)作者失業(yè)潮與制作工作室集中“瘦身”。
在行業(yè)結構性調整的同時,AI進一步加速了“低成本替代”。參與聲明發(fā)布的美國動畫工會(The Animation Guild, TAG)在今年1月和9月發(fā)布的兩份AI調研報告中均指出,生成式AI正對動畫行業(yè)構成系統(tǒng)性威脅,角色設計、背景繪制、3D建模等基礎崗位首當其沖。
報告調研了300名傳媒行業(yè)管理層,結果顯示,約78%的動畫相關企業(yè)計劃在未來三年內引入GenAI技術,其中51%用于3D動畫制作,41%用于2D動畫創(chuàng)作,25%計劃將AI引入劇本開發(fā)流程。
AI追捧和訴訟交織進行
在國內,盡管動畫產業(yè)仍處于快速成長階段,但生成式AI已開始進入實操層面。
在今年現象級動畫電影《哪吒2》中,深度參與《哪吒2》制作的上海紅鯉文化公司就曾在采訪中指出,目前AI主要運用在美術前期,可以極大提升電影的工作效率,降低成本。但公司執(zhí)行制片人也坦言,“目前AI運用還無法達到比較復雜的階段,想要保持整體畫面的統(tǒng)一、動作捕捉等,依然需要人力制作。”
另一家國內頭部動畫電影公司的一線員工亦向21記者透露,該公司已嘗試將AI用于“數字繪景”環(huán)節(jié),主要負責生成星空、山水、云層等背景畫面。
“有些畫面本來就很耗費人力,也做不出一些效果,這時候就會考慮用ai,尤其是在制作周期很緊張的時候。”前述員工表示,公司會結合畫面制作難度、內部資源、計劃周期去綜合判斷用不用AI。目前使用量還比較小,也未有系統(tǒng)化的應用流程,但公司已經在評估,如何在整體制作流程中更好地使用AI。
從業(yè)者一方面對AI的潛力感到興奮,另一方面也意識到版權與法律責任問題的底層問題遠未解決。尤其在內容版權方與AI公司之間,圍繞訓練數據來源的版權訴訟正不斷升級。
2023年1月,Stability AI、Midjourney 與 DeviantArt遭多位插畫師集體起訴,原因是這些AI模型在訓練過程中據稱使用了數十億張未獲授權的版權圖片;
今年6月,全球Getty Images 在英國高等法院起訴了 Stability AI,指控其未經許可使用數百萬張 Getty 照片來訓練 Stable Diffusion模型,并輸出了帶Getty水印的圖像。
而在國內,引發(fā)行業(yè)廣泛關注的是2024年2月廣州互聯網法院審理的“AI奧特曼”案。法院認為,某AI公司在提供服務的過程中,侵犯了原告對案涉奧特曼作品所享有的復制權和改編權,應承擔相關民事責任。
但值得注意的是,對于“訓練AI能不能構成合理使用”,廣州互聯網法院并無直接回應,目前國內也尚未做出明確的司法判決。這起案例更多側重于判斷AI的平臺責任,即是否履行了關鍵詞過濾、內容審核的平臺義務。隨著AI在創(chuàng)作產業(yè)鏈條中參與愈深,版權邊界、平臺責任、創(chuàng)作者利益等問題的沖突,還會愈發(fā)尖銳。