近期,AI深度合成技術在音視頻領域的濫用現象引起了廣泛關注。從雷軍聲音的惡搞視頻到劉德華音視頻的偽造,一系列未經授權的合成作品頻繁出現,不僅侵犯了名人的權益,也引發了公眾對于個人隱私和信息安全的擔憂。
記者深入調查發現,AI深度合成音視頻的制作門檻并不高。在一些網絡購物平臺上,這種技術已成為部分網店謀取利益的工具。消費者只需支付幾十元,就能定制到名人音視頻的AI深度合成作品。這種服務的泛濫,無疑加劇了侵權行為的蔓延。
那么,這些高度逼真的合成音視頻究竟是如何制作出來的呢?調查結果顯示,相關軟件在網絡上的獲取并不困難。一些網絡主播甚至開設直播課程,教授網友如何使用這些軟件進行聲音和面部的深度合成。在移動端,雖然手機應用商城提供了眾多換臉工具,但受限于固定場景和逼真度,效果并不理想。而在PC端,則有數十種開源軟件和工具可以實現更為精細的合成效果,盡管這些軟件的使用和參數調整具有一定技術門檻,但在短視頻平臺和網購平臺上,仍有不少主播和商家在積極傳授相關技巧。
針對這一現象,法律專家明確指出,未經授權合成制作他人音視頻屬于侵權行為。根據《中華人民共和國民法典》及相關法律法規,自然人享有肖像、聲音等人格權益,任何組織或個人利用信息技術偽造都是違法的。2023年國家網信辦、工信部、公安部聯合發布的《互聯網信息服務深度合成管理規定》也明確要求,不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息。2024年網信辦發布的征求意見稿更是提出,對AI生成合成內容要進行標識,以防止誤導性信息的傳播。
在實際案例中,國內已經審結了首例AI生成聲音人格權侵權案。一位配音演員的聲音在未經授權的情況下被AI生成并對外出售,法院最終認定被告方構成侵權,并判決其書面賠禮道歉,賠償原告各項損失25萬元。這一判決無疑為類似案件提供了法律依據和警示。
面對AI侵權的嚴峻形勢,專家建議從多個層面綜合施策。從技術角度來看,可以利用AI技術來對抗和檢測AI。當前已有一些典型的AI技術能夠對圖片或音視頻進行檢測,從而有效識別出合成內容。同時,法律層面也需要進一步完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺方面則應強化政策法規的宣貫和執行,做好數據保護,應用技術手段規避AI克隆侵權問題的發生,并建立健全內容審核和侵權舉報機制。
公眾也應提高防范意識。對于普通人而言,未經本人或版權方同意,用AI制作合成音視頻同樣構成侵權行為。因此,大家應謹慎使用相關軟件和技術,避免侵犯他人權益。同時,也要學會利用法律武器保護自己的合法權益不受侵害。
法律專家強調,法律并沒有禁止使用AI合成技術,而是禁止不合法、不合理的使用。尤其是禁止不進行任何顯著標識和提示的AI合成信息的發布和傳播。因此,AI深度合成制作和信息發布者應嚴格遵守法律法規,切勿因小失大。













