AI合成名人音視頻亂象叢生,如何守護個人肖像與聲音權益?

   時間:2025-02-16 23:00 來源:天脈網作者:蘇婉清

近年來,AI深度合成技術引發的音視頻侵權事件層出不窮,從對企業家的惡搞,到冒充知名醫生的帶貨行為,再到利用該技術進行的詐騙活動,其惡劣影響日益凸顯。

劉德華的聲音曾被不法分子利用AI技術偽造,以此騙取流量和關注,其電影公司迅速發表聲明,警示公眾警惕此類AI語音合成技術的騙局。近日,記者經過深入調查發現,制作AI深度合成的音視頻并非難事,甚至在網購平臺上,這類服務已成為部分網店盈利的手段,僅需花費少量金額,即可定制名人的AI音視頻。

記者發現,網絡上存在大量提供換臉和換聲功能的軟件工具,雖然部分工具的逼真度有限,但仍有大量網店能夠制作出高度逼真的AI合成音視頻。據專家介紹,目前網絡上有數十種開源軟件和工具,可以實現換聲和換臉效果,這些工具可供用戶自由下載并在個人電腦上使用。然而,由于這些軟件操作復雜,具有一定的技術門檻,因此不為普通網民所熟知。但在短視頻平臺上,不少主播正在教授如何使用這些軟件。

對于網購平臺上制作和出售名人音視頻的行為,專家明確指出,這違反了相關法律法規。根據規定,未經授權,不得利用深度合成技術制作、發布他人的信息。網店接單制作名人AI音視頻,已經構成侵權,并需承擔相應的法律責任。專家引用了《中華人民共和國民法典》的相關規定,強調自然人的肖像和聲音等權益受法律保護,任何組織或個人利用信息技術偽造這些權益都屬于侵權行為。

在司法實踐中,已有首例AI生成聲音人格權侵權案審結。案例中,一名配音演員的聲音未經授權被AI生成并出售,法院最終認定被告行為構成侵權。專家建議,公眾應提高防范意識,可以利用AI技術對抗和檢測AI。目前已有一些典型的AI技術能夠檢測圖片或音視頻是否被后期加工和合成。

為防范AI侵權問題,專家建議從法律、平臺和公眾等多個層面綜合施策。法律層面需完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺層面則需強化政策法規的宣貫和執行,保護已有數據,應用技術手段規避AI克隆侵權問題的發生,同時建立健全內容審核和侵權舉報機制,及時發現和處理侵權問題。

法律專家提醒AI深度合成制作和信息發布者,切勿抱有僥幸心理,法律不容許任何灰色地帶。北京航空航天大學法學院副教授趙精武強調,法律并不禁止使用AI合成技術,而是禁止不合法、不合理的使用,尤其是禁止不進行顯著標識和提示的AI合成信息的發布和傳播。

隨著AI技術的普及,公眾應提高警惕,防范AI深度合成音視頻侵權問題,共同維護網絡空間的健康與安全。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號