AI換臉換聲亂象頻發,名人頻遭侵權,如何守護我們的“聲臉”安全?

   時間:2025-02-17 16:21 來源:天脈網作者:顧雨柔

近年來,AI深度合成技術在網絡空間引發了諸多爭議,從惡搞企業家雷軍,到冒充張文宏醫生進行帶貨,再到利用該技術實施詐騙,侵權現象層出不窮。

其中,一起引人注目的案例是,有網友利用AI技術模仿劉德華的聲音,企圖吸引流量。劉德華的電影公司迅速發布聲明,提醒公眾警惕偽造劉德華聲音的AI語音合成技術騙局。記者深入調查發現,AI深度合成音視頻的制作門檻并不高,甚至在一些網購平臺上,該技術已成為不少網店牟利的工具,只需花費少量金錢,就能定制名人AI深度合成音視頻。

那么,這些高度逼真的AI合成音視頻是如何制作出來的呢?記者發現,盡管一些換臉工具在網絡上容易下載,但效果往往不夠逼真。專家指出,當前網絡上有眾多開源軟件和工具,能夠實現換聲和換臉效果,供網民自由下載和使用。這些軟件雖然有一定的技術門檻,但已有不少網絡主播在短視頻平臺上直播教學,教授如何使用這些工具。

針對這一現象,中國網絡空間安全協會人工智能安全治理專業委員會的專家表示,盡管這些軟件種類繁多,但都屬于半專業軟件,需要調整參數和步驟較多。然而,隨著這些軟件在短視頻平臺上的普及,越來越多的網民開始掌握這些技術。

那么,網購平臺上使用AI深度合成技術制作并出售名人音視頻,是否觸犯法律呢?專家明確指出,相關法律法規明確規定,未經授權,不得深度合成制作發布他人信息。因此,網店接單制作名人AI音視頻的行為,已經構成侵權,并應承擔相應的法律責任。

在司法實踐中,國內已經審結了首例AI生成聲音人格權侵權案。該案中,一位配音演員的聲音在未經授權的情況下,被AI生成并對外出售。法院最終認定被告方構成侵權,并判決其書面賠禮道歉,賠償原告各項損失25萬元。這一案例為類似侵權行為提供了法律參考。

對于如何防范AI深度合成音視頻侵權問題,專家建議從多個層面入手。從技術角度來看,可以利用AI技術來對抗和檢測AI。目前已有一些典型的AI技術能夠對圖片或音視頻進行檢測,判斷其是否經過后期加工和合成。同時,法律層面也應進一步完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。

平臺方面也應承擔起責任,強化相關政策法規的宣貫和執行,做好已有數據的保護,應用技術手段來規避AI克隆侵權問題的發生。還應建立健全內容審核和侵權舉報機制,及時發現和處理侵權問題。

最后,法律專家提醒AI深度合成制作和信息發布者,不要心存僥幸。法律沒有灰色地帶,任何不合法、不合理的使用AI合成技術的行為都將受到法律的制裁。正如一位專家所言:“法律并不是禁止使用AI合成技術,而是禁止不合法不合理的使用,尤其是禁止不進行任何顯著標識和提示的AI合成信息的發布和傳播。”

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號