AI深度合成亂象:名人音視頻遭濫用,法律如何守護聲音肖像權?

   時間:2025-02-17 12:21 來源:天脈網作者:趙云飛

近期,AI深度合成技術在網絡上引發的侵權問題日益嚴重,從惡搞企業家雷軍到偽造張文宏醫生的音視頻進行帶貨,再到利用該技術實施詐騙,一系列事件引發了廣泛關注。

有報道稱,一些不法分子利用AI技術制作劉德華等名人的聲音和影像,以此博取流量或進行牟利。劉德華的電影公司也曾緊急發布聲明,警告網民不要落入偽造其聲音的AI語音合成技術騙局。記者調查發現,實現AI深度合成音視頻的技術門檻并不高,甚至在購物平臺上,該技術已成為一些網店盈利的工具,花費幾十元即可定制名人音視頻。

據調查,這些AI深度合成的聲音和換臉視頻的制作并不復雜。網絡上存在眾多開源的深度合成軟件,可供網民自由下載和使用。一些網絡主播甚至在直播中教授如何使用這些軟件。盡管一些換臉工具的效果并不逼真,但網店制作的AI深度合成音視頻卻能達到高度仿真。

針對這一現象,中國網絡空間安全協會人工智能安全治理專業委員會的專家指出,盡管這些軟件有一定的技術門檻,但目前在網絡上已有數十種可供選擇。同時,專家也提醒,未經授權制作發布他人的音視頻信息已構成侵權。

那么,網店使用AI深度合成技術制作并出售名人音視頻,究竟需要承擔怎樣的法律責任呢?北京航空航天大學法學院副教授趙精武介紹,國內已經審結了首例AI生成聲音人格權侵權案。在這起案件中,一名配音演員的聲音被未經授權地AI生成并出售,法院最終認定被告方構成侵權,并判決其書面賠禮道歉,賠償原告各項損失25萬元。

面對AI深度合成音視頻侵權的嚴峻形勢,專家建議從多個層面綜合施策。從技術角度來看,可以利用AI技術來對抗和檢測AI。當前已有一些AI技術能夠對圖片或音視頻進行檢測,判斷其是否經過后期加工或合成。

法律層面也需要進一步完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺方面則應強化政策法規的宣貫和執行,做好數據保護,應用技術手段規避AI克隆侵權問題的發生,并建立健全內容審核和侵權舉報機制。

專家還提醒AI深度合成制作和信息發布者,不要心存僥幸,法律沒有灰色地帶。法律并不禁止使用AI合成技術,但禁止不合法、不合理的使用,尤其是禁止不進行任何顯著標識和提示的AI合成信息的發布和傳播。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號