AI換臉換聲侵權頻發,雷軍劉德華等名人成受害者,如何防范?

   時間:2025-02-17 19:14 來源:天脈網作者:陸辰風

近年來,人工智能(AI)深度合成技術在音視頻領域的應用引發了廣泛關注,尤其是在侵權現象頻發的背景下。從模仿企業家雷軍到偽造醫生張文宏的音視頻用于帶貨,再到利用該技術實施詐騙,AI深度合成技術的濫用已成為不容忽視的社會問題。

此前,有網友通過AI技術合成劉德華的聲音,企圖以此吸引流量。對此,劉德華的電影公司迅速發表聲明,警告公眾不要上當受騙,這是偽造劉德華聲音的AI語音合成技術所為。

記者近日調查發現,制作AI深度合成音視頻并非難事。在一些網購平臺上,AI深度合成技術已成為網店盈利的手段,消費者僅需支付幾十元,即可定制名人音視頻。這一現象不僅涉及名人權益,更觸及了法律底線。

據中國網絡空間安全協會人工智能安全治理專業委員會專家薛智慧介紹,目前網絡上存在多種開源軟件和工具,能夠實現換聲和換臉效果,網民可自由下載并在個人電腦上使用。然而,這些軟件具有一定的技術門檻,需要調整參數和多個步驟,因此并不為普通網民所熟知。

盡管如此,記者發現短視頻平臺上仍有眾多主播教授如何使用這些軟件。這些主播的直播內容,無疑為AI深度合成技術的普及提供了便利。

針對網購平臺上使用AI深度合成技術制作并出售名人音視頻的行為,法律專家指出,這已構成侵權。中國計算機學會計算機安全專業委員會委員呂延輝表示,根據《中華人民共和國民法典》的規定,自然人享有肖像、聲音等權益,任何組織或個人未經授權利用信息技術偽造這些內容,均構成侵權行為。

2023年國家網信辦、工信部、公安部聯合出臺的《互聯網信息服務深度合成管理規定》明確要求,任何組織和個人不得利用深度合成服務制作、復制、發布、傳播法律、行政法規禁止的信息。2024年,網信辦發布的《人工智能生成合成內容標識辦法(征求意見稿)》也提出,對AI生成合成內容應進行標識,以防止誤導性信息的傳播。

北京航空航天大學法學院副教授趙精武指出,國內已經審結了首例AI生成聲音人格權侵權案。在這起案件中,一名配音演員的聲音在未經授權的情況下被AI生成并出售,法院最終認定被告行為構成侵權。

面對AI深度合成音視頻侵權的嚴峻形勢,專家建議從多個層面加強防范。從技術角度看,可以利用AI技術對抗和檢測AI。目前已有一些典型的AI技術能夠檢測圖片或音視頻是否經過后期加工和合成。

法律層面,則需進一步完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺方面,應強化政策法規的宣貫和執行,做好數據保護,應用技術手段規避AI克隆侵權問題的發生,同時建立健全內容審核和侵權舉報機制。

法律專家還提醒AI深度合成制作和信息發布者,不要心存僥幸。法律沒有灰色地帶,任何違法行為都將受到法律的制裁。AI技術的使用應在合法、合理的框架內進行,尤其是發布和傳播AI合成信息時,應進行顯著標識和提示。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號