AI合成騙局頻發,雷軍劉德華等名人成目標,如何防范?

   時間:2025-02-17 11:46 來源:天脈網作者:顧青青

近年來,AI深度合成技術引發的音視頻侵權問題日益凸顯,從對企業家的惡搞,到利用AI制作名人音視頻進行帶貨,再到不法分子借此進行詐騙,種種亂象層出不窮。

以劉德華為例,曾有網友利用AI技術模仿其聲音,企圖博取流量。對此,劉德華的電影公司迅速發布聲明,提醒公眾警惕偽造其聲音的AI語音合成技術。

記者經過調查發現,AI深度合成音視頻的制作門檻其實并不高。在一些購物平臺上,AI深度合成技術已經成為網店牟利的工具,僅需花費少量資金,即可定制名人音視頻。

這些AI深度合成的聲音和換臉效果是如何實現的呢?記者發現,網絡上存在眾多相關的深度合成軟件,且部分網絡主播還會通過直播教授使用方法。盡管一些換臉工具的效果并不逼真,但網店制作的AI深度合成音視頻卻能達到高度仿真。

中國網絡空間安全協會人工智能安全治理專業委員會的專家薛智慧指出,目前網絡上有許多開源軟件和工具可以實現換聲換臉的效果,公眾可以自由下載并在自己的電腦上安裝使用。

然而,盡管這些軟件在網絡上數量眾多,但由于其操作復雜,具有一定的技術門檻,因此并不為普通網民所熟知。不過,記者發現,短視頻平臺上已有眾多主播在教授如何使用這些軟件。

針對網絡購物平臺使用AI深度合成技術制作出售名人音視頻的行為,專家表示,這已觸犯相關法律。根據相關法律法規,未經授權,不得深度合成制作發布他人信息。網店接單制作名人視頻,已屬于侵權行為,應承擔相應的法律責任。

北京航空航天大學法學院副教授趙精武提到,國內已經審結了首例AI生成聲音人格權侵權案。在此案中,一名配音演員的聲音未經授權被AI生成并對外出售,法院最終認定被告行為構成侵權。

那么,公眾應如何防范AI深度合成音視頻侵權問題呢?薛智慧表示,從技術角度看,可以利用AI技術來對抗和檢測AI。當前已有一些典型的AI技術能夠對圖片或音視頻進行檢測,判斷其是否經過后期加工和合成。

中國計算機學會計算機安全專業委員會委員呂延輝認為,防范AI侵權問題需要從法律、平臺和公眾等多個層面綜合施策。法律層面要完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺層面要強化政策法規的宣貫和執行,應用技術手段規避AI克隆侵權問題的發生,同時建立健全內容審核和侵權舉報機制。

法律專家也提醒AI深度合成制作和信息發布者,切勿心存僥幸。法律沒有灰色地帶,任何不合法不合理的使用都可能面臨法律責任。

趙精武副教授強調,法律并不禁止使用AI合成技術,而是禁止不合法不合理的使用,尤其是禁止不進行任何顯著標識和提示的AI合成信息的發布和傳播。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號