AI深度合成亂象:名人頻遭侵權,如何守護我們的“聲臉”安全?

   時間:2025-02-17 09:07 來源:天脈網作者:沈如風

近年來,AI深度合成技術在網絡上引發的侵權問題日益凸顯,從惡搞企業家雷軍到假冒張文宏醫生進行帶貨,甚至有不法分子利用該技術制作高度逼真的視頻進行詐騙。這些事件不僅侵犯了個人的肖像權和聲音權,也嚴重擾亂了社會秩序。

據報道,一些不法分子已經盯上了AI深度合成技術的“商機”。他們通過網絡購物平臺,以低廉的價格提供名人音視頻定制服務。記者調查發現,只需花費幾十元,就能獲得高度仿真的名人音視頻。這種技術的普及,使得侵權變得更加容易和隱蔽。

那么,這些高度逼真的AI深度合成音視頻是如何制作出來的呢?記者了解到,網絡上存在大量開源的軟件和工具,可以實現換聲和換臉的效果。這些軟件雖然有一定的技術門檻,但經過一些網絡主播的教學,普通網民也能輕松掌握使用方法。一些短視頻平臺上的主播甚至公開教授如何使用相關軟件進行換臉和換聲操作。

專家指出,未經授權深度合成制作發布他人信息,已經觸犯了相關法律法規。網店接單制作名人視頻的行為,屬于典型的侵權行為,應承擔相應的法律責任。事實上,國內已經審結了首例AI生成聲音人格權侵權案,法院最終認定被告的行為構成侵權。

面對AI深度合成技術的普及和侵權問題的頻發,專家呼吁公眾提高防范意識。從技術角度來看,可以利用AI技術來對抗和檢測AI。目前已經有一些典型的AI技術能夠對圖片或音視頻進行檢測,判斷其是否經過后期加工和合成。防范AI侵權問題還需要從法律、平臺和公眾等多個層面綜合施策。

法律層面需要進一步完善相關立法,細化AI克隆技術的法律條款,明確侵權行為的定義和責任,并加強執法力度。平臺層面則需要強化相關政策法規的宣貫和執行,應用技術手段規避AI克隆侵權問題的發生,同時建立健全內容審核和侵權舉報機制。公眾層面也應提高自我保護意識,不輕信未經證實的音視頻信息。

法律專家強調,法律并不是禁止使用AI合成技術,而是禁止不合法不合理的使用。尤其是禁止不進行任何顯著標識和提示的AI合成信息的發布和傳播。公眾應理性看待AI技術的發展,共同維護一個健康、安全的網絡環境。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號