全國首例AI“幻覺”侵權案落槌:厘清責任邊界 護航技術創新與權益保障

   時間:2026-01-28 23:27 來源:快訊作者:川渝本地消息

隨著生成式人工智能技術的廣泛應用,其生成內容引發的法律爭議逐漸進入公眾視野。近日,杭州互聯網法院就全國首例因AI“幻覺”導致的信息誤導侵權案作出判決,明確劃定了人工智能服務提供者的責任邊界,為同類案件的司法實踐提供了重要參考。

案件起因于某科技公司開發的智能對話應用。2025年6月,用戶梁某在查詢高校報考信息時,該應用生成了關于某校區的不實內容。盡管梁某多次糾正,應用仍堅持錯誤信息并承諾“若出錯賠償10萬元”。當梁某提供官網證據后,應用才承認錯誤并建議其通過法律途徑索賠。梁某遂以信息誤導造成經濟損失為由,向法院起訴要求賠償9999元。

庭審焦點首先集中在AI生成的“賠償承諾”是否具有法律效力。法院審理認為,人工智能不具備民事主體資格,其生成的表述不能視為服務提供者的真實意思表示。判決指出,AI既非法律意義上的自然人或法人,也未獲得獨立承擔權利義務的資格,因此相關“承諾”不產生法律約束力。這一認定明確了人工智能在法律框架中的工具屬性。

關于責任認定原則,法院突破傳統產品責任思維,創新采用過錯責任原則。判決詳細闡釋了四方面考量:生成式人工智能屬于信息服務而非實體產品;其內容風險未達到需適用無過錯責任的高度危險性;服務提供者難以完全預見和控制所有輸出結果;過度嚴苛的責任可能阻礙技術創新。這一原則的確立,平衡了用戶權益保護與技術發展需求。

在具體責任認定環節,法院構建了動態注意義務標準體系。服務提供者需履行三層義務:對違法信息承擔嚴格審查責任;以顯著方式提示AI生成內容的局限性;采取行業通用技術提升內容準確性。經查證,涉事公司已在應用界面顯著位置標注功能局限提示,并采用檢索增強生成等技術優化輸出,已盡到合理注意義務。同時,原告未能提供因誤導產生實際損失的證據,且AI錯誤信息未實質影響報考決策,法院最終駁回訴訟請求。

該案審判長肖芄特別指出,人工智能的研發應用具有公共價值屬性,在技術發展初期應避免“寒蟬效應”。通過過錯責任原則,既能設立禁止生成違法信息的紅線,又能激勵企業采取技術防范措施,形成彈性治理規則。這種動態平衡機制,為新興技術領域的規則構建提供了司法樣本。

清華大學法學院程嘯教授從學理層面解讀稱,判決否定了人工智能獨立民事主體地位的爭議觀點,明確了服務提供者的過錯認定標準。特別是對注意義務的類型化區分——結果性義務與方式性義務的劃分,既考慮了技術現實又兼顧了權益保護,為類似案件審理提供了可操作的判斷框架。這種區分標準,有效解決了技術發展與法律規制之間的張力問題。

此案判決引發法律界廣泛討論。專家普遍認為,在人工智能快速迭代的背景下,司法實踐通過個案探索逐步完善規則體系,既為技術創新劃定行為邊界,也為用戶權益保護提供救濟路徑。這種“案例積累-規則細化-體系完善”的演進模式,符合新興技術領域的治理規律,有助于構建包容審慎的監管框架。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號