《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計應(yīng)用 > 人工智能侵權(quán)立法中的歸責邏輯沖突與矯正
人工智能侵權(quán)立法中的歸責邏輯沖突與矯正
網(wǎng)絡(luò)安全與數(shù)據(jù)治理
徐榕嶺
互聯(lián)網(wǎng)法治研究院(杭州)
摘要: 人工智能技術(shù)的發(fā)展對侵權(quán)立法形成挑戰(zhàn),基于人工智能風險分級的侵權(quán)歸責邏輯與傳統(tǒng)歸責邏輯的沖突凸顯。理論上,基于人工智能風險分級的侵權(quán)歸責邏輯源于歐盟的人工智能風險分級治理方案,但其沖擊了既有民事侵權(quán)歸責結(jié)構(gòu),使各方主體的責任承擔處于不確定狀態(tài)。將技術(shù)風險凌駕于權(quán)利保護客體差異之上,本質(zhì)上是一種混淆行政法與侵權(quán)法適用邊界的錯誤做法。人工智能技術(shù)風險具有損害嚴重、逃逸訴訟可能性高、信息成本大等特征,難以在權(quán)利保護規(guī)則下得到有效規(guī)制。此時,回歸基于權(quán)利客體差異的歸責邏輯確有必要。具體而言,應(yīng)先明確行政法與侵權(quán)法的分工,以“公共利益”為二者界分標準,必要時可通過原則性規(guī)定有限地接納新型風險的規(guī)制任務(wù),以最小制度成本實現(xiàn)技術(shù)風險的高效治理。
中圖分類號:D923;D922.17文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2025.12.011引用格式:徐榕嶺. 人工智能侵權(quán)立法中的歸責邏輯沖突與矯正[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2025,44(12):75-82.
Conflicts and corrections in the attribution logic of tort liability legislation for artificial intelligence
Xu Rongling
Internet Governance Institute (Hangzhou)
Abstract: The development of artificial intelligence (AI) technology poses significant challenges to tort liability legislation, particularly through the conflict between traditional attribution logic and the emerging risktiered liability framework. Theoretically, the risktiered attribution logic originates from the European Union′s riskbased governance scheme for AI. However, it disrupts existing civil tort liability structures, leading to uncertainty in liability allocation among stakeholders. By prioritizing technological risks over distinctions in protected legal interests, this logic inherently conflates the jurisdictional boundaries between administrative law and tort law. AIrelated risks—characterized by severe damages, high likelihood of evading litigation, and substantial informational costs—are difficult to regulate effectively under conventional rightsprotection rules. Consequently, it is imperative to revert to an attribution logic grounded in distinctions among legal interests. Concretely, a clear division of responsibilities between administrative and tort law must be established, with "public interest" serving as the demarcation criterion. When necessary, principled legal provisions may be adopted to address emerging risks in a limited manner, thereby achieving efficient governance of technological risks with minimal institutional costs.
Key words : artificial intelligence; riskbased regulation; tort liability legislation; civiladministrative interface

引言

隨著人工智能(Artificial Intelligence,AI)技術(shù)的興起,“風險”逐漸成為歸責核心。經(jīng)濟分析中,“風險”是指決策中的度量不確定性[1]。那么“風險”作為歸責中心即可能發(fā)生的不利結(jié)果應(yīng)被視為一種成本并納入制度管理與市場調(diào)節(jié)中。具體到AI技術(shù)的法律規(guī)制層面,“風險”的概念內(nèi)涵已逐漸被“技術(shù)損害”填充,即AI技術(shù)可能引發(fā)的損害是一種應(yīng)當被控制的社會成本。由此,歐盟提出了AI風險分級治理方案,借此控制AI技術(shù)對社會安全、基本權(quán)利等的有害影響。但AI風險分級治理方案并不停留在行政法層面,也對侵權(quán)法的立法與解釋產(chǎn)生深刻影響。例如,將AI技術(shù)風險直接視為新的侵權(quán)損害類型[2]、將依AI系統(tǒng)的風險等級來調(diào)整其適用的因果關(guān)系認定方式以及將高風險AI系統(tǒng)歸入嚴格責任制度等。盡管將AI風險分級治理方案引入侵權(quán)立法有一定合理性,但這一做法也將與侵權(quán)歸責邏輯相互沖突,引發(fā)不必要的制度成本。當前,我國《人工智能法》立法尚處熱議階段,不同版本的專家建議稿都顯示出對歐盟AI風險分級治理方案的偏向[3]。但其對于侵權(quán)歸責邏輯的設(shè)計仍十分模糊,沒有充分回應(yīng)AI風險分級治理方案引入后的民行銜接難題。由此,本文將在考慮行政法與侵權(quán)法適用邊界的基礎(chǔ)上,提出能夠妥善緩解新型AI技術(shù)風險救濟難題,又能兼顧法律體系化的新方案。具體而言,本文第一部分將詳細說明“基于AI風險分級的侵權(quán)歸責邏輯”的概念、形成以及弊端,揭示AI風險分級治理方案介入后的一系列民事侵權(quán)體系沖擊;第二部分將糾正隱藏于“基于AI風險分級的侵權(quán)歸責邏輯”下的認識誤區(qū),回歸“基于權(quán)利客體差異的侵權(quán)歸責邏輯”;第三部分將論述“基于權(quán)利客體差異的侵權(quán)歸責邏輯”的內(nèi)部構(gòu)造、界定的行政法與侵權(quán)法基本適用邊界,同時說明用于接納新型AI技術(shù)風險的原則性規(guī)定的適用方法,以紓解人工智能侵權(quán)立法中的歸責邏輯沖突。


本文詳細內(nèi)容請下載:

http://www.ihrv.cn/resource/share/2000006893


作者信息:

徐榕嶺

(互聯(lián)網(wǎng)法治研究院(杭州),浙江杭州310000)


官方訂閱.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。