欧美成人精品三级网站-欧美精品V国产精品V日韩精品-欧美日本综合一区二区三区-欧美性猛交xxxx乱大交

二維碼

掃一掃加入微信公眾號

Top
網站首頁 新聞 國內 國際 河南 焦作
時政要聞 縣區 直播 網視 網談 理論
今日頭條 汽車 旅游 經濟 美食
熱點專題 房產 娛樂 體育 健康
 焦作日報 新媒體矩陣 
 焦作晚報 “焦作+”客戶端
 訂報服務 焦作市網絡辟謠平臺 
 網上投稿 焦作市互聯網舉報中心
  您現在的位置: 焦作網 > 新聞中心首頁 > 國內新聞 > 正文

新聞中心首頁

AI提供的信息不靠譜,開發者要擔責嗎
更新時間:2026/3/31 10:39:19    來源:新華社

  新華社杭州3月30日電 題:AI提供的信息不靠譜,開發者要擔責嗎

  新華社記者吳帥帥

  近年來,生成式人工智能在人們生活中的應用越來越廣。然而,在提供便利的同時,生成式人工智能也經常出現答非所問、信息不準確等“AI幻覺”現象,給用戶帶來困擾。

  開發者需要為人工智能提供的信息準確性擔責嗎?近期,杭州互聯網法院審結了一起生成式人工智能模型提供不準確信息引發的侵權糾紛案。

      AI提供不實信息,有沒有責任?

  2025年6月,本案原告梁先生在互聯網上檢索院校信息時,找到一款生成式人工智能應用程序。他通過輸入提示詞的方式,詢問了云南一所職業高校的相關情況。隨后,這款由本案被告公司研發、基于自研大語言模型的應用程序提供了相關信息。

  但梁先生經過多方查詢發現,這款應用程序提供的部分信息有誤,隨即在對話中對人工智能進行了糾正和指責。但生成式人工智能卻堅稱信息無誤,并生成了對該爭議問題的解決方案——若生成內容有誤,將向梁先生提供10萬元賠償,并建議他到杭州互聯網法院起訴。

  2025年7月25日,梁先生以生成式人工智能生成不準確信息具有誤導性,且其承諾賠償10萬元為由,將這家人工智能公司訴至法院,要求該公司對其進行一定金額的賠償。

  法院經審理后認為,人工智能不具有民事主體資格,不能作出具有法律約束力的意思表示。生成式人工智能服務提供者應履行服務功能的顯著提示說明義務,采取有效提示措施,使公眾認知人工智能的功能局限,起到警示提醒效果。生成式人工智能服務提供者應盡功能可靠性的基本保障義務,采取行業通行技術措施不斷提高生成內容準確性和可靠性。

  具體到本案,法院認為,該人工智能公司已充分履行了服務功能的顯著提示說明義務和生成內容可靠性的基本保障義務,案涉行為不存在過錯,亦未構成對原告權益的損害,依法應認定不構成侵權。因此,法院判決駁回原告的訴訟請求。判決后,原被告雙方均未上訴。

      如何界定開發者是否有過錯?

  隨著生成式人工智能技術的快速發展普及,越來越多的人注意到“AI幻覺”問題及其不良影響。社交平臺上,可以看到不少相關吐槽——有人依據人工智能投資理財造成虧損,有人借助AI問診結果反而延誤疾病治療。

  各種爭議糾紛背后,潛藏著一個共性問題:被生成式人工智能誤導,能否追究侵權責任?

  “這一判例從法律法規、人工智能技術原理、產業發展現狀等方面進行了相對全面的考量,在法律層面給出初步結論,較有現實指導意義!北本┐髮W法學院教授薛軍說。

  法律界人士普遍認為,這一判決在主體資格、歸責原則等方面給出了相對明確的意見,例如,判決認定人工智能不具有民事主體資格;生成式人工智能以對話方式提供的信息,應被視作服務而非產品,因此適用過錯責任原則。

  杭州互聯網法院跨境貿易法庭庭長肖芄認為,AI生成的不準確信息本身并不構成侵權,需要考查的是提供服務的開發者是否存在過錯。

  那么,如何界定開發者是否有過錯?肖芄進一步解釋,基于當前生成式人工智能幾乎不可避免會出現一定程度的信息偏差,就需要考查比如開發者是否使用了當前行業內通行并被證明有效的措施,來提升技術可靠性,降低錯誤發生的概率,由此證明是否存在過錯。

  “經過調查,本案中的開發者確實采用了可行的技術手段,力求降低錯誤發生!毙ぼ拐f。

  記者調查發現,本案中這款生成式人工智能應用程序,已經針對信息可能存在的不準確性,在頁面醒目位置對用戶進行提示:“內容僅供參考,請仔細甄別”。法院認為,這也證明了開發者盡到了提醒告知義務。

      如何找到促進創新和權益保障的平衡點?

  人工智能行業業內人士表示,從底層技術邏輯來看,當前生成式人工智能基本都是基于詞元的預測,如果這一底層架構沒有發生根本性轉變,信息偏差就不可避免。去年2月,清華大學新媒沈陽團隊發布的一個報告指出,市場上多個熱門大模型在事實性幻覺評測中幻覺率超過19%。

  “有訓練測試案例證明,即使數據集中只有0.01%和0.001%的文本是虛假的,模型輸出的有害內容也會分別增加11.2%和7.2%!痹摌I內人士說。

  盡管如此,技術的客觀局限性并不能成為人工智能開發者的免責借口。受訪法律界人士普遍認為,本案具有一定特殊性,原告并未因為誤導性信息遭受明顯的人身財產等權益損失;原告使用的是一種通用的生成式人工智能應用,并不是一款加載人工智能軟件的機器人或者更加準確的行業應用等。

  “要求人工智能開發者一概為生成內容的準確性負責,既不現實也不合理!毖姳硎荆P烷_發者不能以此為借口一味為自己“開脫”,還是要盡到相應的義務并進行風險提示,避免用戶盲目信賴造成不良后果。

  肖芄表示,如何認定生成式人工智能的侵權責任,是一個少有成例的司法前沿問題,希望通過妥善準確的判決引導開發者或者平臺提升信息標準,“找到促進創新和權益保障的平衡點”。

  業內人士建議,建立國家級人工智能安全評測平臺,對新開發的人工智能大模型進行嚴格測試;同時,相關部門和平臺要加強AI生成內容審核,提升檢測鑒偽能力。

新聞編輯:楊銘 
  • 上一條新聞:
  • 下一條新聞: 沒有了
  • 焦作網免責聲明:

    本網所有稿件,未經許可不得轉載。
    轉載稿件不代表本網觀點,如有異議請聯系我們即可處理。
    刊發、轉載的稿件,作者可聯系本網申領稿酬。


    AI提供的信息不靠譜,開發者要擔責嗎
    2026/3/31 10:39:19    來源:新華社

      新華社杭州3月30日電 題:AI提供的信息不靠譜,開發者要擔責嗎

      新華社記者吳帥帥

      近年來,生成式人工智能在人們生活中的應用越來越廣。然而,在提供便利的同時,生成式人工智能也經常出現答非所問、信息不準確等“AI幻覺”現象,給用戶帶來困擾。

      開發者需要為人工智能提供的信息準確性擔責嗎?近期,杭州互聯網法院審結了一起生成式人工智能模型提供不準確信息引發的侵權糾紛案。

          AI提供不實信息,有沒有責任?

      2025年6月,本案原告梁先生在互聯網上檢索院校信息時,找到一款生成式人工智能應用程序。他通過輸入提示詞的方式,詢問了云南一所職業高校的相關情況。隨后,這款由本案被告公司研發、基于自研大語言模型的應用程序提供了相關信息。

      但梁先生經過多方查詢發現,這款應用程序提供的部分信息有誤,隨即在對話中對人工智能進行了糾正和指責。但生成式人工智能卻堅稱信息無誤,并生成了對該爭議問題的解決方案——若生成內容有誤,將向梁先生提供10萬元賠償,并建議他到杭州互聯網法院起訴。

      2025年7月25日,梁先生以生成式人工智能生成不準確信息具有誤導性,且其承諾賠償10萬元為由,將這家人工智能公司訴至法院,要求該公司對其進行一定金額的賠償。

      法院經審理后認為,人工智能不具有民事主體資格,不能作出具有法律約束力的意思表示。生成式人工智能服務提供者應履行服務功能的顯著提示說明義務,采取有效提示措施,使公眾認知人工智能的功能局限,起到警示提醒效果。生成式人工智能服務提供者應盡功能可靠性的基本保障義務,采取行業通行技術措施不斷提高生成內容準確性和可靠性。

      具體到本案,法院認為,該人工智能公司已充分履行了服務功能的顯著提示說明義務和生成內容可靠性的基本保障義務,案涉行為不存在過錯,亦未構成對原告權益的損害,依法應認定不構成侵權。因此,法院判決駁回原告的訴訟請求。判決后,原被告雙方均未上訴。

          如何界定開發者是否有過錯?

      隨著生成式人工智能技術的快速發展普及,越來越多的人注意到“AI幻覺”問題及其不良影響。社交平臺上,可以看到不少相關吐槽——有人依據人工智能投資理財造成虧損,有人借助AI問診結果反而延誤疾病治療。

      各種爭議糾紛背后,潛藏著一個共性問題:被生成式人工智能誤導,能否追究侵權責任?

      “這一判例從法律法規、人工智能技術原理、產業發展現狀等方面進行了相對全面的考量,在法律層面給出初步結論,較有現實指導意義。”北京大學法學院教授薛軍說。

      法律界人士普遍認為,這一判決在主體資格、歸責原則等方面給出了相對明確的意見,例如,判決認定人工智能不具有民事主體資格;生成式人工智能以對話方式提供的信息,應被視作服務而非產品,因此適用過錯責任原則。

      杭州互聯網法院跨境貿易法庭庭長肖芄認為,AI生成的不準確信息本身并不構成侵權,需要考查的是提供服務的開發者是否存在過錯。

      那么,如何界定開發者是否有過錯?肖芄進一步解釋,基于當前生成式人工智能幾乎不可避免會出現一定程度的信息偏差,就需要考查比如開發者是否使用了當前行業內通行并被證明有效的措施,來提升技術可靠性,降低錯誤發生的概率,由此證明是否存在過錯。

      “經過調查,本案中的開發者確實采用了可行的技術手段,力求降低錯誤發生!毙ぼ拐f。

      記者調查發現,本案中這款生成式人工智能應用程序,已經針對信息可能存在的不準確性,在頁面醒目位置對用戶進行提示:“內容僅供參考,請仔細甄別”。法院認為,這也證明了開發者盡到了提醒告知義務。

          如何找到促進創新和權益保障的平衡點?

      人工智能行業業內人士表示,從底層技術邏輯來看,當前生成式人工智能基本都是基于詞元的預測,如果這一底層架構沒有發生根本性轉變,信息偏差就不可避免。去年2月,清華大學新媒沈陽團隊發布的一個報告指出,市場上多個熱門大模型在事實性幻覺評測中幻覺率超過19%。

      “有訓練測試案例證明,即使數據集中只有0.01%和0.001%的文本是虛假的,模型輸出的有害內容也會分別增加11.2%和7.2%!痹摌I內人士說。

      盡管如此,技術的客觀局限性并不能成為人工智能開發者的免責借口。受訪法律界人士普遍認為,本案具有一定特殊性,原告并未因為誤導性信息遭受明顯的人身財產等權益損失;原告使用的是一種通用的生成式人工智能應用,并不是一款加載人工智能軟件的機器人或者更加準確的行業應用等。

      “要求人工智能開發者一概為生成內容的準確性負責,既不現實也不合理!毖姳硎,但模型開發者不能以此為借口一味為自己“開脫”,還是要盡到相應的義務并進行風險提示,避免用戶盲目信賴造成不良后果。

      肖芄表示,如何認定生成式人工智能的侵權責任,是一個少有成例的司法前沿問題,希望通過妥善準確的判決引導開發者或者平臺提升信息標準,“找到促進創新和權益保障的平衡點”。

      業內人士建議,建立國家級人工智能安全評測平臺,對新開發的人工智能大模型進行嚴格測試;同時,相關部門和平臺要加強AI生成內容審核,提升檢測鑒偽能力。

    新聞編輯:楊銘 
     

    版權聲明 | 焦作日報社簡介 | 焦作網簡介 | 網上訂報 | 聯系我們
    版權所有:河南省焦作日報社 未經授權,請勿轉載或建立鏡像。
    《焦作日報》遺失聲明熱線:(0391)8797096 郵編:454002
    本網違法和不良信息舉報電話:(0391)8797000 舉報郵箱:jzrbcn@163.com
    河南省“網絡敲詐和有償刪帖”專項整治工作熱線:0371-65598032 舉報網站:www.henanjubao.com
    公安部網絡違法犯罪舉報網 河南省互聯網違法和不良信息舉報中心 豫ICP備14012713號-1
    焦公網安備4108000005 豫公網安備41080202000004號 互聯網新聞信息服務許可證號:41120180013
    信息網絡傳播視聽節目許可證號:11642120  地址:焦作市人民路1159號 報業·國貿大廈 


    掃一掃在手機打開當前頁

    版權所有:河南省焦作日報社 未經授權,請勿轉載或建立鏡像。
    互聯網新聞信息服務許可證:41120180013 電話:(0391)8797000