首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|芯片|物聯(lián)網|量子|低空經濟|智能汽車|特約記者
手機|互聯(lián)網|IT|5G|光通信|人工智能|云計算|大數(shù)據(jù)|報告|智慧城市|移動互聯(lián)網|會展
首頁 >> 頭條資訊 >> 正文

在代理式AI中構建信任

2025年7月24日 07:45  CCTIME飛象網  作 者:Vincent Caldeira

作者:紅帽亞太區(qū)首席技術官Vincent Caldeira

隨著AI系統(tǒng)從獨立模型向自主、代理式系統(tǒng)轉型,對信任、透明度和風險感知設計的需求從未如此迫切。這些由大語言模型(LLM)和多代理編排技術驅動的智能代理,正越來越多地做出影響企業(yè)、個人及整個社會的決策。然而,我們不能假定這些系統(tǒng)的可信度:它必須在系統(tǒng)層面進行設計、測量和持續(xù)強化,而不僅僅是模型層面。

AI可信度的關鍵驅動力之一是模型供應鏈透明度——一個允許企業(yè)評估和驗證復雜系統(tǒng)中使用的AI組件的來源、安全性和一致性的框架。如果無法清晰了解AI模型是如何構建、訓練和部署的,就幾乎不可能對系統(tǒng)需求進行風險分析。本文探討了模型供應鏈透明度為何至關重要,它如何支持代理式AI中的風險對齊,以及設計可信AI生態(tài)系統(tǒng)的最佳實踐。

AI供應鏈日益增長的復雜性

現(xiàn)代AI系統(tǒng)不再是一個單一體,而是由多個相互關聯(lián)的模型、API和組件(包括外部數(shù)據(jù)源和工具)組成。這種復雜性引入了新的風險因素,包括:

·數(shù)據(jù)來源不確定性:訓練數(shù)據(jù)來自哪里?是否存在偏見或不完整?

·第三方模型風險:外部AI模型是否符合倫理和監(jiān)管標準?

·API依賴關系:如果函數(shù)調用返回不可靠或不安全的輸出,會發(fā)生什么?

·自動化決策不透明性:利益相關者能否審計并干預AI驅動的決策?

這些挑戰(zhàn)凸顯了模型供應鏈透明度的重要性。這就是為什么行業(yè)需要標準化AI供應鏈可見性,確保模型在構建時考慮了問責制和風險對齊。

為什么風險分析對代理式AI至關重要

與傳統(tǒng)AI模型按要求提供輸出不同,代理式AI系統(tǒng)基于高級目標自主行動。這種從反應式到主動式AI的轉變要求新的風險評估方法。部署多代理編排和函數(shù)調用框架的企業(yè)必須評估:

1.可預測性與可靠性——系統(tǒng)能否產生一致且可解釋的結果?

2.人機回圈控制——是否存在人類干預和對齊的機制?

3.倫理護欄——系統(tǒng)如何與人類價值觀和政策對齊?

4.自適應風險緩解——AI能否根據(jù)不斷變化的風險調整其行為?

風險對齊的AI系統(tǒng)不僅簡單地執(zhí)行功能——它理解自己的局限性,溝通不確定性,并在必要時允許人類監(jiān)督。

提升AI系統(tǒng)可信度的最佳實踐

為確保AI系統(tǒng)可信,企業(yè)必須在AI生命周期的每個階段嵌入安全措施。以下最佳實踐可提供幫助:

1.模型沿襲(model lineage)與可解釋性:模型沿襲通過追蹤AI模型的整個生命周期(從數(shù)據(jù)源到部署)確保透明度,支持偏見檢測與問責制。可解釋性為AI決策提供清晰可理解的洞察,幫助用戶理解并信任系統(tǒng)輸出。

2.風險感知的代理式編排:為防止意外行為,代理式AI系統(tǒng)必須包含安全措施,如提示調解(驗證輸入)、輸出調解(過濾響應)和任務錨定(確保AI保持在一定范圍之內)。這些機制有助于將AI行為與人類期望和安全標準對齊。

3.人機回圈治理:即使在自主AI中,人類監(jiān)督對于防止錯誤和意外后果也至關重要。實施實時干預控制和故障安全機制,確保AI行為可被監(jiān)控、糾正或在必要時覆蓋。

4.透明的AI供應鏈:AI系統(tǒng)應基于可驗證、可審計的組件構建,以確保信任和問責制。企業(yè)必須追蹤模型來源、評估第三方AI風險,并使用開源框架提升AI開發(fā)和部署的透明度。

通過整合這些實踐,企業(yè)可以主動設計信任機制,而非在部署后補救安全功能。從已建立的實施模式來看(例如ThoughtWorks的Martin Fowler和Bharani Subramaniam的《構建生成式AI產品的新興模式》),在未來幾年中,將信任設計元素融入其中并采用相關最佳實踐,對于在企業(yè)規(guī)模成功部署AI而言,將會變得愈發(fā)重要。

結論:信任是系統(tǒng)級重要任務

隨著AI從模型向系統(tǒng)過渡,企業(yè)必須采用整體方法來處理信任和透明度。這需要:

·模型供應鏈透明度,以評估和驗證AI組件。

·系統(tǒng)風險分析,以預見故障并緩解偏見。

·主動設計模式,以落實安全、公平和問責制。

歸根結底,信任不是功能,而是基礎。為了確保AI系統(tǒng)安全、有效并與人類價值觀對齊,我們必須在每個層面為信任展開設計——從數(shù)據(jù)和模型到決策和部署。

編 輯:魏德齡
飛象網版權及免責聲明:
1.本網刊載內容,凡注明來源為“飛象網”和“飛象原創(chuàng)”皆屬飛象網版權所有,未經允許禁止轉載、摘編及鏡像,違者必究。對于經過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發(fā)之日起30日內與本網聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦新聞              
 
人物
中國移動董事長楊杰:聚“AI+”時代合力 共啟數(shù)字經濟新篇章
精彩視頻
中國聯(lián)通郝立謙:憑借三大核心優(yōu)勢,攜手各界伙伴共赴智能新時代新征程
中興通訊徐子陽:夯實基礎能力,構建數(shù)字轉型共同體
中國商飛賀東風:人工智能技術加速迭代,正迎來爆發(fā)式發(fā)展
華為楊超斌:AI應用已成為整個ICT技術基礎設施建設的核心動力
精彩專題
2025中國聯(lián)通合作伙伴大會
2025 MWC 上海
2025工業(yè)互聯(lián)網大會
2025世界電信和信息社會日大會
關于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像