隨著科技的飛速發(fā)展,人工智能(AI)智能體正逐漸滲透到我們的日常生活中,它們能夠協(xié)助處理諸如郵件發(fā)送、文檔創(chuàng)建和數(shù)據(jù)庫編輯等繁瑣事務(wù)。然而,這些智能體在市場上的初步反饋并不理想,原因在于它們難以與數(shù)字生活中的各種復(fù)雜組件有效互動。
問題的根源在于,我們?nèi)蕴幱跒檫@些AI智能體構(gòu)建必要基礎(chǔ)設(shè)施的初級階段。為了讓智能體能夠順利完成任務(wù),我們不僅需要賦予它們必要的工具,還需確保它們能夠負(fù)責(zé)任地使用這些工具。因此,如何構(gòu)建智能體與外部環(huán)境之間的有效橋梁,成為亟待解決的問題。
為了應(yīng)對這一挑戰(zhàn),Anthropic和谷歌等公司正積極推出新的協(xié)議。這些協(xié)議旨在定義AI智能體之間以及它們與外部世界交互的方式,從而使智能體能夠更輕松地控制電子郵件客戶端、筆記應(yīng)用等其他程序。其中,應(yīng)用程序編程接口(API)作為線上世界中計算機與程序之間信息交換的基石,扮演著至關(guān)重要的角色。
然而,API的標(biāo)準(zhǔn)化信息回應(yīng)方式并不完全適用于AI模型。AI模型的內(nèi)在隨機性使其對話顯得自然且富有表現(xiàn)力,但同時也給調(diào)用API并理解其響應(yīng)帶來了困難。為了解決這個問題,Anthropic推出了模型上下文協(xié)議(MCP)。MCP旨在標(biāo)準(zhǔn)化AI智能體通過各種程序與世界互動的方式,并已相當(dāng)普及,目前已有超過15,000個服務(wù)器上線。
與此同時,谷歌也推出了Agent2Agent(A2A)協(xié)議,試圖協(xié)調(diào)不同智能體之間的信息交換。如果說MCP的作用是翻譯語言和代碼之間的請求,那么A2A則更注重于智能體之間的協(xié)作。已有150家公司,包括Adobe和Salesforce,與谷歌合作開發(fā)和采用A2A。從宏觀層面來看,MCP和A2A都在引導(dǎo)AI智能體以安全、負(fù)責(zé)任的方式與世界互動。
然而,盡管這些協(xié)議取得了顯著進展,但仍面臨諸多挑戰(zhàn)。其中,安全性問題尤為突出。由于AI模型的工作原理尚未完全理解,新的漏洞不斷被發(fā)現(xiàn)。對于聊天機器人等AI應(yīng)用,惡意攻擊可能導(dǎo)致模型泄露訓(xùn)練數(shù)據(jù)或發(fā)表不當(dāng)言論。但對于能夠代表用戶與世界互動的AI智能體而言,風(fēng)險則更為嚴(yán)峻。
例如,一個用于讀寫郵件的AI智能體已被證實易受攻擊。攻擊者可以通過一封精心設(shè)計的郵件,劫持AI模型并使其發(fā)生故障。如果該智能體擁有用戶文件的訪問權(quán)限,它甚至可能被指令將私人文件發(fā)送給攻擊者。因此,如何確保智能體的安全性,成為亟待解決的問題。
一些研究者認(rèn)為,像MCP這樣的協(xié)議應(yīng)該能夠阻止智能體執(zhí)行有害行為,但目前它還做不到。安全研究員Bruce Schneier對此持懷疑態(tài)度,他認(rèn)為賦予AI更多權(quán)力只會增加其造成現(xiàn)實世界物理傷害的能力。然而,也有人更為樂觀。他們認(rèn)為,通過將安全設(shè)計添加到MCP和A2A等協(xié)議中,可以更有效地發(fā)現(xiàn)和解決安全問題。
協(xié)議的開放性和效率也是值得關(guān)注的問題。盡管MCP和A2A是當(dāng)今最流行的兩種智能體協(xié)議,但還有許多其他協(xié)議正在開發(fā)中。如何確保這些協(xié)議的開放性和透明度,以促進更多人參與共建,從而推動協(xié)議更快、更透明地發(fā)展,成為亟待解決的問題。同時,自然語言接口雖然使智能體能夠更自然地與人類交互,但也缺乏API的精確性,可能導(dǎo)致不正確的響應(yīng)和效率低下。
因此,如何在確保安全性的前提下,提高協(xié)議的開放性和效率,成為未來AI智能體協(xié)議發(fā)展的重要方向。隨著技術(shù)的不斷進步和應(yīng)用場景的不斷拓展,我們有理由相信,AI智能體將在未來發(fā)揮更加重要的作用。然而,在此之前,我們?nèi)孕璨粩嗵剿骱屯晟葡嚓P(guān)協(xié)議和技術(shù)標(biāo)準(zhǔn),以確保AI智能體的安全、可靠和高效運行。