

人工智能發(fā)展迅速,但也讓企業(yè)面臨諸多威脅。以下是如何在必要時(shí)關(guān)閉人工智能的“終結(jié)開關(guān)”
人工智能正以驚人的速度發(fā)展,但其安全措施卻難以跟上。最近,新興開源人工智能平臺(tái) DeepSeek 遭遇網(wǎng)絡(luò)攻擊,這清楚地提醒我們,人工智能系統(tǒng)——尤其是代理人工智能——也容易受到困擾更廣泛數(shù)字生態(tài)系統(tǒng)的威脅。
DeepSeek 因其先進(jìn)的語(yǔ)言模型而常被稱為“ChatGPT 殺手”,其受歡迎程度一度超越 OpenAI 的 ChatGPT。但很快,它也成了眾矢之的。一場(chǎng)分布式拒絕服務(wù) (DDoS) 攻擊迫使該公司暫停新用戶注冊(cè),動(dòng)搖了人們對(duì)人工智能安全準(zhǔn)備的信心。
這并非孤立事件。無(wú)論是開源還是專有的人工智能模型,都越來(lái)越多地被利用,無(wú)論是通過(guò)對(duì)抗性機(jī)器學(xué)習(xí)攻擊、數(shù)據(jù)中毒還是 API 泄露。隨著人工智能代理承擔(dān)越來(lái)越關(guān)鍵的業(yè)務(wù)功能,這些風(fēng)險(xiǎn)只會(huì)越來(lái)越大。
為了解決這個(gè)問(wèn)題,人工智能行業(yè)必須重新思考其安全策略。解決方案的一個(gè)基本要素是“人工智能終止開關(guān)”——一種在受感染的人工智能系統(tǒng)失控之前將其阻止的機(jī)制。而這個(gè)終止開關(guān)的核心是機(jī)器身份安全。
人工智能的雙刃劍
人工智能已成為數(shù)字化轉(zhuǎn)型的驅(qū)動(dòng)力,在醫(yī)療、金融、物流和營(yíng)銷等行業(yè)取得了突破性進(jìn)展。如今,借助代理人工智能 (Agentic AI),大型語(yǔ)言模型 (LLM) 已從文本生成功能發(fā)展到能夠自主執(zhí)行操作。然而,所有這些顯著的進(jìn)步都伴隨著巨大的風(fēng)險(xiǎn)。人工智能在加速創(chuàng)新的同時(shí),也增強(qiáng)了網(wǎng)絡(luò)犯罪分子的能力。
就 DeepSeek 而言,一些研究人員已經(jīng)發(fā)現(xiàn)了其系統(tǒng)中的漏洞,包括可助長(zhǎng)勒索軟件等惡意輸出的越獄漏洞,甚至還有毒素開發(fā)指令。與此同時(shí),1 月 29 日,另一個(gè)研究團(tuán)隊(duì)發(fā)現(xiàn)ClickHouse 數(shù)據(jù)庫(kù)暴露,泄露了敏感數(shù)據(jù),包括用戶聊天記錄、日志流、API 機(jī)密和操作詳細(xì)信息。他們還發(fā)現(xiàn),這導(dǎo)致攻擊者無(wú)需身份驗(yàn)證即可完全控制數(shù)據(jù)庫(kù)并提升權(quán)限。
這些只是 NIST 所定義的對(duì)抗性機(jī)器學(xué)習(xí) (AML)攻擊的幾個(gè)例子 ,這些攻擊利用了 AI 模型在其生命周期的各個(gè)階段(從開發(fā)、測(cè)試到部署)的弱點(diǎn)。
CyberArk 的2024 年研究顯示,安全領(lǐng)導(dǎo)者對(duì)這項(xiàng)技術(shù)也心存疑慮; 其中92% 的人擔(dān)心使用人工智能生成的代碼,77% 的人擔(dān)心數(shù)據(jù)中毒,即攻擊者操縱訓(xùn)練數(shù)據(jù)來(lái)扭曲人工智能輸出,75% 的人深切關(guān)注人工智能模型被盜。
鑒于DeepSeek攻擊引發(fā)的驚人關(guān)注,這些擔(dān)憂仍未消散。正如此案所示,有效的攻擊不僅會(huì)擾亂運(yùn)營(yíng),還可能造成全球性影響。
什么是 AI 終止開關(guān)?為什么我們需要它?
無(wú)論是攻擊者破壞或竊取模型,還是冒充人工智能獲取未經(jīng)授權(quán)的訪問(wèn)權(quán)限的網(wǎng)絡(luò)犯罪分子,亦或是前所未有的新型攻擊,安全團(tuán)隊(duì)都需要積極主動(dòng)。正因如此,人工智能“終止開關(guān)”至關(guān)重要。它使組織能夠在受感染的人工智能系統(tǒng)造成嚴(yán)重?fù)p害之前暫停、遏制或禁用它們。
AI終止開關(guān)并非簡(jiǎn)單的關(guān)閉機(jī)制,而是通過(guò)機(jī)器身份安全來(lái)強(qiáng)制控制。通過(guò)在訓(xùn)練、部署和運(yùn)行期間驗(yàn)證和管理AI模型的唯一身份,組織可以防止未經(jīng)授權(quán)的訪問(wèn),切斷受感染的系統(tǒng),并阻止威脅在網(wǎng)絡(luò)中不斷升級(jí)。如果沒有這些措施,AI系統(tǒng)仍然容易受到大規(guī)模攻擊。
缺失的拼圖:機(jī)器身份安全
如何開發(fā)你的“AI終止開關(guān)”?答案在于保護(hù)AI所依賴的整個(gè)機(jī)器驅(qū)動(dòng)生態(tài)系統(tǒng)。機(jī)器身份(例如數(shù)字證書、訪問(wèn)令牌和API密鑰)用于驗(yàn)證和授權(quán)AI功能及其與數(shù)據(jù)源交互和訪問(wèn)的能力。簡(jiǎn)而言之,LLM和AI系統(tǒng)基于代碼構(gòu)建,與任何代碼一樣,它們需要持續(xù)驗(yàn)證以防止未經(jīng)授權(quán)的訪問(wèn)或惡意行為。
如果攻擊者竊取這些身份信息,人工智能系統(tǒng)就可能成為網(wǎng)絡(luò)犯罪分子的工具,能夠生成勒索軟件、擴(kuò)大網(wǎng)絡(luò)釣魚活動(dòng)規(guī)模并制造混亂。機(jī)器身份安全確保人工智能即使擴(kuò)展到與復(fù)雜的網(wǎng)絡(luò)和用戶群交互時(shí)仍然值得信賴——這些任務(wù)可以并且將由人工智能代理自主完成。
如果沒有強(qiáng)有力的治理和監(jiān)督,企業(yè)可能會(huì)失去對(duì)其人工智能系統(tǒng)的可視性,使其變得脆弱。攻擊者可以利用薄弱的安全措施,使用數(shù)據(jù)投毒和后門滲透等手段——這些威脅的演變速度遠(yuǎn)超許多組織的認(rèn)知。
DeepSeek 攻擊事件給人工智能和網(wǎng)絡(luò)安全敲響了警鐘。企業(yè)、政府和研究人員必須超越被動(dòng)應(yīng)對(duì),開發(fā)能夠與人工智能威脅同步演進(jìn)的安全框架。
機(jī)器身份安全是至關(guān)重要的第一步——它能夠在人工智能驅(qū)動(dòng)的世界中建立信任和韌性。隨著代理人工智能在各行各業(yè)承擔(dān)自主決策的角色,這一點(diǎn)變得更加緊迫。
經(jīng)濟(jì)、技術(shù)和安全風(fēng)險(xiǎn)不容忽視。如果沒有與技術(shù)本身同樣強(qiáng)大的正確保障措施,人工智能的進(jìn)步潛力很容易變成負(fù)擔(dān)。

