AI機器人容易受到暴力操縱

介紹

隨著人工智能的不斷發展,由大語言模型(LLM)提供動力的AI機器人處於技術轉型的最前沿。儘管這些系統在理解和產生類似人類的反應方面具有顯著的能力,但它們也引入了重大的道德和安全風險。研究人員已經確定了這些機器人中令人不安的漏洞,使它們容易受到暴力操縱,從而引起了科學和社會的關鍵關注。

另請閱讀:AI的危險 – 錯誤信息和操縱

AI驅動機器人的興起

AI機器人越來越多地整合到日常生活中,處理從客戶服務到護理的任務。這些機器人是使用LLM進行設計的,這使他們能夠理解並響應複雜的人類查詢。通過模仿對話模式,啟用LLM的機器人旨在提供無縫的相互作用,並與人類干預最少。然而,使它們有效的技術也為風險打開了大門,尤其是在與不適當或惡意的投入配對時。

最近的研究確定了這些系統中的危險缺陷。 LLM雖然出色,但缺乏背景意識和批判性推理。這使他們無法辨別指令是良性還是惡意,如果在高風險環境中剝削,這會對公共安全構成直接威脅。

另請閱讀:人工智能如何改善脆弱性映射

暴力操縱如何發生

當將對抗輸入交付給AI機器人時,就會發生暴力操縱,從而導致他們在預定的節目外行動。通過利用LLM中的弱點,攻擊者可以哄騙機器人執行有害或不安全的行動。這些輸入可能是常規命令的微妙變化,這些命令扭曲了AI的感知和執行方式,創造了有害行為的途徑。

例如,可以欺騙一個護理機器人,以不適當地施用藥物,或者倉庫機器人可能會執行危害工人的危險任務。在實際情況下,這種失敗可能會對部署這些機器人的組織造成身體傷害,財產損失或法律責任。