超級智能AI可以保持中立嗎?

超級智能AI可以保持中立嗎?

超級智能AI可以保持中立嗎?當我們接近人工通用智能(AGI)和人工超級智能(ASI)時,這個問題越來越涉及決策者,倫理學家和AI研究人員。儘管AI系統已經表現出可測量的偏見,儘管被編程為中立性,則更深入地研究了超智能機器中中立的技術,道德和社會含義,這不僅及時,而且是緊迫的。本文評估了超級智能AI中的真正中立性是否可能是可能的,並探討了算法中嵌入的人類影響力,自治與人類監督之間的張力以及偏見在全球範圍內帶來的風險。

關鍵要點

  • 真正的AI中立性越來越難以捉摸,因為訓練數據和嵌入算法中的人類價值系統的影響。
  • 人工智能的偏見,即使在表現最佳的模型中,也提出了道德和社會問題,這些問題與ASI大大擴展。
  • 大語言模型(LLMS)和培訓數據集選擇的體系結構在塑造算法公平性方面起著關鍵作用。
  • 超智能AI的治理提出了有關問責制,透明和全球股權的尚未解決的挑戰。

另請閱讀:ASI聯盟通過Desci模型轉換AI收入

現有AI系統中立的幻想

當今領先的AI平台,包括Chatgpt,Google Bard和Anthropic的Claude,為分析未來的超級智能係統中的中立性提供了信息基準。儘管開發人員打算創造公正的助手,但現實世界中的使用表現出一致的政治,文化和倫理傾向,對模型的回應傾向。這些偏見通常源自從互聯網收穫的訓練數據集,這些數據集固有地反映了人類的偏見和結構性不平等。

例如,OpenAI的GPT模型表明,根據與政治意識形態或社會問題有關的提示,其反應各不相同。獨立的審核和研究,例如斯坦福大學CRFM和對齊研究中心進行的研究表明,算法輸出通常與特定的文化規範或意識形態框架保持一致。這種結果不僅是偶然的。相反,它源於設計選擇,模型對齊策略和預處理數據分佈。

超級智能中偏見的建築源

人工智能中的偏見不僅是數據有缺陷的結果,而且還來自模型本身的架構。大型語言模型(LLMS)基於變壓器體系結構,嚴重依賴於概率模式識別。這些模型使用預先存在的語料庫中發現的統計相關性預測句子中的下一個單詞。如果數據包含隱式偏見,則模型將始終如一地重現它們,而不管下游指令調整或增強優化。

解決這些問題的技術努力包括對齊技術,例如從人類反饋(RLHF),及時調理和偏見過濾器等加強學習。但是這些方法僅減輕,而不能消除全身偏見。隨著AI朝著AGI或ASI功能發展,小小的一致性瑕疵可能會擴展到主要的道德或政治不准確性。將ASI與完全中立性浸透的嘗試可能與LLMS的概率,以人為訓練的基礎相抵觸。

另請閱讀:Sam Altman對人工超級智能的願景

人為因素:誰定義中立?

定義構成“中性”本身就是一個哲學挑戰。在一種文化或政治背景下接受中立的訓練的系統可能在另一種文化或政治背景下似乎有偏見。 Timnit Gebru和Max Tegmark等研究人員指出,即使保持中立性的野心也反映了有關客觀性,道德和公平性的特定意識形態偏好。

這為AI開發商和倫理學家造成了困境。如果需要人類的投入才能執行中立,那麼中立性就繼承了這些人的謬誤和主觀性。例如,在數據策劃過程中包括或排除哪些聲音,值和觀點直接影響超級智能係統的輸出。正如斯圖爾特·羅素(Stuart Russell)所說:“如果倫理的參數在文化和時間上轉移,我們可以將道德行為表示為實用性函數的想法是有缺陷的。”

開源數據與專有護欄

用於構建AI模型的培訓數據的來源在他們發展的認知和道德腳手架類型中起著基礎作用。開源數據集可能會提供透明度和社區監督,但它們具有更廣泛的未經過濾偏見的風險。專有數據集可能更清潔,但缺乏可驗證性和外部問責制。

OpenAI和Google等公司因拒絕透露其培訓管道的全部細節而面臨審查。相比之下,開源項目(例如Eleutherai的GPT-Neox或Meta的Llama 2)使研究人員直接訪問模型培訓,但它們可能缺乏全面的偏見降低策略。開放科學與人工智能安全之間的張力使真正中性智力的途徑變得複雜,尤其是在製定影響數百萬甚至整個國家的決策的系統中。

另請閱讀:AI的最大危險。

大規模偏見ASI的風險

超級智能AI的偏見構成了高風險後果,遠遠超出了不正確的產出或偏斜的建議。在治理,軍事,醫療保健和法律體系中,有偏見的ASI可能會鞏固系統性不平等或激發地緣政治不穩定。一個以西方為中心的理想訓練的系統,在全球部署時,可能會誤解其他文化中的倫理規範或政治動態,可能導致意外傷害。

隨著AI系統獲得自主權,在自我指導學習過程中是否可以保持人類價值觀是否可以保持嵌入的問題變得更加令人關注。 ASIS優化代理目標與創作者的意圖一致的方案不僅是投機性的。它們反映了以普遍穩定格式編碼值的難度。沒有強大的算法公平框架和跨文化共識,中立的超智慧的前景仍然很遙遠。

專家觀點:道德挑戰和前景

領先的AI倫理學家繼續辯論機器中立是否甚至是可取的,更不用說可以實現了。 Timnit Gebru倡導AI系統是上下文感知而不是中立的,重點是透明度和多元化價值表示。 Max Tegmark提出了更好的可解釋性工具,以確保AI系統隨著時間的推移與人類目標保持一致,並認識到中立性的靜態定義可能會阻礙適應性。

斯圖爾特·羅素(Stuart Russell)在接受AI安全中心採訪時,建議“可證明是有益的AI”在傳統意義上可能不需要中立。相反,它應該反映對人類偏好的不確定性,再加上安全學習它們的能力。這將焦點從中立性轉變為對齊方式,在這些焦點中,超級智能AI通過上下文學習值,而不是假設固定標準。

另請閱讀:AI驅動的業務決策中的道德規範

常見問題

  • AI系統可以真正公正嗎?
    鑑於所有AI系統都依賴於擁有自己的偏見和文化背景的人類策劃的數據集,這是不可能的。
  • 是什麼導致人工智能偏見?
    偏見源於培訓數據,模型架構,開發人員選擇和嵌入式社會假設。
  • 開發人員如何嘗試減少AI偏見?
    方法包括數據平衡,增強對準,偏見審核和對抗紅色小組,儘管沒有一個保證完全公正性。
  • AI會在道德決策中取代人類嗎?
    目前的共識表明,由於道德的微妙和價值驅動的性質,AI應該在道德背景下支持,而不是替代人類。

結論:中立的未來還是管理不完美?

發展中性的超級智能AI的野心與機器學習和人類主觀性的現實矛盾。隨著人工智能的發展,其道德軌跡不僅取決於更複雜的算法,還取決於公開的話語,透明的治理和各種利益相關者的參與。儘管完全中立性可能仍然無法實現,但構建確認其價值假設並在跨環境中進行適應的系統可能會提供更務實和倫理的前進道路。挑戰不再簡單地防止偏見。這是關於在可理解且負責任的框架內積極管理它。

參考

Source link

Scroll to Top