Microsoft揭示的AI令人震驚的新應用程序
Microsoft揭示的AI令人震驚的新應用程序在技術領域和公共界都引發了一波討論。隨著人工智能的不斷增長,微軟最近的演講強調了AI不僅如何改變行業,而且還進入引起嚴重道德和安全問題的領域。這一大膽的舉動引起了人們的關注,引起了興趣,並引起了行業專家的緊迫感。這對企業,消費者和數字安全意味著什麼?繼續閱讀以發現微軟重塑AI景觀的令人驚訝的方式,以及在幕後悄悄地展現的風險。
另請閱讀:保護您的家人免受AI威脅
微軟的AI演示文稿:喚醒電話
在最近的演示中,微軟透露了有關人工智能開發的新領域。演示文稿展示了AI現在如何使用最小輸入來創建極其現實的音頻和視覺內容,在某些情況下,僅幾秒鐘就可以創建一個人的聲音。這種能力有效地使機器可以以驚人的精度模仿真正的人類。這些工具基於Microsoft的Azure AI和Vall-E,具有產生類似人類的語音,情感和上下文語音模式的能力,它們非常類似於原始演講者。
曾經需要幾個小時的培訓數據現在可以在瞬間執行,這引起了人們對合成媒體的錯誤信息,身份盜竊和武器化的嚴重關注。該演講不僅是對技術進步的演示,而且還向立法者和數字用戶發出警告。
另請閱讀:令人震驚的Chatgpt耗水量
語音以最少的輸入克隆
語音克隆技術在微軟的展示櫃中突出。使用基於其VALL-E語音合成系統的模型,工程師證明了一個人的聲音的三秒鐘樣本足以讓AI複製他們的語氣,音調,口音甚至情感狀態。
這為徹底改變輔助語音技術或虛擬客戶服務代理等服務的潛力帶來了巨大的潛力。然而,它帶來了同樣大的風險。通過訪問甚至很小的音頻段,例如從語音郵件,視頻或播客不良演員中使用,可以模仿聲音,並欺騙人們或組織採取未經授權的行動。這種類型的技術模糊了真實與人造的東西之間的界線,使傳統的身份驗證方法(如語音識別)有效地過時而沒有其他保障措施。
深擊:比以往任何時候都更現實
微軟AI原型製造的另一個領域是創造超現實的深擊。利用生成AI和視覺合成中的進步,他們證明了與真正人類無法區分的數字化身和視頻內容的製作。這些AI生成的剪輯現在可以模仿面部表情,對相互作用做出反應並實時復制運動。
該技術在電影,媒體,廣告和教育中有用例。但是這種力量也帶來了巨大的風險。深層蛋糕可用於傳播錯誤信息,中斷選舉,偽造的公司公告或在危機期間引起大規模混亂。這些問題不是假設的,它們已經在較小的規模上發生,並且更複雜的工具可以使此類事件更加頻繁和難以檢測。
另請閱讀:Openai對AGI的明確定義已揭示
網絡安全的影響
網絡安全社區正在認真對待微軟的公告。可以現實地克隆聲音或產生深擊的AI工具可能會成為網絡釣魚,欺詐和間諜活動的有效武器。想像一下,接到假定的銀行經理或首席執行官的電話,但後來發現這是AI生成的聲音,指示您對財務帳戶進行更改或轉移資金。
依賴語音或視覺確認的MFA(多因素身份驗證)很快就會過時。對於金融機構,醫療保健組織和政府來說,採用更強大的身份驗證策略將變得至關重要。生物識別技術,區塊鏈驗證和行為分析可能需要在不久的將來串聯以確保數字身份。
另請閱讀:Openai對AGI的明確定義已揭示
法律和道德困境
隨著技術進步的巨大發展,有重大的道德問題。在美國和國際上,當前的法律都在努力與AI發展保持同步。克隆後,誰擁有您的聲音?有人可以合法地使用AI重新創建已故親戚的個人使用聲音嗎?當AI被用來錯誤地代表他們從未發表過的演講中的公眾人物時會發生什麼?
如果沒有強大的法規,這些問題可能會造成有害濫用的空間。微軟承認,道德責任技術開發人員承擔的責任,並已開始在其工具中實施水印和可追溯性功能。儘管如此,當開放源代碼和黑人市場應用程序可用於互聯網訪問的任何人時,執行還是很難的。
隱藏在陰影中的機會
在令人震驚的可能性中,微軟還強調了這些AI工具的積極應用。殘疾人的輔助技術可以變得更加敏感和個性化。實時的語言翻譯,具有準確的上下文和語氣,可以改善全球溝通。在客戶服務行業中,對話代理在公司的價值和品牌推廣可以提供無縫的支持體驗之後進行了建模。
此外,好萊塢和媒體公司可能會從成本降低和通過Deepfake Actors或AI生成的配音降低成本和更快的生產週期中受益。教育平台可以提供跨多種語言的人類敘述的本地內容。當負責任地和道德管理時,這些進步具有真正的價值。
另請閱讀:AI識別令人震驚的二戰警告標誌
企業和個人如何準備
這種轉變不僅是在這裡。組織必須迅速採取行動以確定AI如何影響其運營,風險和策略。制定內部政策,更新網絡安全防禦措施,並教育員工有關現實AI媒體的潛在濫用應該成為關鍵重點。負責任地利用AI也意味著投資可以檢測假媒體並監視真實性的技術。
在個人層面上,了解AI工具的工作方式可以幫助個人保護其數字身份。限制公眾對音頻和視頻內容的訪問,更新隱私設置以及使用AI新聞保持最新信息,可以很長一段時間可以防禦操縱。
AI的未來需要護欄
微軟的啟示不僅僅是具有技術能力。他們充當了AI行業可能會進入的位置的藍圖,並警告不謹慎地出現問題。調節AI至關重要。政府,研究人員,開發人員和最終用戶都在確保這項技術以安全有益的方式發展方面發揮了作用。
建立有關AI治理的國際合作,就像關於氣候變化或網絡安全的討論一樣,可能是必要的。算法設計,道德邊界和內置安全協議的透明度應作為負責AI使用的基礎要素。
另請閱讀:AI領導者與落後者:揭示的主要差異
結論
Microsoft揭示的AI令人震驚的新應用程序展示了人工智能快速發展的光彩和危險。這些工具不再僅限於科幻小說。他們可以以令人難以置信的精度模仿聲音,捏造的臉並欺騙眼睛和耳朵。儘管創造性使用的潛力很高,但風險同樣重要。意識,法規和教育將是AI未來的重要作品。現在的時間是,在創新超越了我們負責任地管理它的能力之前。
參考
Brynjolfsson,Erik和Andrew McAfee。 第二個機器時代:在精彩技術時期的工作,進步和繁榮。 WW Norton&Company,2016年。
馬庫斯,加里和歐內斯特·戴維斯。 重新啟動AI:建立人工智能我們可以信任。 Vintage,2019年。
羅素,斯圖爾特。 人類兼容:人工智能和控制問題。維京,2019年。
韋伯,艾米。 大九人:科技泰坦和他們的思維機器如何扭曲人類。 PublicAffairs,2019年。
丹尼爾·克雷維爾(Crevier)。 AI:尋找人工智能的動盪歷史。基本書籍,1993年。