斯坦福大學研究說,新的AI框架評估了AI應在哪裡自動化與增強工作。

重新定義與AI代理的工作執行

AI代理通過提供執行複雜的,目標指導的任務的工具來重塑如何執行作業。與靜態算法不同,這些代理將多步規劃與軟件工具相結合,以處理各個領域的整個工作流程,包括教育,法律,財務和物流。他們的整合不再是理論上的 – 工人已經在應用他們來支持各種專業職責。結果是過渡的勞動環境,在該環境中,人類和機器協作的界限每天都在重新定義。

彌合AI能力和工人偏好之間的差距

這種轉變中的一個持久問題是AI代理可以做的事情與工人希望他們做的事情之間的斷開連接。即使AI系統在技術上能夠接管一項任務,工人也可能不會因為擔心工作滿意度,任務複雜性或人類判斷力的重要性而無法支持這種轉變。同時,工人渴望卸載的任務可能缺乏成熟的AI解決方案。這種不匹配給勞動力中AI負責任和有效部署的重大障礙。

超越軟件工程師:整體勞動力評估

直到最近,對AI採用率的評估通常以少數角色(例如軟件工程或客戶服務)為中心,從而限制了對AI如何影響更廣泛的職業多樣性的理解。這些方法中的大多數還將公司生產力優先於工人經驗。他們依靠對當前使用模式的分析,該模式沒有提供前瞻性的視圖。結果,人工智能工具的開發缺乏基於執行工作的人們的實際偏好和需求的全面基礎。

斯坦福大學的調查驅動的工作室數據庫:捕獲真正的工人聲音

斯坦福大學的研究團隊介紹了一個基於調查的審計框架,該框架評估了工人希望看到自動化或增強的任務,並將其與AI能力的專家評估進行比較。研究人員使用美國工黨O*網絡數據庫的任務數據,創建了Workbank,這是一個基於1,500名域工人的響應以及52名AI專家的評估的響應。該團隊採用了音頻支持的迷你訪問來收集細微的偏好。它引入了人類代理量表(HAS),這是一個五級指標,可捕獲人類參與任務完成的期望程度。

人類代理量表(HAS):測量適當的AI參與水平

該框架的中心是人類代理量表,範圍從H1(完整的AI控制)到H5(完全的人類控制)。這種方法認識到,並非所有任務都受益於完全自動化,也不應將每個AI工具的目的。例如,額定為H1或H2的任務(例如轉錄數據或生成常規報告)非常適合獨立AI執行。同時,諸如計劃培訓計劃或參加與安全有關的討論之類的任務經常以H4或H5的評分,這反映了對人類監督的高需求。研究人員收集了雙重意見:工人對自動化的渴望進行了評價,並且首選為每個任務都有水平,而專家評估了AI當前的該任務能力。

工作庫的見解:工人擁抱或抵抗AI的地方

Workbank數據庫的結果揭示了清晰的模式。大約46.1%的任務受到了對工人的自動化的高度渴望,尤其是那些被視為低價值或重複性的工人。相反,無論AI的技術能力如何,都在涉及創造力或人際動態的任務中發現了顯著的阻力。通過覆蓋工人的偏好和專家能力,將任務分為四個區域:自動化“綠燈”區域(高功能和高需求),自動化“紅光”區域(高功能但低慾望),R&D機會區(低功能但高功能但高功能)和低優先區(低需求和低功能和低功能)。 41%的任務與由Y組合人資助的公司保持一致,屬於低優先級或紅燈區,表明啟動投資與工人需求之間存在潛在的錯誤對準。

在勞動力中進行負責任的AI部署

這項研究清楚地了解瞭如何更負責任地進行AI集成。斯坦福大學不僅在技術上可行,而且在接受工人的地方揭露了自動化的位置。他們的任務級框架不僅超出了涵蓋人類價值觀的技術準備就緒,因此成為AI發展,勞動政策和勞動力培訓策略的寶貴工具。

tl; dr:

本文介紹了Workbank,這是一個結合了844個任務和104個職業的工人偏好和AI專家評估的大規模數據集,以評估AI代理應在何處自動化或增強工作。該研究使用新穎的人類代理量表(HAS)揭示了一個複雜的自動化格局,突出了技術能力與工人渴望之間的錯位。調查結果表明,工人歡迎自動化重複任務,但要以需要創造力或人際交往能力的角色來抗拒。該框架為負責的AI部署與人類價值觀保持一致的負責人的部署提供了可行的見解。


查看 這項研究的所有信用都歸該項目的研究人員。另外,請隨時關注我們 嘰嘰喳喳 而且不要忘記加入我們的 100K+ ml子雷迪特 並訂閱 我們的新聞通訊


Nikhil是Marktechpost的實習顧問。他正在哈拉格布爾印度技術學院攻讀材料的綜合材料綜合學位。 Nikhil是AI/ML愛好者,他一直在研究生物材料和生物醫學科學等領域的應用。他在材料科學方面具有強大的背景,他正在探索新的進步並創造了貢獻的機會。

Source link

Scroll to Top