前员工主张

在OpenAI档案报告中,收集了感兴趣的刺激的投票,声称世界人工智能实验室中最杰出的人背叛了盈利安全。开始的渴望开始的是确保II现在为所有人类服务而已,成为另一个追求巨额利润的公司巨头,将安全和道德规范留在尘土中。

所有这些的基础是打破规则原始书的计划。当Openai开始时,这做出了决定性的承诺:这使得投资者可以赚到多少钱成为可能。这是一个法律保证,如果他们设法在世界人工智能上创造改变,那么巨大的优势将进入人类,而不仅仅是少数亿万富翁。现在,这一承诺正处于擦除的边缘,以满足想要无限利润的投资者。

对于建立OpenAi的人来说,AI的安全性类似于深深的背叛。前雇员卡洛尔·韦恩希特(Carroll Wainhite)说:“非营利组织的任务是当赌注变高时做正确的事情的承诺。” “现在赌注很高,非营利性结构被放弃了,这意味着承诺最终是空的。”

加深信任危机

这些令人担忧的声音中有许多表明一个人:总监山姆·奥特曼(Sam Altman)。问题并不新鲜。报告显示,即使在他以前的公司中,高级同事也试图将其删除,以称其为“欺骗性和混乱”行为。

他在Openai中随之而来的不信任感。该公司自己的联合创始人Ilya Satkever多年来一直与Altman合作多年,从成立自己的创业公司开始,他得出了一个冷静的结论:“我不认为Sam-Parna应该在AGI按钮上有一个手指。”他觉得Altman是不诚实的,并造成了混乱,这是对某人的恐怖组合,这可能会对我们的集体未来负责。

前技术总监Mira Murati感到很尴尬。她说:“由于山姆带领我们进入AGI,我对我不满意。”她描述了有毒的模式,Altman会告诉人们他们想听到什么,然后如果他们挡住了他的方式,则破坏了他们。这涉及操纵Openai董事会前成员Tasha McCowuli说,当安全率如此之高时,“应该是不可接受的”事实。

这场信任危机带来了真正的后果。内部人士说,Openai的文化发生了变化,AI安全性的决定性工作使后排座椅发布了“出色的产品”。 Yan Lake带领负责长期安全的团队说,他们竭尽所能“逆风游泳”,试图获得进行重要研究所必需的资源。

前Openai雇员Jan Luke的扭曲,Openai提出了申请,交流了人们对人工智能对Pivot盈利的影响的影响。

另一位前雇员威廉·萨德斯(William Sonders)甚至向美国参议院作了可怕的证词,这表明,长期以来,安全性如此薄弱,以至于数百名工程师可以窃取包括GPT-4在内的最先进的AI。

拼命的要求,以在OpenAI上设定AI安全性优先级

但是那些离开的人不只是离开。他们布置了一个路线图,将Openai从Brink中拉出,这是保存原始任务的最后努力。

他们呼吁这样一个事实,即公司的非营利性心脏将获得真正的权力,并在安全决策上穿着否决权。他们需要一个清晰,诚实的领导,其中包括对山姆·奥特曼(Sam Altman)行为的新的,全面的调查。

他们想要真正的独立监督,因此Openai不能简单地庆祝自己的AI安全性。他们乞求一种文化,人们可以谈论自己的问题,而不必担心自己的工作或储蓄 – 一个真正保护曝光的地方。

最后,他们坚持认为Openai遵守其最初的财务承诺:应保留利润限制。目标应该是公共利益,而不是无限的私人财富。

这不仅是硅谷公司的内部戏剧。 Openai建立了一种可以以我们几乎无法想象的方式改变我们世界的技术。它的前雇员迫使我们问所有人的问题很简单,但是深深地:我们信任谁来建立我们的未来?

正如海伦·托纳(Helen Toner)董事会成员根据自己的经验所警告的那样,“当钱在线时,内部围栏是脆弱的。”

现在,认识Openai的人最好告诉我们,这些安全围栏几乎被打破了。

参见: 采用AI成熟,但部署存在障碍

想进一步了解人工智能和行业领导者的大数据吗? 检查在阿姆斯特丹,加利福尼亚和伦敦举行的AI和大数据博览会。全面的活动以及其他领先活动,包括智力自动化会议,Blockx,一周的数字化转型和网络安全以及云博览会。

基于Techforge在此处探索企业技术和网络研讨会的其他事件。

Source link

Scroll to Top