加入企业领导人信任的活动近二十年。 VB变换结合了建立企业真实策略的人们。了解更多
CHATGPT常规用户(包括本文的作者)可能会或无法注意到OpenAI的HIT聊天机器人允许用户加入“临时聊天”,旨在摧毁聊天会话后,旨在销毁所有信息,用户和AI基本模型之间的交换。
此外,OpenAI还允许用户从Web应用程序和桌面/移动应用程序上的左侧面板中手动删除先前的ChatGpt会话,使用左鼠标或关闭鼠标单击或关闭控制,或将其持有/按住/按下selector。

尽管如此,本周的Openai被一些Chatgpt用户发现公司发现公司有 不 实际上,我删除了这些聊天杂志,如前所述。
“您告诉我,我的远程聊天聊天实际上没有被删除,并且()保留了法官的调查?”已发布X用户 @ns123abc。该评论引起了超过一百万的观看。
另一位用户@kepano补充说:“您可以删除” Chatgpt聊天,但是所有聊天都应从法律义务中保留? ”。
正如Wintererster AI和程序员工程师Simon Willison在他的个人博客中:“支付客户(OpenAI)API可能会决定转移到其他供应商中,这些供应商可能会提供不会破坏法院命令的保留政策!”
取而代之的是,Openai证实,自2025年3月中旬以来,他为回应联邦法院保存了用户聊天的远程和临时杂志,尽管他直到6月5日才向用户透露这件。
美国地方法院法官雷尤·T·范加(Reyu T. Vanga)于2025年5月13日发布的命令要求OpenAI“保留并共享未来否则会删除的所有输出数据”,包括根据用户的要求或从机密性的义务中删除聊天。
法院的指示与 《纽约时报》(NYT)针对Openai和Microsoft现在,他们仍在争论一年半的版权。一个 nyt’律师声称,Openai的语言模型爆发了新闻内容的版权。原告认为,包括用户可以删除的杂志可能包含违反与诉讼相关的输出的违规行为。
尽管Openai立即完成了订单,但他没有在三个星期以上公开通知受伤用户,在博客和常见问题上发布消息,描述了法律授权并说明谁受到影响。
但是,Openai有罪 纽约 法官的命令说,他认为保存需要“不合理”。
Openai解释了法院命令的情况以节省ChatGpt用户,包括聊天影响
在昨天发布的博客上的一条消息中,首席运营官Openai Brad LightCap击败了该公司的立场,并说他倡导用户针对穿衣,写作的法院命令的机密性和安全性:
“《纽约时报》和其他原告在对我们的不合理审判中表达了广泛而不必要的需求:在不确定的时期内保留Chatgpt和客户的API的消费者数据。这从根本上讲,这与我们对用户履行的义务相矛盾。”
该消息清除了CHATGPT是免费的,Plus,Pro和Team用户以及没有零数据存储(ZDR)的API客户端会受到订购节省的影响,这意味着,即使这些计划的用户删除了他们的聊天或使用临时聊天方式,他们的聊天也将在可预见的将来存储。
但是,用户的订户ChatGpt Enterprise和EDU以及API客户使用ZDR的最终点是 不 询问订单,他们的聊天将根据说明删除。
保存的数据根据法律保留存储,这意味着它们存储在安全的,隔离的系统中,仅适用于少数法律和安全服务。
“这些数据不与 纽约时报 或其他人,” LightCap强调Openai博客。
Sam Altman错过了“ AI特权”的新概念,该概念允许在模型和用户之间进行机密对话,类似于与人或律师或律师进行沟通
Openai Sam Altman的总经理兼共同创始人也在他的帖子中从他的帖子中公开考虑了这个问题,该问题昨晚在社交网络X上的帐户中写道:
“最近,《纽约时报》要求法院迫使我们不要删除任何用户聊天。我们认为,这是一个不适当的请求,确立了不良先例。我们将对这一决定提出上诉。我们将抗击任何要求危及用户的机密性的要求;这是基本原则。”
他还建议AI的机密性可能需要更广泛的法律和道德结构:
“我们最近考虑了对“ AI特权”之类的需求;这确实加速了进行对话的需求。”
“与AI交谈的IMO应该像与律师或医生的对话一样。”
“我希望社会能尽快找到答案。“
AI的特权概念是潜在的法律标准回声 – 顾问 – 客户和博士学位的机密性。
不管这种结构是否会在法庭或政治圈子中获得吸引力,仍然尚不清楚,但是Altman的评论表明,Openai可以越来越保护这种转变。
OpenAI和您的临时/远程聊天接下来会发生什么?
Openai对法院裁决提出了正式反对,要求释放他。
在法院声明中,该公司声称该要求没有实际依据,并且保存数十亿个额外的数据点既不是必要的也不是比例的。
范法官在5月27日的听证会上表示该命令是暂时的。她指示各方制定样本计划,以检查其余杂志的远程用户数据是否有很大差异。 Openai被命令将此提案提交今天(6月6日),但我尚未看到演讲。
这对在公司环境中使用CHATGPT的决定的企业和人员意味着什么
尽管该订单使用ZDR端点豁免了ChatGpt Enterprise和API客户,但更广泛的法律和声誉后果对于负责组织内部AI决策的专业人员非常重要。
那些观察大语言模型(LLMS)的完整生命周期的人 – 在调整和集成之前进行数据接受,将通过对数据管理的假设来重新评估债务。如果LLM的用户组件受到法律维护程序的约束,则会对数据离开可靠的终点以及如何隔离,高风险相互作用的期刊或匿名性,这会引发紧急问题。
与OpenAI API有关的任何平台均应确认使用哪些端点(针对非ZDR的ZDR),并提供用户协议,审计和内部文档期刊中反映数据处理策略。
即使使用了ZDR的终点,数据生命周期的数据也可能需要修订,以确认向下系统(分析,注册,备份)无法明确地维护过渡相互作用,这些交互作用应该是短暂的。
负责风险管理的安全服务的员工现在应扩大威胁建模,以便将法律发现作为潜在向量。团队应检查后端OpenAI保留方法是否与内部控制和第三方风险相对应,以及用户是否依靠诸如“临时聊天”之类的功能,不再是根据法律保存所预期的。
用户和用户安全的机密性的新观点
这一刻不仅是一场合法的小规模冲突。这是关于AI机密性和数据权的不断发展的对话中的爆发。 Openai创建一个问题为“ AI特权”,有效地为知识系统如何处理机密输入数据提供了新的公共协议。
法院还是立法者是否正在接受人员仍然不确定。但是目前,Openai进入了《平衡法》 – 在法律合规性,企业的保证和用户的信任之间 – 并且在与机器交谈时会面临更大的问题。
每天有关VB每日业务使用方案的见解
如果您想打动老板,VB每天都会覆盖您。我们为您提供有关公司对生成AI的影响的内部勺子,从监管转变到实际部署,因此您可以分享对最大投资盈利能力的了解。
阅读我们的保密政策
感谢您的订阅。在此处查看更多VB信息选票。
发生错误。

Source link