Endor Labs:反对“开放洗涤”的AI透明度

由于AI行业专注于透明度和安全性,因此“开放”的真正含义的辩论加剧了。拥有开源代码Endor Labs的安全公司的专家权衡了这些紧迫的主题。

Endor Labs的高级产品营销经理Andrew Stephel强调了使用从软件安全系统中提取的教训的重要性。

“美国政府在2021年在美国网络安全领域,改善了要求组织为每种出售给联邦政府机构的产品生产账单材料(SBOM)的规定。”

实际上,SBOM是库存,是产品中带有开源的详细组件,有助于检测漏洞。斯蒂芬说:“将相同的原理应用于人工智能系统是合乎逻辑的下一步。”

他解释说:“为公民和公务员提供更好的透明度,不仅可以提高安全性,而且还可以在一系列数据数据,培训,体重和其他组件方面具有可见性。”

这意味着AI模型是“开放”的?

Endor Labs的高级产品经理Julien Sobrier在正在进行的有关AI和“开放性”的透明度的讨论中添加了重要背景。 Sobrier打破了AI系统分类中固有的复杂性。

“人工智能的模型是由许多组成部分组成的:一组培训,培训和测试模型等程序等。重要的是要使整个链条作为开源代码可用,以命名“开放”模型。目前,这是一个广泛的定义。

索布里尔(Sobrier)指出,没有一系列大玩家,这导致了对该术语的困惑。

“在主要参与者中,人们对“ Open”的定义的恐惧始于Openai,而Meta现在是其Lama模型的新闻,尽管这是“更开放的”。我们需要对开放模型的含义有一般的了解。我们希望按照免费的开源软件看到任何“开放洗涤”。

Sobrier强调的潜在陷阱之一是“开放洗涤”越来越普遍的做法,组织声称是透明度,施加了限制。

“由于云提供商提供了开源项目的付费版本(例如数据库),因此我们看到了许多开源项目的变化:源代码仍然开放,但它们增加了许多商业限制。”

Sobrier警告说:“仪表和其他开放式供应商LLM可以沿着这条道路保持其竞争优势:相对于模型的开放性更高,但不允许竞争对手使用它们。”

DeepSeek试图提高AI的透明度

DeepSeek是人工智能行业中不断增长的虽然有争议的参与者之一,它采取了措施解决其中的一些问题,使他的模型的一部分并编码开源。评估了此步骤,以提高透明度,确保安全性。

“ DeepSeek已经发布了模型及其作为开源的重量,” Andrew Stephel说。 “下一步将在其放置的服务方面提供更大的透明度,并可以使他们在生产中建立和启动这些模型方面的知名度。”

Stiefel说,这种透明度具有显着优势。 “这将有助于社区通过安全风险以及个人和组织来检查其系统,以管理自己的生产中的DeepSeek版本。”

除了安全性外,DeepSeek还提供了有关如何管理AI基础设施的路线图。

“从透明的一边,我们将看到DeepSeek如何控制其放置的服务。这将有助于解决安全问题,因为他们被发现使他们的一些Clickhouse数据库无抵押。

Stiiefel强调,使用Docker,Kubernetes(K8S)和其他基础架构配置等工具的DeepSeek练习可以扩展初创企业和恋人的可能性,以创建相似的托管标本。

带有开源代码的AI现在很热

透明度的DeepSeek倡议与具有开源的AI更广泛的趋势。 IDC报告显示,与其生成人工智能项目(Genai)的商业替代品相比,有60%的组织选择具有开源的人工智能模型。

对Endor Labs的研究还表明,该应用程序平均使用七到二十个开源模型。推理很清楚:使用最佳模型来完成特定任务和API成本控制。

斯蒂芬说:“截至2月7日,Endor Labs发现,从原始的DeepSeek R1型号中培训或蒸馏了3500多个型号。” “这显示了具有开源的AI模型中的能量,以及为什么安全命令应该同时了解线路线及其潜在风险。”

对于Sobrier来说,通过评估其依赖性的需求增强了对AI的日益接受。

“我们需要将AI模型视为我们软件依赖的主要依赖性。公司应确保法律允许他们使用这些模型,但在运营风险和供应链的风险方面,它们可以安全使用。

他强调,任何风险都可以适用于培训数据:“他们应该确保用于LLM培训的数据集不会被毒害或机密个人信息。”

创建一种系统的人工智能模型风险的方法

随着使用开源的AI的加速加速,风险管理变得越来越重要。 Stiiefel概述了一种系统的方法,重点是三个关键步骤:

  1. 开放: 查找您组织当前正在使用的人工智能模型。
  2. 年级: 查看这些模型的潜在风险,包括安全问题和操作问题。
  3. 回答: 安装并提供围栏,以确保模型的安全实施。

Stifel说:“关键是要在提供创新和风险管理之间找到适当的平衡。” “我们需要为实验提供Latitude软件的命令,但是我们必须完全可见。安全团队需要对行动的理解。”

索布里尔还认为,社区应为安全创建和采用人工智能模型开发高级实践。一般方法对于在安全,质量,操作风险和开放性等参数中评估AI模型是必要的。

除了透明度:AI负责任的未来的措施

为了确保AI负责任的增长,该行业必须接受多个向量有效的控制:

  • SaaS型号: 保护位置模型的使用员工的使用。
  • API集成: 引入第三方API的开发人员,例如在应用程序中使用DeepSeek,使用OpenAI集成等工具,只能使用两行代码切换部署。
  • 开源模型: 开发人员使用社区构建的模型,或从DeepSeek等公司支持的现有资金中创建自己的模型。

面对AI的快速进步,Sobrier警告了自满。他建议:“社区应该为开发安全和开放的人工智能模型创造最佳实践,以及通过安全,质量,操作风险和开放性评估它们的方法。”

正如Stiefel简要概括的那样:“考虑几个向量之间的安全性,并为每个媒介实施适当的控件。”

参见: AI在2025年:特别控制的模型,人类整合等等

想进一步了解人工智能和行业领导者的大数据吗? 检查在阿姆斯特丹,加利福尼亚和伦敦举行的AI和大数据博览会。全面的活动以及其他领先活动,包括智力自动化会议,Blockx,一周的数字化转型和网络安全以及云博览会。

基于Techforge在此处探索企业技术和网络研讨会的其他事件。

Source link

Scroll to Top