Anpropic推出了旨在为美国国家安全客户的Claude AI模型的用户集合。该公告是在机密状态环境中使用AI的潜在里程碑。
Claude Gov模型已经由在美国最高国家安全级别工作的机构部署,并且访问受到此类机密媒体工作的机构的限制。
Anpropic说,这些政府Claude模型来自与州客户的广泛合作来解决实际的经营要求。尽管这些模型是为了使用国家安全,但它声称这些模型已经通过了与其投资组合中其他Claude模型相同的安全测试。
AI的专业功能用于国家安全
专业模型为公共操作的几个重要领域提供了改进的指标。他们配备了改进的机密材料处理,而AI拒绝与机密信息进行交互的情况很少,这在安全媒体中很普遍。
进一步的改进包括在情报和防御环境框架内对文档的最佳理解,对国家安全操作重要的语言的高级培训以及对复杂网络安全数据的出色解释,以分析情报。
尽管如此,这一宣布是在正在进行的有关美国人工智能监管的辩论的背景下。 Atria Dario Amodea的总董事最近对拟议的立法表示关注,该立法将对AI的州法规进行十年的冻结。
创新与法规的平衡
在本周在《纽约时报》上发表的来宾论文中,Amodei为透明规则而效力,而不是规范暂停。他详细谈到了内部评估,这些评估揭示了现代AI模型(包括副本)中的行为,如果最新的Anpropic模型威胁说,如果没有取消关闭计划,则可能会暴露用户的个人电子邮件。
Amodei将AI安全性的测试与鸡隧道的测试进行了针对旨在检测缺陷的飞机的测试,强调安全命令应积极检测并阻止风险。
人类学将自己定位为AI负责任发展的捍卫者。根据负责任的规模策略,公司已经分享了有关测试方法的详细信息,打击风险的步骤和释放标准实践的Amodei认为,它们应该在整个行业中成为标准。
它假设行业中类似实践的形式化将使公众和立法者能够控制能力的改善,并确定是否有必要采取其他规范行动。
AI在国家安全方面的后果
在国家安全背景下,高级模型的部署提出了有关AI在智能,战略规划和国防运营收集中的作用的重要问题。
Amodei表示支持对先进芯片的出口控制和军事采用受信任的系统来对抗中国等竞争对手,这表明对人为AI技术的地缘政治后果的认识。
Claude Gov模型可以有可能为许多国家安全应用提供,从战略规划和运营支持到情报和威胁评估的分析 – 都在宣布拟人化承诺对AI负责任发展的框架内。
规范景观
随着拟人化部署这些专业模型供公众使用,AI的更广泛的监管环境仍在流中。参议院目前正在考虑一种可以在州一级对AI规定的暂停的语言,并且计划在根据更广泛的技术措施进行投票之前进行听证。
Amodei建议,各州可以采用狭窄的披露规则,这些规则被推迟在未来的联邦结构中,该条款具有优势,最终以前克服了国家维持统一性的措施,而无需停止最接近的地方行动。
这种方法将在使用全面的国家标准时立即获得监管保护。
由于这些技术变得更加深入地融入了国家安全的运营中,因此安全,监督和适当使用的问题将在政治讨论和公开辩论的最前沿。
对于拟人化的任务,它将保持其对AI负责任发展的承诺,以满足国家客户对重要应用程序(例如国家安全)的专业需求。
(提供的图像:ANTROP)
参见: reddit适合拟人刮擦

想进一步了解人工智能和行业领导者的大数据吗? 检查在阿姆斯特丹,加利福尼亚和伦敦举行的AI和大数据博览会。全面的活动以及其他领先活动,包括智力自动化会议,Blockx,一周的数字化转型和网络安全以及云博览会。
基于Techforge在此处探索企业技术和网络研讨会的其他事件。