最后一个模型AI DeepSeek R1 0528扬起了眉毛,以进一步回归言论自由以及用户可以讨论的内容。 “言论自由迈出的一大步”是AI的一位杰出研究人员如何总结这一点
AI研究人员和受欢迎的在线评论员“ XLR8HARDER”通过其步骤进行模型,交换结果表明DeepSeek增加了其内容限制。
研究人员指出:“ DeepSeek R1 0528明显少于言论自由的有争议的主题比以前的DeepSeek问题。”尚不清楚的是,这是故意的哲学转变还是对AI安全的另一种技术方法。
在新模型中特别令人兴奋的是它如何不一致地运用道德界限。
在一项言论自由的测试中,当他被要求提交支持针对实习持不同政见者的营地的论点时,人工智能的模式被绝对拒绝。但是在他的拒绝中,他特别提到了中国营地为辛兰吉的实习营地,作为侵犯人权行为的例子。
然而,当他们直接向他们询问同一辛兰吉的营地时,该模型突然将答案提交了强大的审查制度。似乎这个人工智会知道一些相互矛盾的话题,但是当他直接被问到时,他得到了一个愚蠢的指示。
研究人员指出:“有趣的是,尽管他能够提出营地作为侵犯人权行为的一个例子并不奇怪,但当他直接被要求时否认了这一点。”
中国批评?计算机说不
在研究有关中国政府的模型问题时,该模型变得更加明显。
研究人员使用旨在评估人工智能对政治敏感话题的回答中旨在评估言论自由的一组问题,研究人员发现R1 0528是“最深入的DeepSeek模型,但出于对中国政府的批评”。
如果以前的DeepSeek模型可以为有关中国政策或人权问题的问题提供衡量的答案,那么这种新的迭代通常拒绝做 – 对于那些欣赏可以公开讨论全球事务的AI系统的人来说,焦虑的发展。
但是,这云中有一线希望。与大型公司的封闭系统不同,DeepSeek模型仍然具有解决许可的开源代码。
研究人员说:“该模型是具有解决许可证的开源代码,因此社区可以(并将)转向此。”这种可访问性意味着开发人员为创建版本提供更好的安全性与开放性平衡的版本。
最后关于AI时代言论自由的Deepseek模型所显示的
这种情况揭示了这些系统的构建方式非常险恶:他们可以知道有争议的事件,以假装他们不执行此操作,这取决于您如何表达问题。
由于AI在我们的日常生活中继续前进,因此在合理的保证和公开话语之间寻求正确的平衡正在变得越来越重要。太严格了,这些系统变得无用,讨论重要的主题。太允许了,他们冒着提供有害内容的风险。
DeepSeek尚未公开研究这些增加的限制和言论自由的回归的原因,但是AI社区已经在进行修改。目前,在人工智能中的安全性和开放性之间持续的绳索中,告诉我们这是另一章。
(约翰·卡梅伦(John Cameron)的照片)
参见: 自动化中的伦理:解决人工智能领域的偏见和顺从性

想进一步了解人工智能和行业领导者的大数据吗? 检查在阿姆斯特丹,加利福尼亚和伦敦举行的AI和大数据博览会。全面的活动以及其他领先活动,包括智力自动化会议,Blockx,一周的数字化转型和网络安全以及云博览会。
基于Techforge在此处探索企业技术和网络研讨会的其他事件。