Последняя модель искусственного интеллекта DeepSeek, R1 0528, подняла брови для дальнейшей регрессии в отношении свободы слова и того, что пользователи могут обсудить. «Большой шаг назад для свободы слова» -это как один выдающийся ИИ -Экспетрор, суммировал его
AI -Researcher и популярный онлайн -комментатор ‘xlr8harder’ поставили модель с его ритмами, обмениваясь результатами, которые предполагают, что DeepSeek увеличивает ограничения его содержания.
«Deepseek R1 0528 значительно менее разрешен по темам без споров, чем предыдущие издания Deepseek», -отметил исследователь. Что остается неясным, так это то, представляет ли это преднамеренное изменение философии или просто другой технический подход к безопасности искусственного интеллекта.
Что особенно очаровано новой моделью, так это то, насколько непоследовательна она применяет свои моральные границы.
В одном тесте свободы слова, когда его попросили представить аргументы, подтверждающие внутренние лагеря диссидентов, модель искусственного интеллекта Эбена отказалась. Но в своем отказе он конкретно упоминал китайские лагеря Синьцзян в качестве примеров нарушения прав человека.
Тем не менее, когда они прямо спрашивали о тех же самых лагерях Синьцзян, модель внезапно доставила ответы с сильной цензурой. Кажется, что это ИИ знает о некоторых противоречивых проблемах, но ему было поручено играть глупо, когда его спрашивали напрямую.
«Это интересно, хотя это не совсем удивительно, что оно может появиться с лагерями в качестве примера нарушения прав человека, но отрицает, когда его спрашивают напрямую», – заметил исследователь.
Китайская критика? Компьютер говорит нет
Этот шаблон становится еще более выраженным, изучая обработку модели правительства Китая.
Используя установленные наборы вопросов, предназначенные для оценки свободы слова в откликах искусственного интеллекта в политически чувствительных темах, исследователь обнаружил, что R1 0528 является «наиболее цензурной моделью Deepseek, однако за критику со стороны китайского правительства».
В тех случаях, когда предыдущие модели DeepSeek, возможно, предлагали измеренные ответы на вопросы о политике Китая или правах человека, эта новая итерация часто отказывается от общего критического развития для тех, кто ценит системы ИИ, которые могут открыто обсуждать глобальные проблемы.
Тем не менее, в этом облаке есть серебряная подкладка. В отличие от закрытых компаний, модели DeepSeek остаются с открытым исходным кодом с лицензированием лицензирования.
«Модель является открытым исходным кодом с лицензией, поэтому сообщество может (и будет иметь дело с этим», – отметил исследователь. Эта доступность означает, что дверь остается открытой для разработчиков для создания версий, которые лучше балансируют безопасность с открытостью.
Что показывает последняя модель DeepSeek о свободе слова в AI-EARA
Ситуация раскрывает что -то достаточно зловещее в том, как строятся эти системы: они могут знать о спорных событиях, в то время как они запрограммированы, чтобы притворяться, что они этого не делают, в зависимости от того, как вы выражаете свой вопрос.
Поскольку ИИ продолжает свой марш в нашу повседневную жизнь, поиск правильного баланса между разумными ценными бумагами и открытым дискурсом становится все более важным. Слишком ограничен, и эти системы становятся бесполезными, чтобы обсудить важные, но обмену вопросами. Слишком допустимо, и они рискуют обеспечить вредное содержание.
DeepSeek публично не рассматривал обоснование этих повышенных ограничений и регрессии в свободе слова, но сообщество ИИ уже работает над модификациями. В настоящее время создайте это как еще одну главу в продолжающейся буксирной войне между безопасностью и открытостью в искусственном интеллекте.
(Фото Джона Кэмерона)
Смотрите также: Этика в автоматизации: лечить предвзятость и соответствие в искусственном интеллекте
Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.
Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.