Дискуссия по ИИ с открытым исходным кодом: почему селективная прозрачность представляет большой риск


Присоединяйтесь к нашим ежедневным и еженедельным информационным бюллетеням для последних обновлений и эксклюзивного контента в индустрии AI-лидирования. Узнать больше


В то время как технические гиганты объявляют, что их издание AI открыты – и даже поместили слово в их именах – когда -то коварный термин «открытый исходный код» ворвался в современного духа. В это ненадежное время, в котором недоразумение одной компании могло вернуть комфорт общественности с ИИ за десять или более, концепции открытости и прозрачности носят случайным образом, а иногда и нечестно, чтобы разводить веру.

В то же время, когда новая администрация Белого дома делает более легкий доступ к техническому регулированию TE, боевые линии были вытянуты в инновации против регулирования и предсказывали ужасные последствия, если «неправильные» побочные победы.

Тем не менее, есть третий способ, протестированный и протестированный другими волнами технологических изменений. В принципах открытости и прозрачности истинное сотрудничество с открытым исходным кодом открывает более быстрые темпы инноваций, даже если оно позволяет отрасли разрабатывать беспристрастные, этические и полезные и полезные для общества.

Понимание силы истинного сотрудничества с открытым исходным кодом

Введите просто, программы с открытым исходным кодом свободно доступны исходные коды, которые видны, модифицируют, разделяют, принимают и обмениваются коммерческими и некоммерческими целями, и исторически, они были монументальными в инновациях для разведения. Например, открытые предложения Linux, Apache, MySQL и PHP развязали Интернет, как мы его знаем.

Теперь, демократизируя доступ к моделям искусственного интеллекта, данным, параметрам и инструментам с открытым исходным искусством, сообщество может снова выпустить более быстрое инновации вместо того, чтобы постоянно воссоздать на колесо, так и в том, что IBM-исследование в 2400 ИТ-решениях выявило растущий интерес для использования инструментов ИИ с открытым исходным исходным исходным исходным исходным исходным исходным исходным исходным исходным искусством для управления ROI. Хотя более быстрое развитие и инновации были на вершине списка, когда речь заходит о определении ROI в ИИ, исследование также подтвердило, что принятие открытых решений может быть связано с более высокой финансовой осуществлением.

Вместо краткосрочных выгод, которые предпочитают меньше компаний, ИИ с открытым исходным кодом приглашает создание более разнообразных и адаптированных приложений через отрасли и области, которые в противном случае не могут иметь ресурсы для проприетарных моделей.

Возможно, настолько важна, что прозрачность открытого исходного кода обеспечивает независимую проверку и аудит поведения и этики систем ИИ – и когда мы используем существующий интерес и привод масс, они найдут проблемы и ошибки, как это было сделано с отказом 5b.

В этом случае толпа укрепила более 1000 URL-адресов, содержащих контролируемые сексуальные насилия над детьми в данных, которые питают щедрые модели ИИ, такие как стабильное распространение и середина года, которые производят изображения из текстовых и изображений и являются фундаментальными во многих онлайн-видео и программах.

В то время как этот вывод вызвал нарушение, если эта база данных была закрыта, как и в случае с Sora или Gemini of Openai, последствия могут быть намного хуже. Трудно представить счетчик, который возникнет, если бы самые захватывающие инструменты создания видео из ИИ начали критический контент.

К счастью, открытый характер базы данных LAION 5B позволил сообществу побудить своих создателей сотрудничать с отраслевыми охранниками, чтобы найти ремонт и выпуск Re-Lanon 5B, который свидетельствует о том, почему прозрачность истинного искусственного интеллекта с открытым исходным кодом не только приносит пользу пользователям, но и индустрии и создателям, которые работают, чтобы укрепить доверие с потребителями и широкой публикой.

Опасность открытого исходного кода в ИИ

В то время как только исходный код относительно легко обмениваться, системы ИИ гораздо сложнее, чем программное обеспечение. Они зависят от исходного кода системы, а также от параметров модели, базы данных, гиперпараметров, обучения исходного кода, генерации случайных чисел и программных рамках -и каждый из этих компонентов должен работать с концертом для системы ИИ для работы.

В разгар озабоченности безопасности в ИИ это стало привычкой, что освобождение является открытым или открытым исходным кодом. Однако для того, чтобы это было точным, новаторы должны делиться всеми кусочками головоломки, чтобы другие игроки могли полностью понимать, анализировать и оценивать свойства системы ИИ, чтобы окончательно воспроизводить, изменять и расширять свои навыки.

Meta, например, ранжировала Lama 3.1 405b как «первая модель AI с открытым исходным кодом на переднем уровне», но только публично разделяла предварительно обученные параметры системы или веса, а также некоторое программное обеспечение. Хотя это позволяет пользователям загружать и использовать модель по желанию, ключевые компоненты, такие как исходный код и база данных, остаются закрытыми -что становится более критичным в результате мета -вводящего введения профилей ИИ -бота в эфире, даже когда он перестает контролировать контент для точности.

Чтобы быть справедливым, то, что разделено, безусловно, вносит свой вклад в сообщество. Открытые тяжелые модели предлагают гибкость, доступность, инновации и уровень прозрачности. Решение DeepSeek открыть источники своих весов, опубликовать свои технические отчеты для R1 и сделать его свободным использованием, например, позволило сообществу изучать и контролировать свою методологию и втянуть ее в свою работу.

Тем не менее, это неправильно понимает, чтобы вызвать открытый исходный код системы ИИ, когда никто не может смотреть, экспериментировать и понять каждый кусок головоломки, которая его создала.

Это неправильное направление делает более чем угроза общественной верой. Вместо того, чтобы дать возможность всем в сообществе сотрудничать, создавать и продвигать такие модели, как Lama X, это заставляет инновантов использовать такие системы искусственного интеллекта, чтобы слепо доверять компонентам, которые не обмениваются.

Завершая вызов перед нами

Поскольку самостоятельные автомобили ведут к улицам в крупных городах, а системы ИИ помогают хирургам в операционной, мы только изначально позволили этой технологии взять пресловутое колесо. Обещание огромно, как и потенциал для ошибок, поэтому нам нужны новые меры о том, что значит быть надежным в мире ИИ.

Даже несмотря на то, что REUEUL и коллеги из Стэнфордского университета недавно пытались создать новую структуру для ссылок на ИИ, используемые для оценки того, насколько хорошо работают модели, например, рецензирующая практика, которой отрасль и общественность все еще недостаточно. Бенчмаркинг не может рассчитывать тот факт, что базы данных в основе учебных систем постоянно меняются и что соответствующие показатели варьируются от использования для использования случая. В поле все еще не хватает богатого математического языка, чтобы описать навыки и ограничения в современном ИИ.

Совместное использование целых систем ИИ для обеспечения открытости и прозрачности вместо того, чтобы полагаться на недостаточные обзоры и оплачивая липкие услуги в мундштуки, мы можем способствовать большему сотрудничеству и развивать инновации с безопасным и этически развитым ИИ.

В то время как настоящий ИИ с открытым исходным кодом предлагает проверенную основу для достижения этих целей, в отрасли отсутствуют прозрачность. Без жирного лидерства и сотрудничества от технологических компаний до самоуправления, этот информационный пробел может повредить общественному доверию и принятию. Охватывание открытости, прозрачности и открытого исходного кода – не просто сильная бизнес -модель – речь идет о выборе между ИИ, который приносит пользу всем, а не лишь немногим.

Джейсон Корсо -профессор Мичиганского университета и соучредитель Voxel51.


Source link
Scroll to Top