Экс-Сэк претендует на прибыль с нетерпением, предавая безопасность искусственного интеллекта

В отчете «Файлы OpenAI», собравшись с заинтересованным бывшим восстановлением, утверждает, что ведущая в мире лаборатория ИИ выдает безопасность для получения прибыли. То, что началось как благородный стремление, чтобы ИИ служил всем человечеству, теперь содрогается на грани того, чтобы стать просто еще одним корпоративным гигантом, преследуя огромные выгоды, позволяя безопасности и этике в пыли.

Ядром всего является план разорвать оригинальную книгу правил. Когда началось Openai, это дало очень важное обещание: это позволило получить ограничение на то, сколько денег инвесторы могут сделать. Это была юридическая гарантия, что, если им удастся создать изменяющего миру ИИ, огромные преимущества будут поступать в человечество, а не просто горстку миллиардеров. Теперь это обещание уничтожено, по -видимому, чтобы удовлетворить инвесторов, которые хотят неограниченную прибыль.

Для людей, которые построили OpenAI, этот поворот от AI -безопасности напоминает глубокое предательство. «Непрофильная миссия была обещанием поступить правильно, когда ставки поднялись», -говорит бывший штат Кэрролл Уэйнрайт. «Теперь, когда ставки высоки, непреодолимая структура заброшена, что означает, что обещание в конечном итоге было пустым».

Углубить кризис веры

Многие из этих глубоко обеспокоенных голосов отмечают один человек: генеральный директор Сэм Альтман. Беспокойство не нова. Отчеты показывают, что даже со своими предыдущими компаниями, старшие коллеги пытались убрать его за то, что они назвали «вводящим в заблуждение и поведением отины».

То же самое чувство недоверия последовало за ним в Openai. Собственный соучредитель компании, Илья Сатскевер, которая работала с Альтманом в течение многих лет, и с тех пор, как он запустил свой собственный стартап, пришел к крутому выводу: «Я не думаю, что Сэм -парень, который должен иметь палец на кнопке, чтобы действовать». Он чувствовал, что Альтман был нечестным и создал хаос, ужасную комбинацию для кого -то, потенциально заказанного нашим коллективным будущим.

Мира Мурати, бывший технический директор, чувствовал себя одинаково неудобно. «Я не чувствую себя комфортно из -за того, что Сэм, приводящий нас к действию», – сказала она. Она описала ядовитую паттерн, где Альтман рассказывал людям, что они хотели услышать, а затем подрывают их, если они въезжают на его путь. Это предполагает манипулирование тем, что бывший менеджер Openi Таша МакКоули говорит, что «должно быть неприемлемым», когда причастия безопасности ИИ настолько высоки.

Этот кризис доверия имел реальные последствия. Коварные люди говорят, что культура в Openai изменилась, благодаря основной работе ИИ, безопасность, которая преследовала преследование, чтобы выпустить «блестящие продукты». Ян Лейк, который возглавлял команду ответственной за долгосрочную безопасность, сказал, что они «плавают против ветра», изо всех сил пытаясь получить ресурсы, необходимые для проведения своих основных исследований.

Другой бывший сотрудник, Уильям Сондерс, даже дал огромные показания Сенату США, показывая, что в течение длительных периодов безопасность была настолько слабой, что сотни инженеров могли украсть самый продвинутый ИИ компании, включая GPT-4.

Отчаянная просьба приоритет AI -безопасности на Openai

Но те, кто ушел, не только уходят. Они продемонстрировали дорожную страницу, чтобы вытащить Openai от края, последняя яма, чтобы спасти оригинальную миссию.

Они вызывают непреодолимое сердце компании, чтобы снова получить реальную власть, с вето на железной платье на решения о безопасности. Они требуют четкого, честного лидерства, которое включает в себя новый и тщательный обзор поведения Сэма Альтмана.

Они хотят настоящего, независимого обзора, поэтому OpenAI не может просто отметить свою собственную домашнюю работу в области безопасности искусственного интеллекта. И они выступают за культуру, в которой люди могут говорить о своих проблемах, не опасаясь своей работы или сбережений – место с реальной защитой для информаторов.

Наконец, они настаивают на том, что OpenAI должен оставаться в своем первоначальном финансовом обещании: прибыльные ограничения должны оставаться. Цель должна быть общественная выгода, а не неограниченное частное богатство.

Это не только внутренняя драма в компании Силиконовой долины. Openai строит технологию, которая может реконструировать наш мир так, как мы едва можем представить. Вопрос о том, что его бывшие сотрудники заставляют нас всех задать, прост, но глубокий: какому мы доверяем, чтобы построить наше будущее?

Как бы бывший член правления Хелен Тонер предупредил о своем собственном опыте, «внутренние охранники хрупкие, когда деньги находятся в линии».

Прямо сейчас люди, которые знают лучше всего, говорят нам, что эти охранники вообще не сломались.

Смотрите также: AI -Adoption созревает, но остаются препятствия для развертывания

Вы хотите узнать больше об искусственном интеллекте и больших данных промышленными лидерами? Посмотреть AI & Big Data Expo, проходящую в Амстердаме, Калифорнии и Лондоне. Комплексное мероприятие связано с другими основными событиями, включая Smart Automatic Conference, Blockx, неделю цифровой трансформации и кибербезопасность и Cloud Expo.

Исследуйте другие предстоящие корпоративные технологические мероприятия и веб -страницы, управляемые Techforge здесь.

Source link

Scroll to Top