Гэри Маркус обсуждает ограничения и этику ИИ

Гэри Маркус обсуждает ограничения и этику ИИ

Гэри Маркус, видная фигура в искусственном интеллекте, постоянно вызвал дискуссии об этических и технических ограничениях систем ИИ. В эпоху, когда ИИ доминирует в разговорах о инновациях и прогрессе, Маркус обеспечивает осторожность, который предлагает отражение. Действительно ли мы раскрываем весь потенциал искусственного интеллекта? Или мы обходим критические этические соображения в гонке за технологический прогресс? Если эти вопросы заинтриговывают вас, продолжайте читать, когда мы разгадываем мысли Гэри Маркуса о текущих возможностях ИИ, недостатках и этических дилеммах, которые вырисовываются в ее развитии.

Также читайте: Что такое тест Тьюринга?

Кто такой Гэри Маркус и почему его голос имеет значение?

Гэри Маркус – не просто случайный наблюдатель в мире искусственного интеллекта; Он известный когнитивный ученый, автор и предприниматель. Благодаря десятилетиям опыта, рассекая человеческий разум и его вычислительные параллели, Маркус уникально позиционируется для критики ИИ. Его глубокое понимание того, как работает мозг, информирует его скептицизм по поводу многих чрезмерных технологий ИИ сегодня. Как соучредитель Geometric Intelligence, позже приобретенной Uber, Маркус Штраддлс как академические, так и предпринимательские крылья ИИ, что дает ему сбалансированную перспективу, редко встречающуюся в дискуссиях, окружающих эту область.

Перегип искусственного интеллекта: что Маркус хочет, чтобы мы знали

Искусственный интеллект часто изображается как почти непревзойденная технология, которая будет революционизировать каждый аспект человеческой жизни. Тем не менее, согласно Маркусу, такие повествования глубоко вводят в заблуждение. Он подчеркивает, что большая часть современного ИИ зависит от подходов с тяжелыми данными без истинного понимания контекста, логики или рассуждений. Например, в то время как ИИ может распознавать лица, переводить языки и управлять автомобилями в контролируемых условиях, эти системы рушатся, когда сталкиваются с неожиданными или редкими сценариями.

Маркус утверждает, что нынешний основной подход, который в значительной степени зависит от машинного обучения и больших данных, не хватает надежного понимания, необходимого для подлинного интеллекта. Эти системы не «думают», как люди; Они имитируют закономерности, обнаруженные в данных и часто ложатся впечатляющим, когда их просят обобщать знания за пределами их обучения. Переупреждая их возможности, Маркус беспокоится, что мы готовимся к технологической негативной реакции.

Также прочитайте: этика в бизнес-решениях, основанных на искусственном интеллекте

Действительно ли модели крупных языков действительно умны?

Большие языковые модели, такие как серия GPT Openai, стали плакатами детей для прорывов AI. В то время как удивительно хороши в создании текста, эти системы далеко не по -настоящему умными. Маркус оспаривает свою способность рассуждать и понимать, как люди. Он описывает эти системы как «стохастические попугаи», способные повторять закономерности, которые они видели в данных, не понимая их значения.

Например, в то время как языковая модель может генерировать впечатляющие очерки или фрагменты программного кода, она «не имеет здравого смысла», что часто приводит к вопиющим неточностям. Маркус предупреждает от уравнения беглости с пониманием. Тот факт, что ИИ может создать убедительный повествование, не означает, что он понимает мир или может действовать этично в нем.

Этика в ИИ: разговор, который мы не можем игнорировать

Гэри Маркус высказывался о срочной необходимости решать этические проблемы при развертывании ИИ. Быстрые достижения в области алгоритмов и оборудования опередили дискуссии о морали, подотчетности и безопасности. Что происходит, когда системы ИИ принимают решения, которые вредят людям? Как мы возлагаем ответственность, если ни один человек напрямую контролирует результат?

Предвзятость и дискриминация в системах ИИ

Одним из ключевых этических проблем Маркуса является смещение в системах ИИ. Модели машинного обучения обучаются историческим данным, которые часто несут предубеждения общества. Когда эти смещения встроены в алгоритмы, они увековечивают неравенство в различных областях, таких как найм, полицейская деятельность и кредитование.

Например, алгоритм найма, обученный историческим данным, может непреднамеренно отдавать предпочтение кандидатам мужского пола по сравнению с женскими, исключительно потому, что данные обучения отражали прошлые неравенства. Маркус подчеркивает важность строгих проверок, чтобы предотвратить усиление искусственного интеллекта по ИИ.

Также прочитайте: будущие роли для AI Ethics Poards

Риск автономного оружия

Еще одна критическая этическая дилемма Маркус поднимает, – это использование ИИ в военных приложениях. Автономное оружие, основанное на ИИ, может принимать решения о жизни и смерти без вмешательства человека. Это вводит ужасающие возможности, в том числе риск непреднамеренных жертв и этическую дилемму машин, определяющих судьбу человека. По словам Маркуса, отсутствие строгих глобальных правил, касающихся таких приложений, является явным надзором.

Необходимость в гибридных системах ИИ

Несмотря на то, что Маркус не является вокальным скептиком, не анти-АИ. Вместо этого он выступает за более сбалансированный подход, который объединяет лучшее из машинного обучения с символическими рассуждениями, ветвью ИИ, сосредоточенной на понимании мира посредством логических правил и структур. Он утверждает, что эта «гибридная модель» сделает системы искусственного интеллекта более надежными, что позволит им справиться с тонкими и сложными ситуациями с большей надежностью.

Объединение данных и логики

Маркус считает, что включение логики в ИИ может помочь преодолеть некоторые явные ограничения чисто управляемых данными моделей. Например, гибридная система ИИ, оснащенная логическими рамками, может понять причинно-следственные отношения, что позволяет ей принимать лучшие решения и избежать легко предотвратимых ошибок.

Хотя такие подходы могут замедлить быстрое развитие технологий ИИ, Маркус настаивает на том, что этот осторожный путь необходим для обеспечения того, чтобы ИИ работал в интересах человечества, а не против него.

Нормативные меры: строительство ограждений вокруг ИИ

Другая критическая область, на которой Маркус сосредоточен, – это отсутствие эффективных нормативных рамок для ИИ. Благодаря быстрому внедрению этой технологии в разных отраслях он настаивает на важности создания глобальных стандартов для обеспечения ответственности и безопасности.

Прозрачность и аудит

Прозрачность в принятии решений ИИ является одной из основных рекомендаций Маркуса. Он утверждает, что системы, которые мы используем, должны быть проверенными и интерпретируемыми, гарантируя, что они соответствуют этическим руководствам и свободны от вредных уклонов. Учреждения и правительства должны обеспечить соблюдение правил, которые требуют, чтобы компании раскрывали, как работают их системы ИИ и на какие данные они полагаются.

Это не только сделает приложения для ИИ более безопасными, но и способствует общественному доверию к этой технологии.

Также прочитайте: 10 лучших подкастов ИИ и машинного обучения, чтобы прослушать

Поощрение дискуссий с несколькими заинтересованными владельцами

Маркус также призывает к развитию диалога между правительствами, научными кругами, промышленностью и общественностью. Дискуссии с несколькими заинтересованными владельцами могут решить различные проблемы, связанные с ИИ, и создать политику, которые уравновешивают инновации с этикой. Включая различные перспективы, сообщество ИИ может лучше ориентироваться в проблемах, связанных с этой трансформирующей технологией.

Образование: упускаемый из виду аспект развития ИИ

Помимо построения и регулирования ИИ, Маркус решительно выступает за обучение общественности о своих возможностях и ограничениях. Хорошо информированное население может лучше взаимодействовать с обсуждениями ИИ и отталкиваться против вредных практик. Маркус подчеркивает, что понимание ИИ больше не является обязательным для широкой общественности – это важно.

Благодаря образованию люди могут понять нюансы ИИ, признавая как его потенциал, так и его подводные камни. Это осознание является ключом к тому, чтобы привлечь к ответственности корпорации и правительств, позволяя людям ответственно использовать ИИ в своей собственной жизни.

Также прочитайте: Chatgpt-4 против Bard AI

Заглядывая в будущее: чему мы можем научиться у Гэри Маркуса?

Гэри Маркус обеспечивает освежающую перспективу, которая в отличие от часто тонированного розовым взглядом на будущее ИИ. Его критика предназначена не для того, чтобы задержать прогресс, а для обеспечения того, чтобы инновации не были за счет этики, безопасности и благополучия человечества.

Поскольку ИИ продолжает развиваться, предупреждения Маркуса служат напоминанием о том, чтобы осторожно наступить. Построение заслуживающих доверия систем требует нечто большее, чем просто необработанная вычислительная мощность – это требует приверженности справедливости, прозрачности и большему блага. Прислушиваясь к его совету, мы можем направить развитие ИИ к более ярким и ответственному будущему.

Поскольку технологии меняют общество, такие голоса, как Гэри Маркус, гарантируем, что мы остаемся бдительными, вдумчивыми и преднамеренными в том, как мы владеем необычайной силой искусственного интеллекта.

Source link

Scroll to Top