Как наши принципы помогли определить выпуск Alphafold

Компания

Опубликовано
Авторы

Корай Кавуккуоглу, Пушмет Кохли, Лила Ибрагим, Дон Блоксвич, Саша Браун

Размышления и уроки по обмену одним из наших самых больших прорывов с миром

Получение нашей миссии решения разведки по продвижению науки и принести пользу человечеству на практике приходит с важнейшими обязанностями. Чтобы помочь создать положительное влияние для общества, мы должны активно оценить этические последствия наших исследований и его применения строго и тщательно. Мы также знаем, что каждая новая технология имеет потенциал для вреда, и мы серьезно относимся к долгосрочным и краткосрочным рискам. Мы с самого начала создали наши фонды на первом обращении с самого начала, особенно на ответственное управление, исследования и воздействие.

Это начинается с установления четких принципов, которые помогают реализовать преимущества искусственного интеллекта (ИИ), смягчая его риски и потенциальные негативные результаты. Ответственно пионеры-это коллективное усилие, поэтому мы внесли свой вклад во многие стандарты сообщества ИИ, такие как те, которые разработали Google, партнерство по ИИ и ОЭСР (Организация экономического сотрудничества и развития).

Наши принципы эксплуатации стали определять как нашу приверженность приоритетам в широком распространении, а также области исследований и заявлений, которые мы отказываемся. Эти принципы лежали в основе нашего принятия решений с тех пор, как был основан DeepMind, и по -прежнему уточняется по мере изменения ландшафта ИИ и растет. Они предназначены для нашей роли научной компании, основанной на исследованиях и в соответствии с принципами Google AI.

От принципов до практики

Письменные принципы являются лишь частью головоломки – то, как они применяют на практике, является ключевым. Для сложных исследований, проводимых на границах ИИ, это вызывает значительные проблемы: как исследователи могут предсказать потенциальные преимущества и вред, которые могут возникнуть в отдаленном будущем? Как мы можем развить лучшую этическую предвидение с широкого спектра перспектив? И что нужно, чтобы изучить сложные вопросы наряду с научным прогрессом в режиме реального времени, чтобы предотвратить негативные последствия?

Мы потратили много лет, разрабатывая наши собственные навыки и процессы ответственного управления, исследований и воздействия на DeepMind, от создания внутренних наборов инструментов и публикации документов по социотехническим вопросам до поддержки усилий по увеличению обсуждения и предвидения по всей области искусственного интеллекта. Чтобы помочь расширить возможности команд DeepMind ответственно и защищать от вреда от вреда, наш междисциплинарный институциональный комитет по рассмотрению (IRC) собирается каждые две недели, чтобы тщательно оценить проекты, документы и сотрудничество.

Ответственно пионеры – это коллективная мышца, и каждый проект – это возможность укрепить наши совместные навыки и понимание. Мы тщательно разработали наш процесс обзора, чтобы включить вращающихся экспертов из широкого спектра дисциплин, с исследователями машинного обучения, этиками и экспертами по безопасности, сидящими вместе с инженерами, экспертами по безопасности, специалистами по политике и многим другим. Эти разнообразные голоса регулярно выявляют способы расширения преимуществ наших технологий, предполагают, что области исследований и применений изменяются или медленные, а также выделяют проекты, где необходимы дальнейшие внешние консультации.

В то время как мы добились большого прогресса, многие аспекты этой ложки на неизведанной территории. Мы не сделаем это правильно каждый раз и привержены постоянному обучению и итерации. Мы надеемся, что поделиться нашим текущим процессом будет полезно для других, работающих над ответственным ИИ, и поощрять обратную связь по мере того, как мы продолжаем учиться, поэтому мы подробно рассмотрели размышления и уроки из одного из наших самых сложных и полезных проектов: алфафолд. Наша система AL-AI решила 50-летнюю проблему прогнозирования структуры белков-и мы были взволнованы, увидев, что ученые используют его для ускорения прогресса в таких областях, как устойчивость, продовольственная безопасность, открытие лекарств и фундаментальная биология человека с момента ее выпуска в более широкое сообщество в прошлом году.

Сосредоточение внимания на прогнозировании структуры белка

Наша команда исследователей, биологов и инженеров машинного обучения давно рассматривала проблему с распространением белка как замечательную и уникальную возможность для систем обучения ИИ создать значительное влияние. На этой арене существуют стандартные показатели успеха или неудачи, и четкая граница к тому, что должна сделать система ИИ, чтобы помочь ученым в их работе-предсказать трехмерную структуру белка. И, как и во многих биологических системах, складывание белка слишком сложно для всех, чтобы написать правила того, как это работает. Но система ИИ могла бы выучить эти правила для себя.

Другим важным фактором была биеннальная оценка, известная как CASP (критическая оценка прогнозирования структуры белков), которая была основана профессором Джоном Мультом и профессором Криштофом Фиделисом. При каждом собрании CASP предоставляет исключительно надежную оценку прогресса, требующая от участников предсказания структур, которые были обнаружены только в результате экспериментов. Результаты являются отличным катализатором для амбициозных исследований и научного превосходства.

Понимание практических возможностей и рисков

Когда мы готовились к оценке CASP в 2020 году, мы поняли, что Alphafold продемонстрировал большой потенциал для решения проблемы под рукой. Мы потратили значительное время и усилия, анализируя практические последствия, допросы: как мог бы ускорить биологические исследования и применения алфалолда? Каковы могут быть непреднамеренные последствия? И как мы могли бы поделиться своим прогрессом ответственным образом?

Это представляло собой широкий спектр возможностей и рисков, которые следует учитывать, многие из которых были в областях, где у нас не было обязательно высоких знаний. Таким образом, мы искали внешний вклад более 30 полевых лидеров в области биологических исследований, биобезопасности, биоэтики, прав человека и многого другого, с акцентом на разнообразие знаний и опыта.

Многие последовательные темы появлялись на протяжении всего обсуждения:

  1. Балансирование широко распространенной пользы с риском причинения вреда. Мы начали с осторожного мышления о риске случайного или преднамеренного вреда, в том числе то, как альфафолд может взаимодействовать как с будущими достижениями, так и с существующими технологиями. Благодаря нашим дискуссиям с внешними экспертами стало яснее, что AlphaFold не облегчит нанесение вреда белкам, учитывая многие практические барьеры для этого, но будущие достижения необходимо оценить тщательно. Многие эксперты решительно утверждали, что Alphafold, как аванс, относящийся ко многим областям научных исследований, будет иметь наибольшую пользу благодаря бесплатному и широко распространенному доступу.
  2. Точные меры доверия важны для ответственного использования. Экспериментальные биологи объяснили, насколько важно было бы понять и делиться хорошо калиброванными и полезными показателями доверия для каждой части прогнозов Alphafold. Позволяя сигнализировать о том, какие из прогнозов Alphafold, вероятно, будут точными, пользователи могут оценить, когда они могут доверять прогнозу и использовать его в своей работе – и когда они должны использовать альтернативные подходы в своих исследованиях. Первоначально мы рассмотрели вопрос о пропуске прогнозов, для которых Alphafold имел низкую уверенность или высокую прогнозирующую неопределенность, но внешние эксперты, с которыми мы консультировались, доказали, почему это было особенно важно для того, чтобы сохранить эти прогнозы в нашем выпуске, и сообщили нам о наиболее полезных и прозрачных способах представления этого информация.
  3. Справедливое преимущество может означать дополнительную поддержку для недофинансированных полей. У нас было много дискуссий о том, как избежать непреднамеренного растущего различия в научном сообществе. Например, так называемые заброшенные тропические заболевания, которые непропорционально влияют на более бедные части мира, часто получают меньше финансирования исследований, чем они должны. Нас настоятельно рекомендовали расставить приоритеты в практической поддержке и активно рассмотреть партнерские отношения с группами, работающими над этими областями.

Создание нашего подхода к выпуску

Основываясь на приведенном выше входе, IRC одобрил набор алфалолдных выпусков для удовлетворения множества потребностей, включая:

  • Рецензируемые публикации и код с открытым исходным кодом, Включая две статьи в природе, сопровождаемые открытым кодом, чтобы позволить исследователям более легко реализовать и улучшать алфафолд. Вскоре после этого мы добавили Google Colab, позволяющий кому -либо вводить белковую последовательность и получать прогнозируемую структуру в качестве альтернативы самому запуску открытого исходного кода.
  • Основное высвобождение прогнозов структуры белка В партнерстве с EMBL-EBI (Европейский институт биоинформатики EMBL), известным лидером сообщества. Как государственное учреждение, EMBL-EBI позволяет любому искать прогнозы структуры белка так же легко, как поиск в Google. Первоначальный выброс включал прогнозируемые формы для каждого белка в организме человека, и наше последнее обновление включало прогнозируемые структуры почти для всех каталогизированных белков, известных науке. Это составляет более 200 миллионов структур, все это свободно доступно на веб-сайте EMBL-EBI с лицензиями на открытый доступ, сопровождаемые ресурсами поддержки, такими как вебинары при интерпретации этих структур.
  • Создание 3D -визуализаций в базу данных, с заметной маркировкой для областей прогнозирования с высокой достоверностью и с низкой уверенностью, и, как правило, стремиться быть максимально ясным в отношении сильных сторон и ограничений Alphafold в нашей документации. Мы также разработали базу данных, чтобы быть максимально доступной, например, учитывая потребности людей с дефицитом цветового зрения.
  • Формирование более глубоких партнерских отношений с исследовательскими группами, работающими на недофинансированных областях, такие как пренебрежимые заболевания и темы, критические для глобального здоровья. Это включает в себя DNDI (инициатива «Препараты для пренебрегаемого заболевания»), которая продвигает исследования по болезни Шагаса и лейшманиоза, а также Центр ферментов инновации, в котором разрабатывают ферменты, питающие пластиковые, чтобы помочь уменьшить пластиковые отходы в окружающей среде. Наши растущие команды по взаимодействию с общественностью продолжают работать над этими партнерствами, чтобы поддержать большее сотрудничество в будущем.

Как мы опираемся на эту работу

С момента нашего первоначального выпуска сотни тысяч людей из более чем 190 стран посетили базу данных структуры Alphafold Bloten и использовали Alphafold с открытым исходным кодом с момента запуска. Для нас большая честь услышать о том, как предсказания Альфафолда ускорили важные научные усилия и работают над тем, чтобы рассказать некоторые из этих историй с помощью нашего развернутого проекта. До сих пор мы не знаем о каком -либо злоупотреблении или вредах, связанном с алфафоллом, хотя мы продолжаем обращать на это внимание.

В то время как Alphafold был более сложным, чем большинство исследовательских проектов DeepMind, мы используем элементы того, что мы узнали, и включаем это в другие выпуски.

Мы опираемся на эту работу по:

  • Увеличение диапазона ввода от внешних экспертов на каждом этапе процесса и изучение механизмов этики участия в большей масштабе.
  • Расширение нашего понимания ИИ для биологии В целом, помимо любого отдельного проекта или прорыва, чтобы развить более сильное представление о возможностях и рисках с течением времени.
  • Поиск способов расширить наши партнерские отношения с группами в полях, которые недостаточно обслуживаются текущими структурами.

Как и наше исследование, это процесс постоянного обучения. Развитие ИИ для широко распространенного пользы – это общественные усилия, которые простираются далеко за пределы DeepMind.

Мы прилагаем все усилия, чтобы помнить о том, сколько тяжелой работы еще предстоит выполнить в партнерстве с другими – и как мы отвечаем ответственно.

Source link

Scroll to Top