Не торопимся ли мы с внедрением искусственного интеллекта в лаборатории?

Не торопимся ли мы с внедрением искусственного интеллекта в лаборатории?

ХИМИЧЕСКИЙ ЭКСПЕРТ

Появление самоуправляемых лабораторий и автоматизированных экспериментов сулит увеличение производительности и числа открытий в химии по сравнению с тем, чего может достичь человек в одиночку. Однако из-за "черного ящика" ИИ мы не можем понять, как и почему системы глубокого обучения принимают свои решения, поэтому сложно определить, как их лучше использовать для оптимизации научных исследований и можно ли вообще доверять их результатам.


В ноябре 2023 года в журнале Nature была опубликована статья, в которой сообщалось об открытии более 40 новых материалов с помощью автономной лаборатории, управляемой искусственным интеллектом. Однако исследователи быстро поставили под сомнение результаты работы автономной лаборатории. В январе последовал препринт, в котором сообщалось о "систематических ошибках на протяжении всего пути", вызванных проблемами как в вычислительной, так и в экспериментальной работе.


Один из авторов критики, Роберт Палгрейв, химик-материаловед из Университетского колледжа Лондона (Великобритания), заявил, что, хотя ИИ добился "больших успехов", существует "некоторая тенденция" считать, что ИИ должен изменить все "прямо сейчас", а на самом деле не стоит ожидать, что все изменится в одночасье.

Источник: © Мэрилин Сарджент/Лаборатория Беркли

Автономная роботизированная система A-Lab, управляемая искусственным интеллектом, как утверждается, создала более 40 новых материалов. Однако другие исследователи поставили это под сомнение и пришли к выводу, что эти соединения уже были известны.

Милад Аболхасани, возглавляющий исследовательскую группу по изучению стратегий проточной химии с помощью автономных роботов в Университете штата Северная Каролина (США), говорит, что "ажиотаж" в отношении ИИ разросся слишком сильно и настало время сделать паузу. Мы, как люди, прекрасно представляем себе, каким будет будущее и каковы его возможности, но... нужно двигаться шаг за шагом и следить за тем, чтобы все делалось правильно".


Риски, связанные с использованием искусственного интеллекта

Для многих привлекательность ИИ обусловлена необходимостью повысить производительность труда. "Будь то более быстрый просмотр литературы, более быстрое проведение экспериментов, более быстрое получение данных - результаты ИИ в плане производительности очень привлекательны", - объясняет Лиза Мессери, антрополог из Йельского университета в США. И это связано с институциональным давлением, требующим публикации, проведения исследований, чтобы вы могли делать все остальные вещи, которые вам нужно делать".


Мессери говорит, что ИИ также таит в себе заманчивую перспективу "обещания объективности" - идею о том, что ученые всегда стремятся найти инструменты, которые, по их мнению, являются надежными и ограничивают человеческие предубеждения и вмешательства. Хотя ИИ действительно может обеспечить эти преимущества для некоторых исследований, существуют риски, связанные с чрезмерным полаганием на него, и нам необходимо помнить о важности привлечения разнообразных мыслителей к производству научных знаний. И, конечно, модели ИИ хороши лишь настолько, насколько хороши данные, на которых они строятся.


По мнению Мессери и ее коллеги Молли Крокетт, нейробиолога из Принстонского университета (США), которая стала одним из авторов статьи в Nature, риски делятся на три категории, и все они возникают из-за "иллюзии понимания" - явления, хорошо задокументированного в когнитивных науках и связанного с нашей склонностью переоценивать, насколько хорошо мы что-то понимаем.


Первый риск возникает, когда отдельный ученый пытается решить проблему с помощью инструмента ИИ, и поскольку инструмент ИИ работает хорошо, ученый ошибочно полагает, что он понимает мир лучше, чем на самом деле, - объясняет Крокетт.


Вторые две проблемы касаются ученых как коллектива и непреднамеренного создания научной "монокультуры". Если вы сажаете только один вид культур в монокультуре, это очень эффективно и продуктивно, но это также делает культуру гораздо более уязвимой для болезней и вредителей", - объясняет Крокетт.


Нас беспокоят два вида монокультур", - продолжает она. Первая - монокультура "знания" - мы можем использовать множество различных подходов к решению проблем в науке, и ИИ - один из них... но из-за роста производительности, который обещают инструменты ИИ, все спешат начать заниматься наукой, которая хорошо подходит для инструментов ИИ... [а] вопросы, которые менее хорошо подходят для инструментов ИИ, уходят на второй план".


Они также обеспокоены формированием монокультуры "знатоков", когда вместо того, чтобы использовать знания целой команды, отличающейся дисциплинарным и когнитивным разнообразием, применяются только инструменты ИИ. Мы знаем, что очень полезно иметь междисциплинарные команды, если вы решаете сложную проблему, - говорит Крокетт.


Прекрасно, если в вашей команде есть люди с разным опытом или разными навыками... В эпоху, когда мы все больше избегаем общения с людьми в пользу цифрового взаимодействия... может возникнуть соблазн заменить сотрудников инструментами искусственного интеллекта... [но] это очень опасная практика, потому что именно в тех случаях, когда вам не хватает опыта, вы будете менее способны определить, действительно ли результаты, полученные искусственным интеллектом, являются достоверными".


Каковы решения?

Вопрос в том, как мы можем адаптировать инструменты, основанные на ИИ, такие как беспилотные лаборатории, для решения конкретных исследовательских задач? Аболхасани и его коллега из Университета штата NC, Аманда Волк, недавно определили семь показателей эффективности, чтобы помочь "раскрыть" мощь беспилотных лабораторий - он был потрясен, обнаружив, что в опубликованной литературе их еще не существует.


Метрики разработаны исходя из того, что мы хотим, чтобы агент машинного обучения в беспилотных лабораториях был как можно более мощным, чтобы помочь нам принимать более обоснованные решения, - говорит он. Однако если данные, на которых обучается лаборатория, недостаточно высокого качества, то и решения, принимаемые лабораторией, не будут полезными, добавляет он.


Среди описанных ими показателей производительности - степень автономности, которая определяет уровень влияния человека на систему; срок службы; производительность; точность эксперимента; расход материалов; доступное пространство параметров, которое представляет собой диапазон экспериментальных параметров, к которым можно получить доступ; и эффективность оптимизации, или общая производительность системы.


Когда мы провели поиск литературы, мы были удивлены тем, что в 95 % статей о беспилотных лабораториях не сообщалось, как долго они могли эксплуатировать платформу до того, как она сломалась [или] до того, как им пришлось что-то заправлять", - объясняет он. Я хотел бы знать, сколько экспериментов может проводить эта беспилотная лаборатория в час, в день... какова точность выполнения экспериментов... насколько я могу доверять данным, которые вы получаете?


Многие беспилотные лаборатории даже не упоминают об общем расходе химикатов на эксперимент и оптимизацию, которые они проводили", - добавляет он.


Аболхасани и Фолк говорят, что, четко сообщая эти показатели, можно направить исследования в более "продуктивные и перспективные" технологические области, и что без тщательной оценки беспилотных лабораторий область не будет обладать необходимой информацией для руководства будущими исследованиями.


Однако для оптимизации роли, которую ИИ может играть в таких сложных областях, как синтетическая химия, потребуется нечто большее, чем усовершенствованная категоризация и большие объемы данных. В своей недавней статье в Journal of the American Chemical Society специалист по цифровой химии Феликс Штрит-Кальтофф, а также такие пионеры ИИ в области химии, как Алан Аспуру-Гузик, Франк Глориус и Бартош Гжибовски, утверждают, что разработчикам алгоритмов необходимо наладить более тесные связи с химиками-синтетиками, чтобы использовать их специальные знания.


Они утверждают, что такое сотрудничество будет взаимовыгодным, поскольку позволит химикам-синтетикам разрабатывать модели ИИ для синтетических проблем, представляющих особый интерес, "трансплантируя ноу-хау ИИ в синтетическое соLooking to the future


For Abolhasani, the success of autonomous experimentation in chemistry will ultimately come down to trust. ‘Autonomous experimentation is a tool that can help scientists … [but] in order to do that the hardware needs to be reproducible and trustworthy,’ he explains.общество".


Взгляд в будущее

По мнению Аболхасани, успех автономных экспериментов в химии в конечном итоге будет зависеть от доверия. Автономные эксперименты - это инструмент, который может помочь ученым... [но] для этого методы должны быть воспроизводимыми и заслуживающими доверия", - объясняет он.


А чтобы укрепить это доверие, необходимо снизить барьеры входа, чтобы дать возможность большему числу химиков использовать беспилотные лаборатории в своей работе. Она должна быть максимально интуитивной, чтобы химики, не имеющие опыта автономных экспериментов, могли взаимодействовать с беспилотными лабораториями", - объясняет он.


Кроме того, по его словам, лучшие беспилотные лаборатории в настоящее время очень дороги, поэтому необходимо разработать более дешевые варианты, сохранив при этом их надежность и воспроизводимость. Это необходимо для сообщества, чтобы расширить базу пользователей", - говорит он.


Когда [беспилотные лаборатории] станут основным инструментом в химии, они помогут нам оцифровать химию и материаловедение и обеспечить доступ к высококачественным экспериментальным данным... Но сила этих экспертных данных заключается в том, что они воспроизводимы, надежны и стандартизированы для использования всеми".


Мессери считает, что ИИ будет наиболее полезен, когда он будет рассматриваться только как дополнение к человеку, а не как его замена. Для этого, по ее словам, сообществу нужно будет более тщательно подходить к тому, когда и где его использовать. Я уверена, что творческие ученые придумают, в каких случаях это будет ответственно и продуктивно реализовано", - добавляет она.


Крокетт предлагает ученым рассматривать инструменты ИИ как еще один подход к анализу данных - тот, который отличается от человеческого разума. Если мы будем уважать это... тогда мы сможем укрепить наш подход, включив эти инструменты в качестве еще одного разнообразного узла в сети", - говорит она.


Крокетт считает, что этот момент также может послужить "тревожным звонком" для институционального давления, которое может подталкивать ученых к использованию ИИ для повышения "производительности без обязательного углубления понимания". Но эта проблема гораздо шире и требует широкого институционального признания, прежде чем будет найдено какое-либо решение".


Автор: Джулия Робинсон


Источник

Report Page