To AI or not to AI? Искусственный интеллект в исследованиях: благо или вред
Зачем мы такие?Искусственный интеллект стремительными шагами занимает все более значимую роль в нашей повседневной жизни — начиная от сервисов подбора музыки и фильмов на досуге и заканчивая помощью в выполнении рабочих обязанностей. С ростом популярности и уровня внедрения AI разгораются все более жаркие споры на эту тему в разных сферах, и наука также не стала исключением. В этом лонгриде мы собрали обзор нескольких свежих и актуальных научных статей на эту тему. Кстати, к вычитке ошибок в этом тексте символично привлекли GPT-4. :)
Статья в Nature “Приводит ли искусственный интеллект к кризису воспроизводимости в науке?”
В конце 2020 года, в разгар пандемии COVID-19, когда тест-наборы на вирус были дефицитны в некоторых странах, возникла идея использования уже широко распространенной медицинской техники — рентгена грудной клетки — для диагностики инфекции. Хотя человеческий глаз не может надежно различать зараженных и не зараженных людей, команда из Индии сообщила, что искусственный интеллект (ИИ) может это делать, используя машинное обучение для анализа набора рентгеновских снимков. Эта работа была процитирована более 900 раз.
Однако в сентябре следующего года компьютерные ученые из Канзасского государственного университета обучили алгоритм машинного обучения на тех же изображениях, но использовали только пустые фоновые участки, не показывающие частей тела. Их ИИ все равно мог выделить случаи COVID-19 с вероятностью, значительно превышающей случайность. Проблема заключалась в том, что в фонах медицинских изображений набора данных были постоянные различия. Система ИИ могла зацепиться за эти артефакты для успешной диагностики, не изучая никаких клинически значимых особенностей, что делало ее бесполезной с медицинской точки зрения. Дальнейший обзор в 2021 году 62 исследований, использовавших машинное обучение для диагностики COVID-19 по рентгеновским снимкам грудной клетки или компьютерной томографии, показал, что ни одна из моделей ИИ не была клинически полезной из-за методологических недостатков или предвзятостей в наборах изображений.
Компьютерные ученые из Принстонского университета сообщили, что проблема утечки данных привела к проблемам воспроизводимости в 17 исследуемых областях, затрагивая сотни работ. Они утверждают, что наивное использование ИИ приводит к кризису воспроизводимости.
Искусственный интеллект и машинное обучение являются мощными инструментами для выявления закономерностей в данных, но одновременно вызывают опасения, что неосведомленное использование программного обеспечения ИИ приводит к потоку работ с утверждениями, которые нельзя воспроизвести или которые являются ошибочными или бесполезными на практике.
Многие аргументируют, что исследовательские работы, использующие ИИ, должны делать свои методы и данные полностью открытыми. Однако даже с учетом выполнения этих рекомендаций проблема воспроизводимости и точности результатов, получаемых с помощью ИИ, остается актуальной, а культурные нормы в отношении представления и отчетности по данным требуют изменений.
Статья во Frontiers об ИИ и онлайн-опросах
Исследование оценивало, насколько хорошо большие языковые модели (LLM), такие как ChatGPT, могут создавать тексты, внешне неотличимые от текстов, написанных человеком, в контексте проведения онлайн-опросов. Причем зачастую сгенерированные ИИ тексты настолько хороши, что могут вводить в заблуждение ученых. Основной целью исследователей было выяснить, способны ли люди и автоматические системы обнаружения ИИ различать AI-генерируемые тексты от текстов, созданных человеком, в контексте онлайн-опросов.
Одним из инструментов, использованных в исследовании, был Undetectable.AI, который презентует себя как инструмент для обфускации (затруднения обнаружения) текстов. В ходе исследования было установлено, что автоматические системы обнаружения ИИ идентифицировали стимулы, созданные ChatGPT, как AI-сгенерированные в 10% случаев, в то время как ни один из текстов, обработанных с помощью Undetectable.AI, не был идентифицирован как созданный AI. Таким образом, процент ложноотрицательных результатов для ChatGPT составил 90%, а для Undetectable.AI — 100%.
Было также установлено, что люди справляются с задачей определения авторства лучше, чем автоматические системы, особенно когда речь идет о более коротких текстах. Хотя люди смогли правильно определить авторство такого текста на уровне выше случайного (точность 76 %), их производительность все равно была ниже той, которая требуется для обеспечения удовлетворительного качества данных. Системы обнаружения ИИ показывали лучшие результаты на более длинных текстах, что предполагает, что для улучшения точности человеческой идентификации следует установить максимальную длину вводимого текста.
Проблема качества данных в онлайн-опросах представляет собой значительную проблему, которая может усугубить кризис воспроизводимости исследований. Использование LLM в образовательных целях также вызывает опасения среди ученых, поскольку студенты могут использовать их для генерации ответов на вопросы викторин или даже для написания полных эссе или обмана на экзаменах.
Опрос 1600 ученых об AI в Nature
Опрос, проведенный журналом Nature среди более чем 1600 ученых по всему миру, выявил, что инструменты искусственного интеллекта становятся всё более популярными в научном сообществе, и ожидается, что они будут играть ключевую роль в исследованиях в ближайшем десятилетии. Более половины опрошенных ученых считают, что инструменты ИИ будут "очень важны" или "необходимы" для их работы в будущем. Данный тренд подтверждается ростом доли научных работ, упоминающих ИИ, во всех областях науки за последнее десятилетие.
ИИ уже используется в различных областях, от биологии до инженерии, помогая ускорять обработку данных (67% респондентов отметили это преимущество), ускорять вычисления (58%), экономить время и деньги (55%). Однако, вместе с возможностями, ИИ несет и риски, такие как усиление зависимости от распознавания образов без глубокого понимания (69% респондентов выразили обеспокоенность), укрепление предвзятости и дискриминации (58%), облегчение мошенничества (55%) и создание невоспроизводимых исследований (53%).
Опрос также выявил, что существуют значительные препятствия на пути интеграции ИИ в научные исследования, включая нехватку вычислительных ресурсов, финансирования и высококачественных данных для работы ИИ. Исследователи, прямо не занимающиеся разработкой ИИ, чаще всего сталкиваются с нехваткой квалифицированных специалистов и ресурсов для обучения, а также с проблемами безопасности и конфиденциальности.
Среди наиболее впечатляющих примеров использования ИИ ученые выделяют большие языковые модели (БЯМ/LLM), такие как ChatGPT, и инструменты ИИ для предсказания пространственной структуры белка (AlphaFold). Однако, вместе с восторгом от возможностей, исследователи выражают опасения по поводу дезинформации (68% опасаются), плагиата (68%) и внесения ошибок и неточностей в научные работы (66%) из-за использования генеративного ИИ.
Около 28% исследователей, изучающих ИИ, используют генеративные ИИ-продукты, такие как БЯМ, ежедневно или почти каждую неделю. Среди тех, кто использует ИИ в исследовательских целях, но не разрабатывает его, таких всего 13%, а среди остальных исследователей — только 1%.

Несмотря на вызовы, связанные с интеграцией ИИ в научную практику, исследователи считают, что ИИ останется важным инструментом в будущем. Большинство опрошенных выразили оптимизм относительно потенциала ИИ приносить пользу науке, несмотря на необходимость адресовать связанные с ним риски и вызовы.
Заключительные мысли
На наш взгляд, ИИ выступает классическим примером могущественной технологии, которая однозначно принесет как много пользы, так и много проблем — в зависимости о того, кто и с какими намерениями будет его использовать. Если рассуждать философски, то ИИ вполне подходит под определение исследовательского фармакона (греч. φάρμακον), что означает лекарство и яд одновременно.
С одной стороны, все чаще случаются скандалы с некорректным использованием ИИ в исследованиях, к примеру, с генерацией ИИ бессмысленных иллюстраций к научным статьям (как, например, случилось вот с этой статьей во Frontiers — сейчас её убрали, но каким-то образом прошла рецензирование и была опубликована, пока на нее не обратила внимание научная общественность).

С другой стороны, ИИ повышает эффективность работы ученых и может быть полезным для решения многих задач, в том числе и таких глобальных, как помощь с решением кризиса воспроизводимости (забавно, что ИИ могут как создавать эту проблему, так и решать ее).
Ранее в канале мы упоминали, что Center for Open Science (COS) в партнерстве с программой Systematizing Confidence in Open Research and Evidence (SCORE) в 2019 году приступил к разработке и внедрению автоматизированных инструментов, обеспечивающих быструю, масштабируемую и точную оценку доверия к научным утверждениям.
В заключение хотим сказать, что правила и этику использования ИИ в науке только предстоит установить. Тем не менее, эти шаги уже активно предпринимаются: прошлым летом организация международного сотрудничества и развития (OECD) выпустила любопытный материал по использованию ИИ в науке — советуем ознакомиться.