Нейросетевой доктор - друг или враг?

Нейросетевой доктор - друг или враг?

Баранов Павел Сергеевич

Реальность наших сегодняшних дней такова (пишу этот текст 2 октября 2025 года), что использование нейросетей, которые в обиходе часто называются ИИ ("искуственный интеллект") стало повсеместным. Конечно, на самом деле никаким Искуственным Интеллектом нейросети не являются, они представляют собой сложные математические модели, алгоритмы, которые способны в кратчайшие сроки обрабатывать огромные массивы данных. Это не защищает от ошибок, но может сделать подобные алгоритмы крайне полезным инструментом в грамотных руках. Однако, как мы дальше выясним, инструмент этот может принести как пользу, так и серьёзный вред. Если вы пока ещё не сталкиваетесь с теми или иными результатами деятельности нейросетей в своей повседневной жизни, то либо до вас это пока ещё не добралось, либо вы не замечаете (а может не хотите замечать) того, что происходит прямо перед вами. Подавляющая часть умных алгоритмов работает незаметно, как закулисная команда в грандиозном театральном представлении: её не видно, но она, во многом, управляет всем происходящим на сцене. Так, "ИИ" управляет транспортными потоками, фильтрует поисковые запросы в Google/Яндекс/и тп, блокирует спам в электронной почте, определяет выдачу новых и новых бессмысленных роликов, которые люди часами листают в социальных сетях, и выявляет случаи банковского мошенничества. Этот "компьютерный мозг" уже давно стал достаточно сложным, чтобы конкурировать с людьми в различных задачах, и сегодня он даже превосходит нас в прогнозировании результатов экспериментальных исследований. Все эти системы имеют одну важную особенность, которая свойственна и нам с вами: они совершенствуются благодаря опыту.

Без сомнения, самыми заметными и общедоступными являются так называемые большие языковые модели — ChatGPT, Grok, DeepSeek, Gemini, и многие другие. И теперь они доступны всем нам, в отличие от более ранних версий ИИ, которые долгое время были скрыты от общественности. Эти модели генерируют оригинальный текст, изображения, аудио или даже программный код со скоростью, опережающей человеческие возможности. Благодаря своей вычислительной мощности и эффективным алгоритмам, они быстро распространились в различных отраслях. По оценкам три четверти людей сегодня используют языковые модели в повседневной работе. Школьники и  студенты используют их для выполнения заданий, исследователи — для написания научных работ, а другие специалисты — для принятия решений в сфере бизнеса, маркетинга и медицины. К концу 2025 года число пользователей одного только ChatGPT по прогнозам превысит 1 миллиард. Поскольку эти технологии продолжают развиваться, их использование в повседневной жизни неизбежно будет расти. И это уже необратимо.

Но как это влияет на получение нами доступа к различной информации в Интернете? Теперь вместо того, чтобы вводить ключевые слова в поисковую систему и фильтровать результаты (как мы все уже давно привыкли делать), пользователи всё чаще вводят те же запросы в окошко диалога с нейросетью. Оказывается, что только в англоязычной части Интернета и только в ChatGPT люди отправляют более 2,5 миллиардов запросов ежедневно, и всё чаще эти запросы связаны со здоровьем: безопасны ли вакцины? Как лучше всего похудеть? Какие добавки дают энергию? Как замедлить старение организма? Почему моя нога вдруг посинела?
И какой бы вопрос вы ни задали, можно с уверенностью сказать, что ваша любимая языковая модель даст вам прямой и абсолютно уверенный ответ.

И вот в чём проблема: большие языковые модели, они же "ИИ", они же нейросети - не обладают знаниями. То есть они буквально НЕ ЗНАЮТ что-то. Они обучаются на огромных массивах текстовых данных, накопленных в сети за многие годы, и выполняют статистический анализ, чтобы предсказать следующее наиболее вероятное слово в ответ на запрос. У них нет возможности проверять, взвешивать доказательства или выносить суждения. Поэтому, хотя они отлично справляются с одними задачами, это ещё не делает их подходящими для задач другого рода, таких как анализ, рассуждение и ответы на сложные вопросы о здоровье или медицине в целом, ведь это уже т.н. возникающие свойства, которые люди добавляют поверх изначальной конструкции. Другими словами, мы используем большие языковые модели для решения задач, для которых они не предназначены.

Кроме того, нейросети обучаются не только на научных данных. То есть они не используют только ту часть научной медицинской информации (качественные исследования, систематические обзоры, метаанализы, клинические рекомендации, и т.п.), которая считается авторитетной в медицинском сообществе. Основную часть данных, из которых языковые модели черпают информацию, чтобы выдать вам ответ на любой вопрос по теме здоровья, составляют книги (в том числе за авторством популярных парамедицинских шарлатанов), статьи, веб-страницы, блоги, форумы вопросов и ответов, и даже социальные сети (вы и сами прекрасно знаете, какое количество "экспертов по здоровью" сейчас присутствует в соцсетях, как в англоязычном, так и в русскоязычном, и в других сегментах).

И даже если научный контент всё-таки включается, то обычно это статьи и тексты, находящиеся в открытом доступе, которые могут составлять в лучшем случае 30–50% мировой научной литературы. А то и меньше. Обучение на основе таких разнообразных текстов может улучшить результаты поиска, если вы хотите создать хороший речевой генератор на основе нейросети, но когда речь идёт о точности научной (и медицинской в частности) информации, появляется всё больше доказательств того, что это она сильно страдает.

Например, языковые модели, в том числе самые популярные, перечисленные мной выше, часто ошибаются в медицинских рекомендациях. Они дают неточные и неполные ответы на вопросы, связанные со здоровьем, что может привести к введению пользователей в заблуждение и повлечь за собой потенциально опасные действия (или бездействие, что также порой может быть опасно). Кроме того, поскольку языковые модели могут ставить глобальную эффективность в здравоохранении выше прав человека, они могут быть предвзяты в сторону коллективной или системной выгоды, а не в сторону защиты прав и личности пациента.

Это лишь малая часть тех подводных камней, которые присутствуют в сфере "нейросетевой медицины". Даже не верхушка айсберга, а верхушка верхушки.

Но давайте перейдём к конкретным примерам, нам ведь нужно увидеть, насколько грубыми могут быть алгоритмы в контексте медицинских задач?

На этом скриншоте прекрасно видно, как 5 популярных нейросетей дают уверенные (и авторитетные по мнению многих пользователей) ответы на заведомо ошибочный вопрос с научной точки зрения.

На всякий случай для новичков: иммунология - безумно сложная наука, изучение которой пока что находится на зачаточном уровне. Мы знаем о поверхности Луны гораздо больше, чем о собственной иммунной системе. И даже те исследователи, которые занимаются иззучением имммунитета всю свою жизнь, не смеют делать утверждения наподобие "Вот *это* укрепляет/поддерживает иммунитет", так как что-то подобное было бы ничем иным, кроме как спекуляцией. Обычно про укрепление/поддержку иммунитета любят что-нибудь утверждать люди, далёкие от медицины в целом и от иммунологии в частности. И нейросети тоже, как видно, легко и непринуждённо это делают.


А вот ещё один пример моего диалога с Gemini, где я специально задаю вопрос, также заранее зная, что получу местами крайне противоречивый ответ:

Далее он предлагает разные варианты, но внимание особенно привлекает это:

После чего очередной вопрос, заданный языковой модели, вынуждаёт её "признаваться" в том, что информация была подана не без греха:

То есть на вопрос о том, как снизить вредное воздействие алкоголя на мозг, помимо почти правильного ответа (что никакие препараты/БАД не могут устранить это вредное воздействие, только без всяких "полностью"), языковая модель стала предлагать препараты, по которым за всё время их существования (а это несколько десятков лет) так и не появилось качественной доказательной базы. Все перечисленныев ответе средства считаются бесполезными (и порой даже потенциально опасными) в мире научной медицины. Но нейросеть это вовсе не смущало, пока я не потрудился задать ей нужные вопросы.

Важно: если бы я не знал, как обстоят дела на самом деле, а потому мне в голову даже не пришло бы задавать такие вопросы, то что тогда? Правильно, я бы, вероятно, поверил, и в следующий раз при посещении паба взял бы с собой пачку мексидола, глицина и пирацетама, чтобы "снизить вред алкоголя для мозга". Хотя, справедливости ради, в этом примере языковая модель смогла защитить себя обтекаемыми формулировками, написав, что все эти вещества "часто используют", а уже после перечислив их перечень. В конце концов, если люди что-то часто используют - это ещё не означает что оно работает. Как мы с вами хорошо знаем, чего только в нашем мире не используют, и доказательством эффективности это не является.


Ошибки в цитировании - это ещё один достаточно известный недостаток. Несколько месяцев назад я попросил одну из популярных языковых моделей предоставить мне несколько ссылок на научные данные о том, как спортивные результаты различаются при выполнении тренировок на разной высоте над уровнем моря, и нейросеть, в свою очередь, выполнила запрос очень уверенно и быстро. Но... есть нюанс.

При проверке вручную я выяснил, что многие ссылки были ошибочными: это была своего рода мешанина из правдоподобных, но несуществующих в реальности данных, включая даже (!!!) имена авторов, названия статей и журналов. Это была классическая галлюцинация — феномен, при котором большие языковые модели генерируют правдоподобный, но фактически ложный текст. И когда я попросил алгоритм дать объяснение (понадобилось несколько изощрённых попыток), он в конце концов всё признал, сообщив: «Я могу искажать информацию, чтобы создать видимость полноты данных, даже если это означает снижение точности».

Такие вот дела.

И это не просто единичные случаи. Так, вот здесь аудит 500 цитат из трёх популярных нейросетей показал, что только 1/3 из них были точными, а почти половина была хотя бы частично сфабрикована. Кроме того, были признаны менее 10% ошибок, сделанных языковыми моделями, а неверные ответы выдавались с «необоснованной уверенностью» (напоминает синдром Даннинга-Крюгера у некоторых лиц, агрессивно защищающих свои антинаучные взгляды в Интерете).

Хорошие учёные, врачи и другие деятели науки, напротив, понимают важность предоставления достоверных ссылок с целью подтверждения своих слов. Таким образом они дают читателям уверенность в том, что их утверждения основаны на достоверных, проверяемых данных, а не на их личном мнении, которое, помимо субъективного опыта, зачастую больше ни на что не опирается. Вот почему цитирование является краеугольным камнем научного и академического дискурса. Но что будет происходить в нашем инфополе, если нейросети будут продолжать массово делать псевдонаучные заявления без точных ссылок, просто генерируя несуществующую информацию?

Что ж, как минимум, это может привести к распространению заблуждений на различные темы в беспрецедентных масштабах и, как следствие, может создать новую серьёзную угрозу общественному здоровью и здравоохренению в целом: «инфодемию, вызванную искусственным интеллектом».


Очевидно, что нейросети, как очередное оружие в руках пользователей, распространяются быстрее, чем мы успеваем осознать их сильные стороны и ограничения. Всё это имеет серьёзные последствия для областей, где важны фактическая точность и интеллектуальная целостность. И хотя эксперты, безусловно, тоже совершают ошибки, их, по крайней мере, можно привлечь к ответственности. При общении с живым человеком вы получаете доступ к принципиально иному процессу сбора, анализа и обработки данных. Наш мозг работает не также, как алгоритмы языковых моделей. Медицинские работники опираются не только на знания, полученные в ходе обучения, практическую подготовку и накопленный опыт, они также постоянно находятся в среде других таких же специалистов, с которыми регулярно взаимодействуют (что помогает выявлять ошибки и проводить работу над ними), за счёт чего постоянно совершенствуют свои рекомендации в соответствии с актуальной парадигмой научного мира. В идеале. Эксперты также способны учитывать нюансы, давать индивидуальные рекомендации и сочетать знания с суждениями, чего просто не может делать генеративный "ИИ". По крайней мере, пока что не может.

После всего этого вы можете подумать, что я негативно отношусь к нейросетям и преследую цель их очернить. На самом деле всё наоборот, я считаю, что у них очень большой потенциал, в том числе в области медицины и науки в целом. Но есть два "НО". Первое: пока что это именно потенциал, который в будущем ещё предстоит реализовывать. Второе: как я и написал в начале, "ИИ" - очень эффективный инструмент в грамотных руках. То есть он может усилить человека, который УЖЕ является экспертом в своей области, так как этот человек будет знать, какие именно вопросы и как именно задавать, как правильно работать с языковой моделью, как "настроить" её таким образом, чтобы максимально повысить точность получаемой информации.

Ибо нейросеть в руках недалёкого человека - это как ненастроенный музыкальный инструмент в руках того, кто не имеет ничего общего с музыкой. Он ни настроить его не сможет, ни сыграть. С нейросетями также: чтобы задать правильный вопрос, нужно знать, как минимум, не меньше половины ответа (чтобы суметь оценить достоверность того, что напишет языковая модель), и в принципе быть высококлассным специалистом в данной теме. В противном случае ответ может не принести абсолютно никакой пользы, а в некоторых ситуациях даже навредить.

Наконец, как общественное здравоохранение в целом, так отдельные люди и их жизни - это не самая подходящая "чашка петри" для проведения экспериментов. Любовь нашего населения (всех стран бывшего СССР) к самолечению в сочетании с порой весьма сомнительными медицинскими рекомендациями от языковых моделей - это потенциально взрывоопасная смесь.

Тем не менее, если этот "полевой эксперимент" в конце концов увенчается успехом, то мы сможем извлечь из этого много пользы для своей клинической практики. В случае же развития ситуации по противоположному сценарию, человечество может столкнуться с необходимостью познать на себе известную библейскую цитату: «Так как они сеяли ветер, то и пожнут бурю».


Report Page