ИИ-технологии в медицине. Почему Алиса не может поставить диагноз?
Теперь разберем каждый пункт подробнее. Повторюсь, я высказываю свое личное мнение, на которое я имею право, мнение, которое я буду аргументировать. Применение ИИ для постановки диагнозов – довольно распространенная тема в наши дни. Врачей мало, к «бесплатным» специалистам всегда очереди, к платным специалистам не всегда попадешь по причине высокой стоимости консультации либо в результате того, что привык к «халяве» (бесплатная медицина, образование и прочее), почему-то забывая, что вся “халява” оплачивается из тех налогов, которые мы платим каждый день, что-то покупая, чем-то пользуясь и др.
Люди продолжают болеть, сталкиваются с теми или иными патологиями, находятся в дефицитарных состояниях, одним словом, людям не хорошо. Не имея возможности получить помощь специалиста человек идет на просторы интернета, включает ИИ-помощника и накидывает свои симптомы, какие-то, часто случайно сданные анализы, и просит ИИ дать ответ, “что же не так со мной”.
Параллельно с этим снижается качество подготовки специалистов, причем не только у нас, но и во всем мире. Сроки подготовки врачей и фельдшеров снижаются, режутся системообразующие дисциплины по часам, много материала переводится на самообучение, снижается контроль над усвоением знаний, в итоге выходят «дипломированные» специалисты, которые не знают, где находится селезенка и на кой черт она нужна, с трудом могут отличить мочевую кислоту от мочевины и др.
Отдельная боль – специалисты, которые обучались в некоторых странах СНГ, где качество подготовки и контроль над уровнем знаний совсем плохой. В итоге, попадая на рабочее место, такой специалист ищет любые способы, как скрыть от окружающих свою некомпетентность, и тут на помощь приходит ChatGPT или аналоги. Раньше диагнозы «гуглили» в ручном режиме, теперь можно довериться всезнающему ИИ. Он и анализы проинтерпретирует за тебя, и диагноз поставит, главное начать.
Что же делает ИИ-система? Вообще, как она работает? Берем для примера нашу Алису в Яндексе. вы делаете ввод данных, система по ключевым словам запускает поиск в интернете, берет ряд источников, которые скорее всего идут одними из первых в выдаче, и формирует ответ. Да, вы быстро получили информационную сводку, но какого она качества? Все ИИ-системы учатся на тех данных, которые есть в интернете. Ещё в прошлом году ряд специалистов в области искусственного интеллекта начали бить тревогу, говоря о том, что для ИИ-систем нового поколения (условно GPT5) уже не хватает данных. То есть эти системы «съели» практически все данные, которые есть в интернет-пространстве, а для дальнейшего развития ИИ-систем нужно данных в 2-3 раза больше, чем сейчас есть во всей мировой паутине. Для дальнейшего обучения специалисты предлагают создавать контент в интернете самими ИИ-системами. То есть писать материал самому себе и на базе этого материала «учиться» быть похожими на наш мозг. Так себе затея, не находите?
Теперь давайте посмотрим на качество данных. Истинно уникального контента в интернете не так много, гораздо больше контента из серии «copy-paste» (заимствовать данные из готовых источников, немного переписывать и выдавать как свой продукт). Часто это вижу на примере «Дзен» сообщества, где авторы пишут посты на разные темы. Берется кликбейтный заголовок (заголовок, побуждающий на него нажать), условно «Ученые Сызрани победили старение, и теперь в 100 лет можно иметь упругую грудь». Далее пишется какая то «шапка» поста (пара предложений из серии, что да, жить вечно это здорово), а потом кусками закидывается в текст неизмененный кусок из другого источника, потом другой кусок из другого источника, а потом делается в конце какой-нибудь «авторский» вывод «как здорово, что существует современная наука, а вы что думаете по этому поводу?». То есть под видом уникального контента мы получаем перепечатку из других источников, то есть – дубль информации.
В свое время был крупный скандал с диссертациями, когда выяснилось, что в огромном количестве диссертаций присутствует прямой плагиат из других диссертаций. То есть в идеале,каждая диссертация должна быть написана в уникальном ключе путем человеческой обработки информации, ее структурирования, выводов, научных решений и др. На практике штампуются «диссеры» с дублем информации. Напомню, на этом ИИ-тоже учится.
Далее о самом качестве информации. Это прям большая боль. Когда я только начинал вести преподавательскую деятельность, у меня, как и у других молодых специалистов, были одеты розовые очки. Услышав какую-то информацию, которая меня удивила, я ее воспринимал как абсолютную истину. Ну как же, гуру не могут ошибаться, они же носители света и абсолютной истины. Не могут ошибаться американские сайты, ведь там все по науке, не то что у нас. Вообще США – это колыбель превентивной медицины, и там каждый, кто пишет слово «превентивный», «интегративный» или «функциональный» — это уже кладезь вечных истинных знаний. И ты, будучи молодым и голодным до информации, пожираешь все, что тебе попадается.
А потом начинаются конфликты данных. Вот «доктор Берг» говорит, что заниматься онанизмом на кето-диете это хорошо, главное кето-диету соблюдать, а ведущий натуропат из института Аль-Фараби считает, что онанизм возможен, если сдаешь анализ спермограммы, но кето-диета должна быть только на жире барана, иначе харам. И ты такой сидишь и думаешь, а кто из них прав? Понимаешь, что кто-то из них чуть дальше от истины. А потом спустя годы доктор Берг отказывается от кето-диеты, как и доктор Меркола, как и ряд других «адептов веры». И оказывается, что все, что ранее считалось верным, рабочим и правильным, превратилось в мыльный пузырь, который лопнул. НО, у того же Берга уже есть миллионные просмотры в ютубе, куча пошеренных статей (процесс, когда подписчик делится информацией у себя в социальных сетях или на сайте), и миллионы фанатов в своих превентивных трудах уже сделали «копи-паст» данных доктора Берга. Наверняка были кем-то написаны книги, которые есть и в электронном виде. Всю эту информацию кушает наш ИИ и учится.
Есть огромное количество ошибок данных, начиная от ошибок обозначений, условно мг\л и мг\мл – это немного разные результаты. Или когда пишется статья про гипотиреоз, а в заголовке пишется ГИПЕРТИРЕОЗ. Часто встречаю ошибки переноса данных. В моей работе я часто делаю таблицы с симптомами, когда какой-то показатель низкий (например, инсулин или ТТГ), а когда высокий. И часто бывает так, что даже у очень известных специалистов с мировым именем на сайте могут быть ошибки данных, и симптомы низкого ТТГ записываются в колонку с симптомами высокого ТТГ). Как пример, такая ошибка может быть по причине рукожопых сотрудников великого «светилы», которые переносили данные из источника А на сайт и допустили ошибку, а владелец знаний не перепроверил. Поверьте, такое встречается регулярно. Ну и дальше по классике – мировая известность, миллионные просмотры, бездумное использование информации потребителями приводит к тому, что ошибка повторяется много раз. В итоге, в общем пуле данных эта информация начинает преобладать, что влияет на выдачу именно этих результатов в ИИ-системе.
Ну и вишенка на торте – ограничения ИИ-системы. Как вы знаете, мы живем в удивительном мире, где у каждого государства (а теперь блока) есть своя политика партии, свои ценности, ориентиры и акценты. Наш ИИ-ассистент выдаст данные про СВО или ковид в одном ключе, а ИИ-система в Европе – нечто другое, в США – третье, в КНР – совсем иное. Есть ряд фильтров, в рамках которых работает любая ИИ-система.
Вспомним ковид, в нашей стране было 15 разных протоколов лечения ковида и, как говорил на конференции «Здоровые люди» Владислав Шафалинов, те препараты, которые применялись в первом рекомендуемом протоколе, полностью отсутствуют в 15-м. Но, когда был первый протокол – это считалось политикой партии, и попробуй с этим поспорить. Вспомним забавную историю с гидроксихлорохином, когда первые 2 года его демонизировали, смеялись над препаратом, пропихивая «эффективные прививки», а потом по-тихому включили в протоколы лечения как ЭФФЕКТИВНЫЙ препарат при ковиде.
Попробуйте спросить ИИ по поводу вреда вакцин, и выдача тоже будет весьма однобокой – то есть это не полноценная компиляция ВСЕЙ информации, а компиляция информации в заданном диапазоне, который настраивается вручную в каждом конкретном ИИ. Ещё до популярности ИИ-ассистентов я обратил внимание, что если забить какой-то запрос в Гугле, Яндексе и в ТОРе, получишь ТРИ абсолютно разные выдачи информации. И если ты пользуешься только одним браузером, тебе будет доступна только часть информации, которая есть в интернете. ИИ-ассистенты работают по этой же логике.
Далее, постановка диагноза по анализам – популярная тема в последние пару лет. Хочется спросить, а какие нормы ИИ видит как нормы? Алиса берет референсы самых популярных лабораторий, которые есть в выдаче. Не данные национального руководства по лабораторной диагностике 2025 года, а данные лабораторий, которые есть в поисковике. А как Вы, наверное, знаете, в разных лабораториях РАЗНЫЕ референсы, разные источники информации. В итоге можно получить весьма забавную интерпретацию результатов. Не будем забывать, что есть «госнормы» интерпретации анализов, есть нормы превентивные, которые по ряду показателей очень сильно отличаются.
Как пример, сегодня в своем закрытом чате обсуждали анализы при синдроме Жильбера. Врач-практик считает, что непрямой билирубин будет истинно токсичным, если будет выше 100 единиц (как нас учили в свое время в медвузе). Однако моя практика показывает, что если у человека билирубин непрямой выше 15, это уже сказывается на его эмоциональном состоянии, уровне энергии, рисках аутоиммунных заболеваний, нарушении детоксикации эстрогенов (миомы, эндометриоз, фиброзно-кистозная мастопатия, полипы и др.). Да, при непрямом билирубине 24 не будет желтой кожи, но уже может меняться цвет ладоней, стоп, может меняться оттенок склер глаз и др.
Применение госнорм позволяет исключить явные патологии, острые состояния, одним словом – жизнеугрожающие истории. Но если заходит речь про оптимальное здоровье, госнормы не в состоянии дать этот результат. Нужны совсем другие референсы и понимание сути каждого анализа. Но ИИ-система будет брать ГОСНОРМЫ, которые соответствуют принципам доказательной медицины отдельно взятой страны. При определенных навыках можно внести любые данные в анналы доказательной медицины, там и мясо сверчков снижает холестерин и помогает в борьбе с раком, и прививки от ковида защищают от всего и навсегд,а и статины – это прямо таки конфеты (ну, в том случае, если мясо сверчков не помогло).
Резюмируя могу сказать так: когда я смотрю на людей, которые на полном серьезе радуются возможности поставить диагноз через ИИ-систему, у меня возникает экзистенциальная грусть по поводу феноменальной когнитивной простоты данного индивидуума. Да, в некоторых ситуациях ИИ может быть полезен для анализа данных МРТ (ИИ может увидеть то, что человеческий глаз может пропустить) или фотографии тела человека. Недавно ИИ посоветовал девушке обратиться к онкологу, обратив внимание на маленькую родинку на ладони. Девушка хотела, чтобы ИИ погадал по руке, но система чуть иначе оценила фотографию. В итоге эта родинка оказалась меланомой (агрессивная форма рака). Но эти примеры никак не исключают все те противоречия, которые я обозначил выше. Настоящий профессионал может применять ИИ в узких вопросах, где нужно быстро обработать большой массив данных, но для этого надо знать, как работать с информацией, какие есть ограничения у системы и др. А это, я вам скажу, как человек, умеющий врачевать и обрабатывать информацию, работая с различными IT-решениями, - крайне сложная задача, доступная единицам.
Человечество выпустило очень опасную игрушку, которая наворотит делов, а на перспективе ещё и станет системой управления и контроля населения. Уже в каждом доме есть умная колонка, которая нас внимательно слушает 24\7, телефоны, которые занимаются тем же самым. Делается это не для помощи конкретному Валере, а для оцифровки Валер, чтобы потом Валерами можно было бы управлять. Не будь Валерой! Продолжение следует…