Медицина, искусственный интеллект и предвзятость: плохие данные подорвут хорошие технологии?

Модели искусственного интеллекта могут помочь в прогнозировании и профилактике заболеваний. Но последние исследования показывают, с какими трудностями они сталкиваются в предоставлении информации, которая будет работать для всех.

Медицина, ИИ и предвзятость: подорвут ли плохие данные хорошие технологии?

Натали Сабин

18 мая 2022 C Представьте себе, что вы заходите в Библиотеку Конгресса с ее миллионами книг и задаетесь целью прочитать их все. Невозможно, верно? Даже если бы вы смогли прочитать каждое слово каждого произведения, вы не смогли бы запомнить или понять все, даже если бы потратили всю жизнь на попытки.

Теперь предположим, что у вас каким-то образом есть супермощный мозг, способный прочитать и понять всю эту информацию. У вас все равно была бы проблема: вы не знали бы, что не было освещено в этих книгах, на какие вопросы они не ответили, чей опыт они упустили.

Точно так же современные исследователи имеют ошеломляющее количество данных, которые необходимо просеять. Все мировые рецензируемые исследования содержат более 34 миллионов ссылок. Миллионы других наборов данных исследуют, как такие вещи, как анализ крови, медицинская и семейная история, генетика, социальные и экономические характеристики влияют на результаты лечения пациентов.

Искусственный интеллект позволяет нам использовать больше этих материалов, чем когда-либо. Появляющиеся модели могут быстро и точно систематизировать огромные объемы данных, предсказывая возможные исходы для пациентов и помогая врачам принимать решения о лечении или профилактике.

Большие перспективы открывает передовая математика. Некоторые алгоритмы C инструкции по решению задач C могут диагностировать рак груди с большей точностью, чем патологоанатомы. Другие инструменты ИИ уже используются в медицине, позволяя врачам быстрее найти историю болезни пациента или улучшить способность анализировать радиологические снимки.

Однако некоторые эксперты в области искусственного интеллекта в медицине считают, что, хотя преимущества кажутся очевидными, менее заметные предубеждения могут подорвать эти технологии. На самом деле, они предупреждают, что предубеждения могут привести к неэффективному или даже вредному принятию решений при уходе за пациентами.

Новые инструменты, те же предубеждения?

Хотя у многих людей предвзятость ассоциируется с личными, этническими или расовыми предрассудками, в широком смысле предвзятость - это тенденция склоняться в определенную сторону, либо в пользу, либо против чего-либо.

В статистическом смысле предвзятость возникает, когда данные не полностью или не совсем точно представляют население, для моделирования которого они предназначены. Это может произойти из-за того, что изначально были получены некачественные данные, или когда данные одной популяции по ошибке применяются к другой.

Оба вида предвзятости - статистическая и расовая/этническая - существуют в медицинской литературе. Некоторые популяции изучены больше, а другие представлены недостаточно. В связи с этим возникает вопрос: Если мы создаем модели ИИ на основе существующей информации, не передаем ли мы старые проблемы новой технологии?

Это, безусловно, вызывает беспокойство, говорит Дэвид М. Кент, доктор медицины, директор Центра прогнозной аналитики и сравнительной эффективности Медицинского центра Тафтса.

В новом исследовании Кент и группа исследователей изучили 104 модели, предсказывающие сердечно-сосудистые заболевания C моделями, призванными помочь врачам решить, как предотвратить это заболевание. Исследователи хотели узнать, будут ли эти модели, которые и раньше показывали хорошие результаты, так же хорошо работать при тестировании на новом наборе пациентов.

Что они обнаружили?

Модели работали хуже, чем можно было ожидать, говорит Кент.

Они не всегда могли отличить пациентов с высоким риском от пациентов с низким риском. Иногда инструменты завышали или занижали риск заболевания у пациентов. Настораживает тот факт, что большинство моделей могли нанести вред при использовании в реальных клинических условиях.

Почему наблюдалась такая разница в результатах работы моделей после их первоначальных испытаний и в настоящее время? Статистическая погрешность.

Прогностические модели не обобщают так хорошо, как люди думают, что они обобщают, говорит Кент.

Когда вы переносите модель из одной базы данных в другую, или когда ситуация меняется во времени (от одного десятилетия к другому) или в пространстве (от одного города к другому), модель не может учесть эти различия.

Это создает статистическую погрешность. В результате модель уже не отражает новую популяцию пациентов и может работать не так эффективно.

Это не означает, что ИИ не следует использовать в здравоохранении, говорит Кент. Но это показывает, почему так важен человеческий контроль.

Исследование не показывает, что эти модели особенно плохи, говорит он. Оно подчеркивает общую уязвимость моделей, пытающихся предсказать абсолютный риск. Оно показывает, что необходим более тщательный аудит и обновление моделей.

Но даже человеческий контроль имеет свои пределы, как предупреждают исследователи в новой работе, выступая за стандартизацию процесса. Без такой системы мы можем найти только те погрешности, которые мы думаем искать, отмечают они. Опять же, мы не знаем того, чего не знаем.

Предвзятость в черном ящике

Раса - это смесь физических, поведенческих и культурных признаков. Она является важной переменной в здравоохранении. Однако раса - сложное понятие, и при использовании расы в алгоритмах прогнозирования могут возникнуть проблемы. Хотя между расовыми группами существуют различия в состоянии здоровья, нельзя предполагать, что все люди в группе будут иметь одинаковые результаты для здоровья.

Дэвид С. Джонс, доктор медицины, доктор философии, профессор культуры и медицины Гарвардского университета и соавтор книги Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, говорит, что многие из этих инструментов [аналоговых алгоритмов], похоже, направляют ресурсы здравоохранения на белых людей.

Примерно в то же время аналогичные предубеждения в инструментах искусственного интеллекта были выявлены исследователями Зиадом Обермайером, доктором медицинских наук, и Эриком Тополем, доктором медицинских наук.

Отсутствие разнообразия в клинических исследованиях, влияющих на лечение пациентов, давно вызывает озабоченность. Сейчас, по словам Джонса, беспокойство вызывает то, что использование этих исследований для построения прогностических моделей не только передает эти предубеждения, но и делает их более неясными и трудными для обнаружения.

До появления искусственного интеллекта аналоговые алгоритмы были единственным клиническим вариантом. Эти типы прогностических моделей рассчитываются вручную, а не автоматически.

При использовании аналоговой модели, говорит Джонс, человек может легко просмотреть информацию и точно знать, какая информация о пациенте, например, расовая принадлежность, была включена или не включена.

Теперь, при использовании инструментов машинного обучения, алгоритм может быть запатентован, то есть данные скрыты от пользователя и не могут быть изменены. Это "черный ящик". Это проблема, потому что пользователь, поставщик медицинских услуг, может не знать, какая информация о пациенте была включена и как эта информация может повлиять на рекомендации ИИ.

Если мы используем расу в медицине, она должна быть абсолютно прозрачной, чтобы мы могли понимать и выносить обоснованные суждения о целесообразности ее использования, говорит Джонс. Необходимо ответить на следующие вопросы: Как и где использовать расовые ярлыки, чтобы они приносили пользу, не причиняя вреда".

Стоит ли беспокоиться об искусственном интеллекте в клинической практике?

Несмотря на поток исследований в области искусственного интеллекта, большинство клинических моделей еще не нашли применения в реальной практике. Но если вы обеспокоены тем, что ваш поставщик услуг использует технологии или гонки, Джонс советует действовать на опережение. Вы можете спросить его: Есть ли способы, с помощью которых ваше отношение ко мне основано на вашем понимании моей расовой или этнической принадлежности? Это может открыть диалог о том, какие решения принимает врач.

Между тем, эксперты сходятся во мнении, что проблемы, связанные со статистической и расовой предвзятостью искусственного интеллекта в медицине, действительно существуют и требуют решения до широкого применения этих инструментов.

Реальная опасность заключается в том, что в новые компании, создающие модели прогнозирования, вливаются тонны денег, и на них оказывается давление с целью получения хорошей [прибыли на инвестиции], говорит Кент. Это может привести к конфликтам, связанным с распространением моделей, которые могут быть не готовы или недостаточно протестированы, что может привести к ухудшению качества медицинской помощи вместо улучшения.

Hot