Патология уже давно является краеугольным камнем диагностики и лечения рака. Патологоанатом тщательно исследует ультратонкий срез человеческой ткани под микроскопом на наличие признаков, указывающих на наличие, тип и стадию рака.
Для эксперта взгляд на вихревой образец розовой ткани, усеянный фиолетовыми клетками, сродни выставлению оценки за экзамен без названия: слайд раскрывает важную информацию о заболевании, не предоставляя других подробностей о пациенте.
Однако то же самое не обязательно относится к моделям искусственного интеллекта, появившимся в последнее время. лет. Новое исследование, проведенное командой Гарвардской медицинской школы, показывает, что эти модели могут каким-то образом выводить демографическую информацию из слайдов патологии, что приводит к предвзятости в диагностике рака среди различных групп населения.
Анализируя несколько основных моделей искусственного интеллекта, предназначенных для диагностики рака, исследователи обнаружили неодинаковую эффективность в обнаружении и дифференциации рака в разных популяциях на основе самооценки пациентов о поле, расе и возрасте. Они определили несколько возможных объяснений этой демографической предвзятости.
Затем команда разработала систему под названием FAIR-Path, которая помогла уменьшить предвзятость в моделях.
Чтение демографических данных со слайда патологии считается «миссией невыполнимой» для патологоанатома, поэтому предвзятость в искусственном интеллекте при патологии стала для нас неожиданностью».
Кун-Синг Ю, старший автор, доцент кафедры биомедицинской информатики, Институт Блаватника при HMS и доцент кафедры патологии HMS в Бригаме и женской больнице.
Выявление и противодействие предвзятости ИИ в медицине имеет решающее значение, поскольку она может повлиять на точность диагностики, а также на результаты лечения пациентов, сказал Ю. Успех FAIR-Path указывает на то, что исследователи могут повысить объективность моделей ИИ для онкологической патологии и, возможно, других моделей ИИ в медицине с минимальными усилиями.
Работа, которая частично поддерживалась федеральным финансированием, описана 16 декабря. Cell Reports Medicine.
Тестирование предвзятости
Ю и его команда исследовали предвзятость в четырех стандартных моделях патологии искусственного интеллекта, разрабатываемых для оценки рака. Эти модели глубокого обучения были обучены на наборах аннотированных слайдов с патологиями, из которых они «изучили» биологические закономерности, которые позволяют им анализировать новые слайды и предлагать диагнозы.
Исследователи предоставили моделям искусственного интеллекта большой многоинституциональный репозиторий патологий. слайды, охватывающие 20 типов рака.
Они обнаружили, что все четыре модели имели необъективные характеристики, обеспечивая менее точные диагнозы для пациентов в определенных группах на основе самооценки расы, пола и возраста. Например, модели с трудом различали подтипы рака легких у афроамериканцев и пациентов мужского пола, а также подтипы рака молочной железы у более молодых пациентов. Эти различия в производительности наблюдались примерно в 29 процентах случаев. диагностических задач, которые выполняли модели.
Эта диагностическая неточность, по словам Ю, возникает потому, что эти модели извлекают демографическую информацию из слайдов и полагаются на демографические закономерности для постановки диагноза.
Результаты оказались неожиданными, «потому что мы ожидали, что оценка патологии будет объективной», добавил Ю. «При оценке изображений нам не обязательно знать демографические данные пациента, чтобы поставить диагноз».
Команда задалась вопросом: почему? разве ИИ, занимающийся патологиями, не продемонстрировал такую же объективность?
В поисках объяснений
Исследователи пришли к трем объяснениям.
Поскольку легче получить образцы для пациентов из определенных демографических групп, модели ИИ обучаются на неравных размерах выборок. возраст или пол.
Однако «проблема оказалась гораздо глубже», — сказал Ю. Исследователи заметили, что иногда модели работали хуже в одной демографической группе, даже если размеры выборки были сопоставимы.
Дополнительный анализ показал, что это может быть связано с разной заболеваемостью: некоторые виды рака более распространены в определенных группах, поэтому модели могут лучше диагностировать рак в тех группах, где они встречаются. не так распространены.
Модели ИИ также улавливают тонкие молекулярные различия в образцах из разных демографических групп. Например, модели могут обнаруживать мутации в генах, вызывающих рак, и использовать их в качестве показателя типа рака - и, таким образом, быть менее эффективными при постановке диагноза в популяциях, в которых эти мутации менее распространены.
"Мы обнаружили, что, поскольку ИИ настолько силен, он может дифференцировать многие неясные биологические сигналы, которые не могут быть обнаружены стандартными человеческими оценками", - сказал Ю.

18:00







