Какие доводы в пользу интеграции ИИ в медицине?
Обновлено 20 января 2025 - 2 месяца назад. Statnews.com.
Недавняя интеграция Gemini, современной модели большого языка, в поисковую систему Google знаменует собой значительный шаг в создании ответов на цифровые медицинские запросы на основе искусственного интеллекта. Во всем мире пользователи обращаются к Google с запросами о здоровье 70 000 раз в минуту, поэтому компания имеет многолетний опыт в передаче информации о здоровье и прочную основу для получения высококачественных, авторитетных ответов для пользователей.
Кроме тех случаев, когда это не так.
Как врач (R.S.H.) и коммуникатор в области общественного здравоохранения (A.B-G.), которые вместе работают над технологическими решениями для улучшения цифровых коммуникаций в области здравоохранения, мы понимаем, насколько важно, чтобы такие цифровые продукты, как Google, предоставляли достоверную информацию о здоровье. Мы считаем, что инструменты генеративного ИИ имеют потенциал стать надежными и достоверными источниками медицинской информации. Но они еще не достигли этой вершины.
Gemini, например, может выдавать неточную и потенциально вредную информацию, связанную со здоровьем. Пользователи быстро обсудили в социальных сетях некоторые из самых странных выводов, таких как "добавьте клей Elmer's в соус для пиццы, чтобы сыр не сползал" и "геологи рекомендуют съедать хотя бы один небольшой камень каждый день".
Не вся дезинформация является очевидной и юмористической. Еще один широко распространенный результат от Gemini: "Врачи рекомендуют курить 2-3 сигареты в день во время беременности".
Инновации в области искусственного интеллекта развиваются стремительными темпами. Основополагающие большие языковые модели и другие генеративные технологии искусственного интеллекта обладают потенциалом для масштабирования решений, направленных на решение проблем доступа к здравоохранению, медицинской дезинформации, выгорания врачей и других специалистов в области здравоохранения и общественного здоровья и других.
Поскольку продукты искусственного интеллекта внедряются как крупными коммерческими, так и более мелкими разработчиками, они также способны усугубить проблему медицинской дезинформации и нанести реальный вред людям. Хотя приведенные нами примеры кажутся единичными среди миллионов качественных ответов, они подчеркивают важность рассмотрения воздействия на здоровье людей продуктов искусственного интеллекта, не предназначенных специально для получения медицинской информации, поскольку последствия для пользователя, доверившегося такому совету, могут быть очень серьезными.
Предоставляя информацию о здоровье или медицинские рекомендации, врачи, исследователи и специалисты по связям с общественностью руководствуются четырьмя основополагающими принципами медицинской этики - нематериальность, благодеяние, автономия и справедливость, - чтобы выносить морально обоснованные решения и защищать людей от вреда. Продукты ИИ, которые предназначены или могут предоставлять информацию о здоровье или медицинские рекомендации, не должны быть освобождены от соблюдения этих этических принципов, которые должны применяться при их разработке и внедрении.
Принцип "не навреди" является основой для принятия решений в клинической и исследовательской практике. В медицине это сложная оценка рисков и пользы вмешательства, напоминающая о том, что нельзя недооценивать свою способность причинить вред, даже пытаясь помочь. Если воспринимать этот принцип слишком буквально, то он чреват застоем и потенциальным причинением вреда в результате бездействия. Можно провести параллель с современным спектром философии быстрого развития ИИ, где эффективный альтруизм и эффективный акселеризм находятся на обоих концах.
Хотя преимущества продуктов ИИ могут перевешивать риски, в основе разработки и внедрения продуктов ИИ должно лежать намеренное избежание вреда, особенно при создании медицинского контента. С практической точки зрения разработчики технологий могут следовать этому этическому принципу, отдавая приоритет безопасности с помощью "красной бригады", обеспечивая использование высококачественных и авторитетных источников и их высокий рейтинг в обучающих данных, а также проводя исследования взаимодействия пользователей со своим продуктом до его выпуска.
Принцип благодеяния, уравновешивающий принцип не-благодеяния, стимулирует инновации, проактивность и принятие превентивных решений. Разработка ИИ для продуктов, которые будут передавать информацию о здоровье, должна воплощать этот принцип и ставить интересы пользователя в центр каждого этапа процесса разработки. Превентивный подход к разработке ИИ-продуктов может использовать оперативное проектирование для обнаружения запросов, связанных со здоровьем, и приоритетного использования генерации с расширением поиска в таких случаях, чтобы снизить вероятность неточностей и галлюцинаций. Генерация с расширением поиска (или RAG) обращается к базе знаний за пределами обучающих данных большой языковой модели перед генерацией ответа, чтобы оптимизировать точность вывода.
Автономия в медицинской этике означает, что пациенты имеют право самостоятельно принимать решения относительно своего медицинского обслуживания. Продукты искусственного интеллекта, обеспечивающие распространение точной медицинской информации, обладают огромным потенциалом для повышения самостоятельности человека в принятии решений, касающихся здоровья и медицины. Однако разработчики технологий должны понимать, что расширение автономии означает, что они должны обучить свои продукты ИИ предоставлять сбалансированную, точную и непредвзятую медицинскую информацию.
Справедливость в медицинской этике означает равное и справедливое отношение ко всем. Когда речь идет об этическом развитии медицинского ИИ, возможно, нет более важной области, чем обеспечение справедливости для всех пользователей. Исторически маргинализированные группы населения в непропорционально большой степени страдают от ложной медицинской информации и чаще подвергаются предвзятому отношению. На каждом этапе процесса разработки существует возможность внесения предубеждений, которые могут усугубить это неравенство и усилить системное неравенство. Разработчики ИИ могут предотвратить и уменьшить предвзятость с помощью технологических решений, таких как сбор непредвзятых обучающих данных, стратегии оперативного проектирования, такие как обработка цепочки мыслей, и стратегии посттренингового обучения, такие как изменение ранжирования и модификация функций потерь. Но также необходимо учитывать мнения различных сообществ на ранних этапах разработки технологий путем проведения исследований с участием всех заинтересованных сторон, чтобы лучше понять, как выглядит справедливое представительство для этих сообществ.
Скорейшее внедрение этических принципов, ориентированных на пользователя, в медицине, здравоохранении и научных исследованиях, адаптированных для разработки продуктов ИИ, потенциально может положительно повлиять на состояние здоровья. Общество уже видело последствия применения предыдущих технологий, которые не всегда ставили во главу угла точность информации и сейчас есть возможность предотвратить повторение этих ошибок в масштабах всей индустрии.
Исследования взаимодействия пользователей с инструментами genAI и их влияния на отношение, убеждения и поведение, связанные со здоровьем, необходимы для разработки этических рамок. В NORC при Чикагском университете наша команда приступает к реализации исследовательских программ по изучению этих взаимодействий и стремится предоставить ценные сведения, которые могут стать основой для продвижения принципов небезразличия, благодеяния, автономии и справедливости в медицинских коммуникациях, создаваемых ИИ, для всех людей.
Эта статья является экземпляром Текста-спринтера. Такие тексты отлично продвигают сайты в ТОП органического поиска Яндекс и Google. Здесь я пишу об этом более подробно.

Искренне Ваш,
Nikita Interactive
Это реальная история!
Раздел с Текстами-спринтерами привлек 18 090 пользователей за 9 месяцев.
На новом сайте. Без ссылок.
Измеримые результаты и устойчивый успех.