ACHIEVEMENTS AND PROSPECTS FOR THE APPLICATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN MEDICINE. OVERVIEW



Cite item

Full Text

Open Access Open Access
Restricted Access Access granted
Restricted Access Subscription or Fee Access

Abstract

On a global scale, a radical transformation of the healthcare sector is taking place right before our eyes. Health care systems in many countries are changing at an incredible pace under the pressure of innovative digital platforms that have gained popularity under the name artificial intelligence (AI) and machine learning (ML). Оперирующие собираемыми отовсюду массивами данных системы AI, способны гарантированно обеспечить принятие оптимальных решений ключевым игрокам отрасли здравоохранения, начиная от фармацевтической индустрии и заканчивая самими мелкими поставщиками медицинских услуг. The article presents the results of the analysis of achievements and prospects for the use of innovative digital technologies and platforms in modern healthcare. According to international experts in medicine, it is possible to automate 36% of functions, primarily at the levels of data collection and analysis, and the use of artificial intelligence technologies can significantly increase the gross profit of firms and organizations related to medical activities. There is no doubt about this, since information has already become the main driver of management in all sectors of the global economy in general and in the healthcare sector in particular. The main motivation for the penetration of AI into healthcare is the permanent increase in costs and the urgent need to limit them, the problem of poor-quality diagnostics: up to 30% of ongoing studies turn out to be unreliable or misinterpreted, the desire for standardization and automation of routine functions up to the creation of self-managed diagnostic models. However, the biggest challenge for AI in healthcare is not whether these technologies will be useful enough, but how to ensure that they are quickly and efficiently implemented in everyday clinical practice.

Full Text

Результаты анализа, опубликованные в первой части настоящей статьи свидетельствуют о широком распространении технологий искусственного интеллекта (ИИ) в самых разных сферах медицины: научной, клинической, медицинском менеджменте, системе подготовке кадров. Вот некоторые часто встречающиеся ошибки дивелоперов продуктовых платформ AI, предиктивного анализа Big Data и машинного обучения:

  • создание продукта, исходя из имеющейся технологии, а не из определения проблем целевой аудитории;
  • создание самообучающихся алгоритмов под потребности отдельно взятой категории врачей-специалистов, а не системы оказания медицинской помощи в целом;
  • незнание реальной рыночной конъюнктуры и уже существующих продуктовых линеек других производителей;
  • отсутствие четкого понимания функционирования системы финансирования медицинской помощи и анализа потребностей пациентов;
  • отсутствие Сhief medical officer с медицинскими, бизнес и ИТ-компетенциями;
  • ориентация на модель «как должно быть» без предварительного формирования и отработки модели «как есть».

В дальнейшем реальная медицинская практика, скорее всего, будет включать в себя установки «человек в цикле», когда люди активно сотрудничают с системами ИИ и обеспечивают надзор. В совместных установках между ИИ и людьми медики получают помощь от ИИ, хотя иногда они работают отдельно от ИИ, а их прогнозы впоследствии усредняются или иным образом интегрируются. Исследования в этой сфере показали, что клинические эксперты и ИИ в сочетании достигают лучших результатов, чем только эксперты. Например, H. Kim и др. обнаружили, что клинические эксперты с помощью ИИ превзошли как людей, так и только ИИ при обнаружении злокачественных узлов на рентгенограммах грудной клетки. Полезность сотрудничества человека и ИИ, очевидно, будет зависеть от специфики задачи и клинического контекста. Но до сих пор остаются открытыми вопросы о том, как именно помощь ИИ влияет на производительность человека. Например, иногда было показано, что помощь ИИ повышает чувствительность клинических экспертов при снижении их специфичности, а некоторые исследования, как проспективные, так и ретроспективные, показали, что комбинированная эффективность ИИ и человека не может превзойти эффективность ИИ в отдельности. Кроме того, некоторые клиницисты могут получить больше пользы от помощи ИИ, чем другие; исследования показывают, что менее опытные клиницисты, такие как стажеры, получают больше пользы от ввода ИИ, чем их более опытные коллеги [1].

Несмотря на грандиозные успехи в деле применения ИИ и машинного обучения в медицине врачебное сообщество весьма обеспокоено некоторыми сложно разрешимыми проблемами, связанными со слишком быстрым и повсеместным использованием указанных цифровых платформ. В этой связи был создана программа анализа изображений Sagimet, предназначением которой является противодействие предубеждениям человека. Дело в том, что, если алгоритмы машинного обучения продуманы недостаточно глубоко, они вполне способны сами переносить свойственные людям предубеждения. Это было доказано в недавних исследованиях университета Чикаго США. Технические недоработки также могут послужить причиной того, что AI не сможет верно интерпретировать определенные факторы, как это часто случается при моделировании развития нозологий [2].

Известный американский эксперт по медицинским устройствам юрист Джеффри К. Шапиро высказался по этому поводу следующим образом: «Радикальное отличие программного обеспечения с ИИ состоит в его способности накапливать информацию и совершенствоваться, опираясь на реальные данные, с которыми оно сталкивается. Я не думаю, что FDA имеет какое-либо представление о том, как это регулировать, потому что это полностью выходит за рамки обычной парадигмы разработки традиционных медицинских устройств, их проверки, продажи после проверки FDA, после чего рабочие характеристики не меняются. Здесь, по определению, они будут меняться, и FDA еще не придумало, как они собираются с этим справиться» [3].

Дополнительные проблемы возникают также из-за больших размеров изображений, потому что объем памяти, требуемый нейронной сетью, может увеличиваться как со сложностью модели, так и с количеством пикселей во входных данных. В результате многие медицинские изображения, особенно изображения целых слайдов, которые легко могут содержать миллиарды пикселей каждое, слишком велики, чтобы вписаться в обычную нейронную сеть.  Существует множество способов решения этой проблемы. Изображения могут быть изменены в размере за счет мелких деталей, или они могут быть разбиты на несколько небольших фрагментов, хотя это будет препятствовать способности системы проводить связи между различными областями изображения. В других случаях люди могут идентифицировать интересующую область меньшего размера, например, часть изображения слайда, содержащую опухоль, и обрезать изображение перед тем, как передать его в среду ИИ. В некоторых исследованиях используются большие пользовательские модели, которые могут принимать целые медицинские изображения, но для работы этих моделей может потребоваться дорогостоящее оборудование с большим объемом памяти. Таким образом, системы классификации медицинских изображений часто требуют компромиссов, чтобы сделать входные данные совместимыми с нейронными сетями [4, 5].

Проблемы также возникают, когда технологические факторы приводят к систематической ошибке смещения. Это происходит, например, когда платформа использует массив данных в виде коллекции изображений, поступающих только с одной камеры с фиксированными настройками. Такая платформа покажет себя менее эффективной при обработке входных данных, полученных ею из других источников. Чтобы улучшить интерпретацию, алгоритм должен проходить обучение на базе всех тех мест, откуда будут поступать данные, чтобы адаптироваться к специфическим особенностям каждого из них. Однако и к данному подходу следует подходить с осторожностью, особенно когда распределение меток в разных наборах данных сильно различается. Например, если алгоритм обучается на наборах данных из 2-х учреждений, одно из которых содержит только положительные случаи, а другое – только отрицательные, то он может достичь высокой производительности с помощью ложных меток, не узнавая о соответствующей патологии. Поскольку обученный таким способом алгоритм классификации изображений может начать полностью основывать свои прогнозы на различиях между камерами обоих учреждений, то он, скорее всего, мало что узнает полезного о целевой патологии и не сможет толком ничего обобщить. Поэтому-то и надо крайне настороженно относиться к технологической предвзятости ИИ, особенно при использовании им данных из различных источников [6].

Важным аспектом завоевания нашего доверия является способность платформы ИИ, объяснять нам, как она приходит к своим выводам. Поскольку многие системы ИИ в настоящее время функционируют в формате чёрного ящика, объяснение результатов их работы представляет собой острую проблему. Конечно, известен ряд методов для понимания ИИ, например, метод значимости, когда выделяются области изображения, которые могут в наибольшей степени способствовать прогнозированию. К сожалению, эти методы никак нельзя признать абсолютно надежными. Потребуются дальнейшие исследования в области интерпретации процессов принятия решений ИИ и количественной оценки их надежности. Когда медицинская цифровая платформа ИИ выдвигает новые идеи, выходящие за рамки текущих научных знаний, полная ясность всех шагов функционирования алгоритма особенно необходима. Только так мы сможем достойно оценить эти новые идеи, а, значит, и лучше понять биологические механизмы, лежащие в основе того или иного заболевания [7, 8].

Конкретные проблемы регуляторного характера будут неизбежны из-за постоянного обучения ИИ, поскольку цифровая платформа с течением времени накапливает новые данные, приспосабливаясь к популяционным изменениям социума. Тут также кроется возможность возникновения ошибок. Традиционно регуляторы систем ИИ утверждают только один фиксированный набор параметров, но этот подход не учитывает необходимость обновления информации, поскольку входные данные и параметры постоянно меняются. В этой связи регулирующие органы должны разработать новые процедуры сертификации для работы с платформами ИИ. Не так давно была высказана идея о том, что для адаптивных систем ИИ, должна утверждаться не только исходная платформа, но и все процедуры её обновления с течением времени.

Хотя ИИ расширяет возможности врача в принятии медицинских решений, одновременно он создает предпосылки к ограничению личной свободы и возникновению нежелательных обязательств. Поскольку платформы ИИ берут на себя больше функций, проблема, с которой сталкивается здравоохранение, состоит в том, что клиницисты могут чересчур полагаться на ИИ, констатируя при этом постепенное снижение собственных навыков и утрату доверительного контакта с больным. В свою очередь, разработчики платформ с ИИ приобретают избыточное влияние, которое обязаны использовать для создания безопасных и полезных людям систем ИИ. Поскольку принятие медицинских решений все больше зависит от во многом необъяснимых суждений ИИ, отдельные больные, утратив контроль над своим собственным состоянием, могут потерять всякое понимание происходящего. И в то же самое время пациент вдруг обременяется некими ранее не присущими ему обязанностями. Например, если интеллектуальные устройства навязчиво предлагают больным разные советы, то естественно ожидать, что те будут следовать этим рекомендациям, а, следовательно, возьмут на себя ответственность за возможные негативные последствия для здоровья [9, 10].

Несмотря на то, что, с одной стороны, ИИ может сделать высококвалифицированную медицинскую помощь более доступной для малообеспеченных слоев населения, с другой стороны, нет никаких гарантий того, что он в один прекрасный момент вдруг не обострит социальное неравенство. Дело в том, что платформы ИИ имеют неприятное свойство масштабировать общественные настроения, замешанные на предрассудках и предубеждениях, которые в неявном виде всегда присутствуют в накапливаемых данных. Алгоритмы ИИ не могут оперировать недоступными им данными, поэтому обучение ИИ на наборах данных, не представляющих социально незащищенные и маргинализованные группы населения, приводит к системам ошибкам платформ, которые будут игнорировать интересы этих групп. В то же время цифровые платформы, которые преднамеренно нацелены на массовый учёт потребностей прекариата, иных экономически несостоятельных слоёв, мигрантов, национальных меньшинств и прочих ущемленных в правах категорий населения, прямо рискуют закрепить в своих алгоритмах состояние неравенства, потому что осуществить этически справедливую дифференциацию столь разномастной массы людей компьютерной программе, не обладающей критическим мышлением, в принципе невозможно. Неправильная интерпретация не может не возникать из-за неудачных вариантов дизайна платформ, например, ошибочный выбор целевой метки. В США было установлено, что алгоритм оценки риска, используемый для руководства принятием клинических решений для 200 млн. пациентов, делал прогнозы с расовой предвзятостью, потому что белые пациенты, которым был присвоен определенный балл риска, как правило, оказывались здоровее, чем афроамериканцы с таким же баллом. Это предубеждение было в значительной степени связано с целевыми метками, используемыми в машинном обучении. Поскольку предназначенный для прогноза расходов на здравоохранение алгоритм ИИ был обучен тому, что чернокожие пациенты на протяжении исторически длительного периода получали самое дешевое лечение, по сравнению с белыми, то алгоритм в своих прогнозах системно воспроизводил заученную ситуацию, несмотря на то, что положение вещей в последние годы поменялось. Не удивительно, что выдаваемый прогноз оказался некорректным. В этой связи требуются дальнейшие усилия исследователей ИИ для выявления и исправления подобных ошибок работы цифровых платформ. В будущем желательно, чтобы алгоритмы ИИ могли проходить систематическое тестирование перед внедрением, чтобы надежность работы нейронных сетей ни у кого не вызывала никаких сомнений [11, 12, 13].

Нарастание популярности ИИ вызывает обоснованные опасения по вопросу юридической и профессиональной ответственности, поскольку до сих пор неясно, должны ли разработчики, регулирующие органы, продавцы или поставщики медицинских услуг нести эту ответственность, если платформа допускает ошибки даже после тщательной клинической проверки. В настоящее время врачи несут ответственность в случае отклонения от стандарта оказания медицинской помощи и причинения вреда здоровью пациента [14]. Если врач скептически относится к ИИ, то он может проигнорировать его рекомендации, противоречащие стандартной практике, даже если эти рекомендации могут быть персонализированными и полезными для конкретного пациента. Однако, если стандарты медицинской помощи изменятся так, что врачи будут регулярно использовать инструменты ИИ, у них появится мощный судебно-медицинский стимул следовать рекомендациям ИИ. Конфиденциальные данные, как правило, должны собираться и использоваться с согласия пациента, и дабы не афишировать личные данные целесообразно использовать стратегии анонимизации и агрегирования. В принципе личные данные пациентов должны использоваться исключительно для их благополучия. Необходимо чтобы все учреждения, работающие с данными пациентов, относились к ним ответственно, используя соответствующие протоколы безопасности.  Между тем, внедрение мер безопасности зачастую требует значительных ресурсов и усилий, а учреждения, которые не могут позволить себе достаточных инвестиций в этой области, могут оказаться в затруднительном положении, даже если их деятельность является общественно полезной. К тому же практика запросов на использование данных в разных учреждениях и проектах может затруднить получение информированного согласия, поскольку люди будут с недоверием относиться к повторяющимся требованиям о предоставлении персональных данных [15].

Также остаются вопросы о регулировании ИИ в медицине и о том, как ИИ может сокращать и создавать рабочие места во всей системе здравоохранения, затрагивая интересы в равной степени исследователей, врачей и пациентов.  [16].

Дальнейшая интеграция ИИ в системы здравоохранения и социальный институт медицины будет связана с возможностью практического решения множества конкретных проблем [17, 18]. Хотя есть надежда, что ИИ снизит медицинские расходы, устройства, необходимые для получения входных данных для систем ИИ, могут быть чрезмерно дорогими. В частности, оборудование, необходимое для получения изображений целых препаратов, является дорогостоящим и поэтому недоступно во многих системах здравоохранения, что затрудняет как сбор данных, так и развертывание систем искусственного интеллекта для патологии.

Резюме:

Готовность здравоохранения к изменениям устоявшегося уклада, в первую очередь, зависит от готовности заимствовать лучшие цифровые решения у других отраслей. Например, технологии, которые используются для рендеринга изображений и отображения теней в компьютерных играх, уже успешно применяются в медицине. Трансформация медицины из искусства и ремесла в индустриальное производство наблюдается в мире всё отчетливее, и это вовсе не замена специалиста на робота с ИИ, а обогащение медицины инновационными цифровыми технологиями, например, из ритейла, авиаперевозок, индустрии туризма или гостеприимства.

Применение ИИ способно произвести революцию в системе здравоохранения за счет развития таких направлений, как персонализированная медицина, диагностика, разработка новых лекарственных препаратов, робот-ассистированная хирургия, телемониторинг хронических заболеваний, дистанционная помощь пациентам, поддержка принятия правильных медицинских решений, выявление медицинских ошибок. Только нельзя научить роботов человеческой мудрости врача-эксперта, чувству эмпатии и заботе о больных, взаимопониманию и поддержке своих коллег. Это именно то, что и составляет суть врачебной профессии, но без этого цифровые платформы ИИ окажутся просто бесполезными дорогими игрушками.

Таким образом, самая большая проблема для ИИ в здравоохранении заключается не в том, будут ли эти технологии достаточно полезными, а в том, чтобы обеспечить их внедрение в повседневную клиническую практику. Со временем клиницисты могут перейти к задачам, требующим уникальных человеческих навыков, задачам, требующим высочайшего уровня когнитивных функций. И, пожалуй, единственными проигравшими в этой погоне за искусственным интеллектом, могут оказаться именно те медицинские организации, которые откажутся по-настоящему его использовать.

×

About the authors

Vitaly A Berdutin

Volga district medical center FMBA of Russia,

Email: vberdt@gmail.com
ORCID iD: 0000-0003-3211-0899
SPIN-code: 8316-7111

 
 
 
Russian Federation, Nizhnevolzhskaya naberezhnaya 2, 603001, Nizhny Novgorod, Russian Federation;

Olga Abaeva

Sechenov First Moscow State Medical University of the Ministry of Health of the Russian Federation (Sechenov University),

Author for correspondence.
Email: abaevaop@inbox.ru
ORCID iD: 0000-0001-7403-7744
SPIN-code: 5602-2435
Scopus Author ID: Scopus Author ID: 8279457600

Professor of the Department of Sociology of Medicine, Health Economics and Health Insurance

Russian Federation, 119991, Moscow, Rossolimo, 11, bild 2,

Tatyana E Romanova

Sechenov First Moscow State Medical University of the Ministry of Health of the Russian Federation (Sechenov University),

Email: romanova_te@mail.ru

Master's student of the Department of Sociology of Medicine, Health Economics and Health Insurance

Russian Federation, 119991, Moscow, Rossolimo, 11, bild 2,

S. V Romanov

Volga district medical center FMBA of Russia. address: Volga district medical center FMBA of Russia,

Email: pomcdpo@mail.ru
ORCID iD: 0000-0002-1815-5436

Doctor of Medical Sciences, Associate Professor, Director

Russian Federation, Nizhnevolzhskaya naberezhnaya 2, 603001, Nizhny Novgorod, Russian Federation;

References

  1. Kim H., Goo J.M., Lee K.H., Kim Y.T., Park C.M. Preoperative CT-based Deep Learning Model for Predicting Disease-Free Survival in Patients with Lung Adenocarcinomas. Radiology 2020: 296: 216-224.
  2. Phillips M. et al. Assessment of accuracy of an artificial intelligence algorithm to detect melanoma in images of skin lesions. JAMA Netw. Open 2019. 2, e1913436.
  3. FDA. Questions and Answers on FDA's Adverse Event Reporting System (FAERS). 2017. https://www.fda.gov/drugs/surveillance/questions-and-answers-fdas-adverse-event-reporting-system-faers
  4. Liu X., Faes L., Kale A.U., et al. A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. Lancet Digital Health 2019; 1: e271-297.
  5. Sabottke C.F., Spieler B.M. The effect of image resolution on deep learning in radiography. Radiol Artif Intell 2020; 2: e190015.
  6. Heaven D. Why deep-learning AIs are so easy to fool. Nature 2019; 574: 163-166.
  7. Habli I., Lawton T., Porter Z. Artificial intelligence in health care: accountability and safety. Bull World Health Organ 2020; 98: 251-256.
  8. Adamson A.S., Smith A. Machine learning and health care disparities in dermatology. JAMA Dermatol 2018; 154: 1247-1248.
  9. Finlayson S.G., Bowers J.D., Ito J., Zittrain J.L., Beam A.L., Kohane I.S. Adversarial attacks on medical machine learning. Science 2019; 363: 1287-1289.
  10. Zou J., Schiebinger L. AI can be sexist and racist — it’s time to make it fair. Nature 2018; 559: 324-326.
  11. Kelly C.J., Karthikesalingam A., Suleyman M., Corrado G., King D. Key challenges for delivering clinical impact with artificial intelligence. BMC Med 2019; 17: 195.
  12. Nagendran M., Chen Y., Lovejoy C.A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies. BMJ 2020; 368: m689.
  13. Willitts-King B., Bryant J., Holloway K. The Humanitarian “Digital Divide”, Humanitarian Policy Group Working Paper, Overseas Development Institute, London, 2019, 10; P. 15.
  14. Filippov YU.N., Abaeva O.P., Filippov A.YU.Problems of compensation of moral harm related to rendering of medical assistanc. Medicinskoe pravo.2014; 1: 21-24.
  15. Voss C., Schwartz J., Daniels J., et al. Effect of wearable digital intervention for improving socialization in children with autism spectrum disorder: a randomized clinical trial. JAMA Pediatr 2019; 173: 446-454.
  16. He J., Baxter S.L., Xu J., Xu J., Zhou X., Zhang K. The practical implementation of artificial intelligence technologies in medicine. Nat Med 2019; 25: 30-36.
  17. Reshetnikov A.V. The social institution of medicine. Part I. Sociologiya mediciny. 2018; 17(1): 4-11.
  18. Reshetnikov A.V. The social institution of medicine. Part II. Sociologiya mediciny. 2018; 17(1): 68-79.

Supplementary files

There are no supplementary files to display.


Copyright (c) Eco-Vector



СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № 77 - 12391 от 19.04.2002 г. 
СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия
ЭЛ № ФС 77 - 80649 от 15.03.2021 г.



This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies