Искусственный интеллект в здравоохранении: поиск этического пути к цифровой трансформации

29 ноября прошла всероссийская научно-практическая конференция «Этические проблемы применения искусственного интеллекта в здравоохранении». В рамках мероприятия спикеры обсудили как ИИ поможет решить ряд важнейших задач в здравоохранении и какие может нести за собой этические сложности. В своем вступительном слове Ольга Кобякова, д.м.н., профессор, директор ЦНИИОИЗ сказала, что поддерживает развитие искусственного интеллекта. Она отметила, что «сегодня важно думать, спорить и обсуждать все те риски, которые возникают с активным распространением технологий ИИ. Независимо от того, к какому «лагерю» принадлежит каждый из нас, нам предстоит выработать нормативное урегулирование этого вопроса, обеспечить безопасность наших пациентов, а также улучшить качество медицинской помощи. Мы живем во времена, когда биоэтика переживает второе рождение и мы задаем себе вопросы, о которых еще 50 лет назад не могли и подумать». Указом Президента РФ от 10.10.2019 г. №490 «О развитии искусственного интеллекта в РФ» были сформированы базовые принципы развития ИИ в России: ИИ-продукты должны быть безопасными; ИИ-продукты должны быть понятными с точки зрения принятия решений; Россия должна иметь технологический суверенитет; Целостность инновационного цикла; Поддержка конкуренции. Ключевой целью стандартов стало определение методологических основ технических и клинических испытаний систем ИИ. Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение «цифры» в жизнь: дискриминация; потеря приватности; потеря контроля над ИИ; причинение вреда человеку ошибками алгоритма; применение в неприемлемых целях. Александр Гусев, член Набсовета Ассоциации НБМЗ, директор по развитию проекта Webiomed, главный специалист, эксперт в области применения искусственного интеллекта ЦНИИОИЗ рассказал о том, что проблема доверия к технологиям в наши дни действительно существует и выделил два ключевых направления обеспечения доверия: доверие с точки зрения безопасности и доверие с точки зрения доказательств эффективности. Существуют 3 «кита» доверия к разработчику программных продуктов на основе ИИ-технологий: Доверие к производителю. Независимая сертификация разработчика на наличие системы менеджмента качества. Доверие к методикам. Развитие опыта и экспертизы в части оценки безопасности и клинической эффективности СИИ на независимых наборах данных. Доверие к эксплуатации. Постоянный автоматический контроль качества работы ИИ-моделей на основе эталонных дата-сетов. Александр Панов, партнер практики Здравоохранение и технологии BGP LITIGATION, преподаватель НИУ ВШЭ, основатель и председатель академического совета магистерской программы «Правовое регулирование в фармацевтике и биотехнологиях» НИУ ВШЭ, член экспертного совета комитета по здравоохранению Совета Федераций рассказал об ответственности, которая может замедлять внедрение инноваций, искусственного интеллекта, аналитических систем и т.д. «Важно выработать общую схему распределения ответственности. От производителя и вплоть до медицинского работника. То как мы построим модель ответственности – это очень важный момент и по сути он предопределит судьбу будущих решений и доверия медицинского сообщества к этим решениям. Чем больше правовой определенности в этой области, тем больше у нас шансов быстрее внедрить все необходимые решения». По итогам конференции спикеры пришли к выводу о необходимости создания единых этических норм использования технологий искусственного интеллекта, а также четкой модели распределения ответственности в сфере распространения цифровых технологий в медицине.

Предстоящие мероприятия

Предстоящие мероприятия не найдены