+7 863 333 29 74 (многоканальный) info@oblteh.ru
Регистрация
все шаблоны для dle на сайте newtemplates.ru скачать

ВОЗ о регулировании искусственного интеллекта в здравоохранении

oblteh 4-12-2023, 12:40 31 Блог компании Облачные технологии
ВОЗ о регулировании искусственного интеллекта в здравоохранении


Всемирная организация здравоохранения (ВОЗ) выпустила новую публикацию, в которой перечислены ключевые нормативные соображения по искусственному интеллекту (ИИ) в системе здравоохранения.

Главный аспект данной статьи - это эффективное и безопасное использование систем ИИ, быстрое предоставление подобных систем тем, кто в них нуждается. Немаловажным становится содействие взаимоотношениям между заинтересованными сторонами, включая разработчиков и производителей данных систем, регуляторов, работников здравоохранения и медицины, а также самих пациентов.

Инструменты на основе искусственного интеллекта могут вполне повлиять на трансформацию всей системы здравоохранения. ВОЗ согласна с потенциалом ИИ и признаёт доступность данных в здравоохранении, которые могут улучшить результаты медицинских достижений благодаря усилению клинических испытаний, улучшению медицинской диагностики и лечения, самообслуживания и индивидуального ухода.

Так, например, системы на основе ИИ могут быть полезны в условиях нехватки квалифицированных специалистов, при необходимости прийти на помощь медицинским работникам, повышая их уровень знаний и компетенцию в узконаправленных вопросах.

Тем не менее, слишком быстрое внедрение технологий искусственного интеллекта, включая большие языковые модели, могут принести как пользу, так и вред пациентам и медицинским работникам. Причина - неполное осознание всей работы ИИ и рисков, связанных с его применением. Так, ИИ в конечном счёте может иметь доступ к личным данным и конфиденциальной информации пациента, а это уже требует введение надежных правовых и нормативных рамок для безопасности и защиты персональной информации.

По словам генерального директора ВОЗ Тедроса Аданома Гебреисуса «Искусственный интеллект имеет большие перспективы в медицине, но также несёт серьёзные риски его использования, включая неэтичный сбор данных, угрозы кибербезопасности и усиление предубеждений или дезинформации. Эта новая публикация призвана поддерживать страны в эффективном регулировании ИИ, чтобы использовать его потенциал, будь то лечение онкологии или выявление туберкулеза, при этом уменьшить риски».

Публикация описывает шесть областей регулирования ИИ в здравоохранении.
  1. Укрепить доверие можно с помощью прозрачности всего процесса, например, посредством документирования всего жизненного цикла изделия и отслеживания процессов разработки.
  2. Для управления рисками важно рассмотреть такие вопросы, как «предполагаемое использование», «непрерывное обучение», вмешательство человека, модели обучения и угрозы кибербезопасности, должны быть всесторонне рассмотрены, а модели должны быть максимально простыми.
  3. Обеспечить безопасность и облегчить регулирование ИИ поможет внешняя проверка данных и чёткое определение целевого использования технологий.
  4. Для исключения предвзятости и ошибок в системе необходима приверженность качеству данных, например, путём строгой оценки предварительных версий систем.
  5. Необходимо соблюдать интересы конфиденциальности и защиты персональных данных для предупреждения проблем, связанных с важными, сложными правилами, такими как Общее положение о защите данных (GDPR) в Европе и Закон о мобильности и подотчетности медицинского страхования (HIPAA) в Соединенных Штатах Америки. Возникшие вопросы нужно решать с акцентом на понимание сферы юрисдикции и требований к согласию.
  6. Соответствие выпущенного продукта и услуг правовым нормам на протяжении всего периода использования может быть достигнуто с помощью развития сотрудничества между медработниками и пациентами, регулирующими органами, представителями отрасли и государственными партнерами.


Технологии на основе ИИ имеют сложную структуру, их работа зависит не только от исходного кода, но и от тех данных, с помощью которых они обучаются (например, взаимодействие пациентов и медучреждений). Улучшение регулирования позволит управлять рисками, возникающими при искажении ИИ в обучающих данных.

Например, системе ИИ бывает сложно точно представлять разнообразие человеческой популяции и её демографический состав, а это уже может привести не только к ошибкам и погрешностям, но и сделает всю систему непригодной к использованию. Для исключения таких рисков можно использовать нормативно-правовую базу с требованиями указывать такие данные, как пол, раса и этническая принадлежность людей, фигурирующих в тренировочных данных, и намеренную коррекцию этой информации для обеспечения репрезентативности.

Таким образом, новая публикация ВОЗ призвана изложить ключевые принципы, которым могут следовать страны и регулирующие органы для разработки нового руководства или адаптации существующего руководства по ИИ на национальном или региональном уровнях.




По материалам: who.int
Закрыть