Google как преступник, медсестра и медицинский прибор

Подразделению компании Google Deep Mind Health, проекту использования искусственного интеллекта в целях здравоохранения, который сотрудничает с «Королевской бесплатной больницей» (Royal Free Hospital) и другими лечебными учреждениями в Лондоне, уже пытались из-за персональных данных неоднократно устроить неприятности.
В 2016 году Google DeepMind и фондом Royal Free London NHS FoundationTrust подписали меморандум о взаимопонимании, в результате чего DeepMindHealth получил полный доступ к записям об историях болезни, вызовах скорой и неотложной помощи, данных радиологии и патолого-анатомического отделения — ко всей информации о пациентах, зафиксированной клиниками «Королевской бесплатной», Барнет (BarnetHospital) и Чейз Фарм (Chase Farm Hospital) за пять лет, включая данные об инфицированности ВИЧ, пережитых абортах и перенесённых клинических депрессиях. В год через эти три клиники проходит 1,6 млн пациентов. О меморандуме стало известно журналистам New Scientist. Последовавшие публикации повлекли за собой жалобу в британский Офис уполномоченного по информации (Information Commissioner’sOffice, ICO; британский оператор защиты персональных данных).
Проведённое расследование продемонстрировало, что, хотя по закону 1998 года о персональных данных, вся информация, которая для каких-либо целей передается больницей третьим лицам и организациям без информированного согласия пациента, должна быть анонимизирована и зашифрована или псевдоанонимизирована, меморандум, который был подписан Google и Free, сообщает косвенно, что в этом случае ничего не будет ни анонимизироваться, ни шифроваться, так как предполагается использовать информацию только лишь для помощи пациентам. Также Free и Google ссылались на предполагаемое согласие, как в ситуациях, когда врач показывает медсестре или другому врачу историю болезни или результаты анализов и лабораторных исследований. Подразумевается, что подобные ситуации само собой разумеются и не нужно получать для подобных действий специальное информированное согласие пациента. Имелось в виду, что то, чем занимается DeepMindHealth, можно сопоставить с тем, что делают врачи и медсёстры для больных.
Но информационный уполномоченный заметил, что предполагаемое согласие обычно применяется в ситуациях, когда два врача или медсестра с врачом находятся под одной крышей. Если ж врач хочет продемонстрировать коллеге в другой клинике или дома историю болезни, для этого уже необходимо согласие пациента. Когда идет речь о больших массивах данных — согласие каждого пациента. Другие возможности: или чрезвычайная ситуация в области здравоохранения, когда персональные данные используются в национальных интересах, или решение суда. Последнего у Google не имеется, а попытка представителей сторон, которые подписали меморандум, оперируя статистикой смертности от заболеваний, на борьбу с которыми направлены вычисления, производимые DeepMind, представить ситуацию как чрезвычайную среди их оппонентов не встречают понимания.
В поисках решения RoyalFreeи Google пытались также представить дело таким образом, словно никуда не передавалась никакая информация, а была только лишь загружена в новый медицинский прибор, каковым DeepMindHealthи является. Но оппоненты и здесь нашли, к чему можно придраться: по закону, перед вводом в эксплуатацию каждый медицинский прибор должен получить одобрение Medicinesand Healthcareproducts RegulatoryAgency (MHRA, британский регулятор в сфере здравоохранения). Но ни фонд, ни Google не получали подобного одобрения.
Google с точки зрения закона везде неправ, но пока всё ограничивается публичными спорами: преследуются такие нарушения только в том случае, когда их результатом становится совершение тяжкого преступления. Тогда нарушителю грозит штраф в размере пять тысяч фунтов стерлингов или тюремное заключение сроком шесть месяцев.
Отвечая на опасения защитников персональных данных, соучредитель DeepMind Мустафа Сулейман сказал в заявлении для Computer Weekly:
«Мы работаем с клиницистами RoyalFree, чтобы понять, как технологии способны помочь врачам вовремя заметить ухудшение состояния пациента, в этом случае — острую почечную недостаточность. Мы все время придерживаемся самых высоких стандартов защиты данных пациентов. Они будут использоваться лишь в целях улучшения здравоохранения и никогда не будут связаны с продуктами Google  или учётными записями».
Ранее британские защитники персональных данных возмущались, наоборот, тем, что DeepMindHealth использует как раз анонимизированные данные (речь об упоминавшемся выше сканировании миллиона анонимизированных снимков сетчатки в сотрудничестве с больницей «Мурфилдс Ай»). Недовольные говорили, что пациент может потребовать удаления данных так или иначе связанных с ним из любого массива, в том числе и анонимизированного, и требовали от Google обеспечить подобную возможность.

Кибертерроризм и киберпреступность

Бре́ши в информационной безопасности систем искусственного интеллекта и их периферии чреваты не только нарушением приватности, но и прямыми угрозами здоровью и жизни. Самые популярные у алармистов примеры: удалённый взлом кардиостимулятора и намеренное «переучивание» диагностическо-рекомендательной системы на предложение смертельно опасного лекарства или процедуры. В критическом случае это может привести к массовым убийствам. Поэтому носимые устройства должны быть надёжно защищены от внешних атак. Но какую защиту можно считать достаточно надёжной? И кто надёжность оценивает? А кто станет отвечать, если что-то такое всё же случится? Клиника? Врач? Специалист по информационной безопасности?Разработчик интеллектуальной системы?

Самолечение и сокращение числа рабочих мест в медицине

Вряд ли средний врач обдумывает возможность стать виноватым из-за ошибки искусственного интеллекта, но в целом у врачей тоже нет стимула к внедрению интеллектуальных систем. Где-то функционирует система, согласно которой вознаграждение врача прямо пропорционально времени,затраченному на пациента, и, если искусственный интеллект станет ставить правильный диагноз за 5 секунд, услуги врача обесценятся немедленно, как минимум, «в среднем по больнице». И если, благодаря искусственному интеллекту, один врач сумеет принимать пациентовв пять раз больше, из-за этого четверых придётся уволить.
Есть также целые регионы, жители которых уже сегодня массово предпочитают врачу поиск в Google. Если же им будет доступен искусственный интеллект, который ставит диагноз и предлагает терапию, при рабочих местах там из медиков останутся разве что стоматологи,хирурги и процедурные медицинские сёстры. Не факт, что это пойдёт на пользу общему уровню здоровья, но — как убедить ходить к врачу человека, который и прежде не доверял ему, а теперь ещё у него есть доступ к машинной диагностике? И куда деваться тем медикам, которые из-за искусственного интеллекта останутся без работы?

Пока еще не врачи, но уже рядом

Как сообщает The Guardian, 5 января этого года японская компания Fukoku Mutual Life Insurance, которая занимается преимущественно медицинским страхованием, сообщила об увольнении тридцати четырех сотрудников в связи с началом эксплуатации удалённого интерфейса когнитивной системы IBM Watson — Watson Explorer.
Fukoku Mutual Life Insurance считает, что, благодаря искусственному интеллекту, сможет увеличить производительность на 30% и  менее чем за пару лет окупит вложения в него, а также в этом году сэкономит на текущих расходахболее ста миллионов иен.
WatsonExplorer  распознаёт изображения и символы, понимает естественный язык и сможет читать огромное количество медицинских справок и учитывать для расчёта страховых выплат медицинские истории,продолжительность пребывания в больницеи любые хирургические процедуры. Причём будет делать всё это намного качественнее и быстрее, чем уволенные тридцать четыре сотрудника. Последних, впрочем, всё это едва ли обрадует.

Законодательные барьеры и «серая» правовая зона

Гигантские массивы данных, в том числе персональных, так или иначе, всё равно, собираются и используются — в эпоху глобальных информационных сервисов с миллиардами пользователей иначе и быть не может, но легальность этого находится под вопросом. Права собственности, права на использование открытых для искусственного интеллекта персональных данных, а также вопросы разграничения ответственности при эксплуатации искусственного интеллекта в медицине требуют законодательного регулирования.
И тому, чтобы это регулирование происходило быстро, трезво, эффективно и с пользой для людей, есть несколько серьёзных препятствий.
Во-первых, это недостаточный уровень экспертизы, понимания законодателями и правительственными чиновниками, что собственно необходимо сделать, так как отрасль новая и готовых кейсов попросту не существует. Придётся действовать методом проб и ошибок, а ошибки в деле здравоохранения особенно опасны, ведь идёт о жизни и здоровье людей.
Во-вторых, национальные государства не очень-то охотно отдают права на оперирование данными граждан кому-то, кроме более или менее подконтрольных им структур. Особенно опасаются они делиться этим ресурсом с международными организациями и частными, более всего — иностранными, компаниями. Им видится в этом, и не без оснований, частичная потеря суверенитета над гражданами, потеря существенного ресурса и утрата толики властных функций. Именно отсюда проистекает, например, вся отечественная катавасия последних лет — с «иностранными агентами» и требованием к транснациональным сервисам держать серверы с данными граждан РФ на её территории.
Наконец, как и простые люди,законодатели в какой-то степени находятся в плену страхов и стереотипов, начиная от страха перед действительными опасностями, тем же кибертерроризмом, тем возможным ростом безработицы среди медиков, и заканчивая элементарными неофобией и мракобесием.
При отсутствии же законодательного регулирования, тот, кто взялся бы продвигать и развивать сервисы искусственного интеллекта на конкретной территории (развитие клиентской базы, налаживание взаимодействия со структурами местной здравоохранительной системы, языковая локализация и т. п.), должен был бы действовать на свой страх и риск и быть готовым к тому, что в любой момент всё, что он делает, может оказаться уже не в «серой», а в «чёрной» зоне, то есть вне закона. Со всеми вытекающими последствиями - правовыми, экономическими и моральными.
Конечно, прогресс невозможно остановить, существует потребность в широком медицинском применении искусственного интеллекта, услуги,которые на нём основанные, всё чаще востребованы и  будут оказываться так или иначе. Но если они окажутся на символической территории «чёрного рынка», это не только отпугнёт многих пациентов и специалистов от этой отрасли, но и лишит людей гарантий защиты и контролируемого стандарта, создаст условия для процветания имитаторов и поставщиков заведомо некачественных услуг.

Заключение

Несмотря на все описанные проблемы, сама логика развития технологий и общества дает возможность надеяться на лучшее. В конце концов, никакие усилия RIAA, РАО и т. п. не убили ни файлообменные сети, ни звукозаписывающую технику, интернет продолжает развиваться вопреки «великому китайскому файрволу», Роскомнадзору и различным ограничивающим актам национальных государств, антиГМО-алармисты не могут остановить развитие генетики. Так и искусственный интеллект пришёл уже в медицину, уже работает с данными и  это невозможно остановить. Можно лишь сделать его дальнейшее проникновение более комфортным,быстрыми безопасным — либо же наоборот —затруднить,замедлить, наломать дров.
И в силах каждого — работать на первый сценарий и противостоять второму. Для этого необходимо:
1. Помогать организациям, которые разрабатывают медицинские системы искусственного интеллекта, собирать данные, для этого использовать носимые устройства и упомянутые в этой статье приложения и им подобные.
2. Обращаться за помощью к уже существующим системам искусственного интеллекта при диагностировании, будь вы пациент или врач, показывать их своим лечащим врачам.
3. Формировать позитивное общественное мнение в отношении использования искусственного интеллекта в медицине, вести разъяснительную работу, помогать людям преодолевать фобии и стереотипы.
4. В странах, где законодатели реально зависят от избирателей, стараться инициировать принятие невраждебных к медицинскому искусственному интеллекту законодательных актов, регулирующих неясные на сегодня вопросы (например, вопрос о приватности информации о состоянии здоровья, вопрос открытия для систем искусственного интеллекта историй болезни, вопрос разграничения ответственности в различных ситуациях, возникающих при использовании искусственного интеллекта в диагностике и лечении).
И если широкое общественное движение сформирует многомиллионный и постоянно растущий спрос, если люди массово поймут, что им это нужно, и начнут пользоваться и требовать, ситуация сама будет способствовать выработке социального консенсуса по вопросам, пока что ставящим в тупик, а за ним неминуемо подтянутся и законодательная база, и всенародное участие в сборе данных. И тогда, скорее всего, инвестиции, осуществляемые сейчас в искусственный интеллект в медицине, дадут желаемый результат.