Проведённое расследование продемонстрировало, что, хотя по закону о персональных данных 1998 года, вся информация, которую больница передает третьим лицам и организациям для каких-либо целей без информированного согласия пациента, должна быть анонимизирована или псевдоанонимизирована и зашифрована. Меморандум, который подписали Google и Free, сообщает косвенно, что в этом случае ни анонимизироваться, ни шифроваться,  ничего не случится, потому что предполагается пользоваться информацией только для помощи пациентам. 
Также Free и Google ссылались на предполагаемое согласие, как в ситуациях, когда врач демонстрирует результаты лабораторных исследований медсестре и другому врачу или историю болезни. Подразумевается, что подобные ситуации разумеются само собой и получать для подобных действий специальное информированное согласие пациента не требуется. Имелось в виду, что то, чем DeepMind Health занимается, сопоставимо с тем, что врачи и медсёстры делают для больных. Но информационный уполномоченный сказал, что предполагаемое согласие обычно применяется в ситуациях, когда врач и медсестра или оба врача находятся под одной крышей. Если же врач желает показать коллеге историю болезни дома или в другой клинике, для этого уже необходимо согласие пациента. Когда речь идет о больших массивах данных необходимо согласие каждого пациента. 

Другие возможности: или чрезвычайная ситуация в области здравоохранения, когда персональные данные требуются в национальных интересах, или решение суда. Решения суда у Google не имеется, а попытка представителей сторон, которые подписали меморандум, оперируя статистикой смертности от заболеваний, на борьбу с которыми производимые DeepMind вычисления направлены, представить эту ситуацию в качестве чрезвычайной не встречают понимания среди их оппонентов. 

В поисках решения Royal Free и Google  также хотели дело представить таким образом, словно никуда никакая информация не передавалась, а была только лишь загружена в новый медицинский прибор, каким и является DeepMind Health. Но оппоненты и тут нашли, к чему можно придраться: по закону, перед вводом в эксплуатацию каждый медицинский прибор обязан получить одобрение Medicines and Healthcare products Regulatory Agency (MHRA, это британский регулятор в сфере здравоохранения). Но ни фонд, ни Google подобного одобрения не получали.
С точки зрения закона Google неправ всюду, но всё пока ограничивается публичными спорами: преследуются такие нарушения только в том случае, когда их результатом становится совершение тяжелого преступления. Тогда нарушителю грозит штраф в размере пяти тысяч фунтов стерлингов или тюремное заключение сроком в шесть месяцев.

Отвечая на страхи защитников персональных данных, Мустафа Сулейман -соучредитель DeepMind  - заявил в заявлении для Computer Weekly:

«Мы сотрудничаем с клиницистами Royal Free для того, чтобы понять, каким образом технологии могут вовремя помочь врачам заметить ухудшение состояния пациента, например — острую почечную недостаточность. Мы всегда придерживаемся очень высоких стандартов защиты данных пациентов. Их будут использовать лишь в целях улучшения здравоохранения и  не будут никогда связаны с продуктами или учётными записями Google».

Прежде британские защитники персональных данных сильно возмущались, наоборот, тем, что DeepMind Health пользуется как раз анонимизированными данными (речь о выше упоминавшемся сканировании миллиона анонимизированных снимков сетчатки в сотрудничестве с больницей «Мурфилдс Ай»). Недовольные говорили, что пациент имеет право потребовать удаления любых связанных с ним данных из любого массива, в том числе и анонимизированного, и от Google требовали обеспечить подобную возможность.

Киберпреступность и кибертерроризм

Бре́ши в информационной безопасности систем искусственного интеллекта и их периферии чреваты не только нарушением приватности, но даже прямыми угрозами жизни и здоровью. Наиболее популярные у алармистов примеры: удалённый взлом кардиостимулятора и намеренное «переучивание» диагностическо-рекомендательной системы на предложение смертельно опасного процедуры или лекарства. В критическом случае это способно привести к массовым убийствам. Так что носимые устройства должны быть защищены надёжно от внешних атак. Но какую защиту можно считать надёжной? И кто надёжность оценивает? А кто станет отвечать, если что-то такое всё же случится? Клиника? Врач? Разработчик интеллектуальной системы? Или может специалист по информационной безопасности?

Самолечение и сокращение числа рабочих мест в медицине

Сомнительно, что средний врач как-то обдумывает возможность стать виноватым из-за ошибки искусственного интеллекта, но в целом у врачей тоже отсутствует стимул к внедрению интеллектуальных систем. Где-то функционирует система, согласно которой вознаграждение врача прямо пропорционально затраченному на пациента времени, и, если искусственный интеллект станет ставить правильный диагноз за пять секунд, услуги врача немедленно обесценятся, как минимум, «в среднем по больнице». И если один врач, благодаря искусственному интеллекту, сможет принимать в пять раз больше пациентов, четверых из-за этого придётся уволить.

Есть также целые регионы, жители которых уже сегодня массово предпочитают врачу поиск в Google. Если же им будет доступен искусственный интеллект, ставящий диагноз и предлагающий терапию, при рабочих местах там из медиков останутся разве что хирурги, стоматологи и процедурные сёстры. Не факт, что это пойдёт на пользу общему уровню здоровья, но — как убедить ходить к врачу человека, который и раньше ему не доверял, а теперь ещё и имеет доступ к машинной диагностике? И куда деваться тем медикам, которые останутся из-за искусственного интеллекта без работы?

Пока не врачи, но уже рядом

Как сообщает The Guardian, 5 января сего года японская компания Fukoku Mutual Life Insurance, занимающаяся преимущественно медицинским страхованием, объявила об увольнении 34 сотрудников в связи с началом эксплуатации удалённого интерфейса когнитивной системы IBM Watson — Watson Explorer.
Fukoku Mutual Life Insurance полагает, что, благодаря искусственному интеллекту, увеличит производительность на 30% и окупит вложения в него менее чем за два года, а также сэкономит в этом году более 100 миллионов иен на текущих расходах.

Watson Explorer понимает естественный язык, распознаёт символы и изображения и сможет читать десятки тысяч медицинских справок и учитывать продолжительность пребывания в больнице, медицинские истории и любые хирургические процедуры для расчёта страховых выплат. Причём будет делать всё это значительно быстрее и качественнее, чем уволенные 34 сотрудника. Последних, впрочем, всё это едва ли обрадует.

«Серая» правовая зона и законодательные барьеры

 

Гигантские массивы данных, в т. ч. персональных, всё равно, так или иначе, собираются и используются — в эпоху глобальных информационных сервисов с миллиардами пользователей иначе и быть не может, но легальность этого — под вопросом. Права собственности, права на использование открытых для искусственного интеллекта персональных данных, а также вопросы разграничения ответственности при эксплуатации искусственного интеллекта в медицине требуют законодательного регулирования.

И тому, чтобы это регулирование происходило быстро, трезво, эффективно и с пользой для людей, есть несколько серьёзных препятствий.
Во-первых, это недостаточный уровень экспертизы, понимания законодателями и правительственными чиновниками, что собственно нужно сделать, так как отрасль новая и готовых кейсов попросту не существует. Придётся действовать методом проб и ошибок, а ошибки в деле здравоохранения особенно опасны, ведь идёт о жизни и здоровье людей.

Во-вторых, национальные государства не очень-то охотно отдают права на оперирование данными граждан кому-то, кроме более или менее подконтрольных им структур. Особенно опасаются они делиться этим ресурсом с международными организациями и частными, более всего — иностранными, компаниями. Им видится в этом, и не без оснований, частичная потеря суверенитета над гражданами, потеря существенного ресурса и утрата толики властных функций. Именно отсюда проистекает, например, вся отечественная катавасия последних лет — с «иностранными агентами» и требованием к транснациональным сервисам держать серверы с данными граждан РФ на её территории.

Наконец, законодатели, как и простые люди, в какой-то степени находятся в плену стереотипов и страхов, начиная от страха перед реальными опасностями, тем же кибертерроризмом, тем возможным ростом безработицы среди медиков, и заканчивая элементарными неофобией и мракобесием.

При отсутствии же законодательного регулирования, тот, кто взялся бы развивать и продвигать сервисы искусственного интеллекта на конкретной территории (развитие клиентской базы, налаживание взаимодействия со структурами местной здравоохранительной системы, языковая локализация и т. п.), вынужден был бы действовать на свой страх и риск и быть готовым к тому, что в любой момент всё, что он делает, может оказаться уже не в «серой», а в «чёрной» зоне, то есть вне закона. Со всеми вытекающими экономическими, правовыми и моральными последствиями.

Безусловно, прогресс не остановить, потребность в широком медицинском применении сервисы существует, основанные на нём услуги всё чаще востребованы и так или иначе будут оказываться. Но если они окажутся на символической территории «чёрного рынка», это не только отпугнёт от данной отрасли многих специалистов и пациентов, но и лишит людей гарантий контролируемого стандарта и защиты, создаст условия для процветания имитаторов и поставщиков заведомо некачественных услуг.

Заключение

Несмотря на все проблемы, описанные выше, сама логика развития общества и технологий позволяет надеяться на лучшее. В конце концов, никакие усилия RIAA, РАО и т. п. не убили ни файлообменные сети, ни звукозаписывающую технику, интернет развивается вопреки Роскомнадзору, «великому китайскому файрволу» и различным ограничивающим актам национальных государств, антиГМО-алармисты не могут остановить развитие генетики. Так и искусственный интеллект пришёл уже в медицину, работает уже с данными и остановить это невозможно. Можно только сделать его дальнейшее проникновение быстрее, комфортнее и безопаснее — или же наоборот — затруднить, замедлить, наломать дров.
И в силах каждого — противостоять второму сценарию и работать на первый сценарий. Для этого необходимо: 
1. Помогать организациям, которые разрабатывают медицинские системы искусственного интеллекта, собирать данные, для этого пользоваться носимыми устройствами и упомянутыми в этой статье приложениями и подобными им.
2. Обращаться к уже существующим системам искусственного интеллекта за помощью при диагностировании, будь вы врач или пациент, показывать их своим лечащим врачам.
3. Создавать позитивное общественное мнение в отношении использования искусственного интеллекта в медицине, вести разъяснительные работы, помогать людям справляться с фобиями и стереотипами.
4. В странах, где законодатели смльно зависят от избирателей, стремиться инициировать принятие невраждебных к медицинскому искусственному интеллекту законодательных актов, которые регулируют неясные на настоящий момент вопросы (к примеру, вопрос о приватности информации о состоянии здоровья, вопрос открытия для систем искусственного интеллекта историй болезни, вопрос разграничения ответственности в разных ситуациях, которые возникают при использовании искусственного интеллекта в лечении и диагностике).
И если широкое общественное движение сможет сформировать многомиллионный и все время растущий спрос, если люди массово осознают, что это им нужно, и начнут требовать и пользоваться, ситуация сама станет способствовать выработке социального консенсуса по вопросам, ставящим пока что в тупик, а за ним подтянутся неминуемо и законодательная база, и всенародное участие в сборе данных. И тогда, вероятнее всего, инвестиции, сейчас осуществляемые в искусственным интеллектом в медицине, смогут дать желаемый результат.