Иногда бывает так, что этические барьеры сами по себе проявляются не настолько явно, но реализуются через законодательные ограничения. Несмотря на успехи беспилотных автомобилей, они разрешены далеко не во всех странах, и даже в тех, где они разрешены, сторонние разработчики часто сталкиваются с проблемами. Показательным является пример хакера Джорджа Хоца, который представил устройство Comma One. Оно всего за $1000 дает возможность установить автопилот на «обычный» автомобиль. Его инициатива столкнулась с бюрократизмом властей. В 2016 года Джордж Хоц сообщил о получении такого письма от Национального управления безопасностью движения на трассах (NHTSA):

«Мы озабочены, что ваш продукт подвергает риску безопасность ваших пользователей и других участников дорожного движения. Мы настоятельно рекомендуем отложить продажу или вывод своего продукта на дороги общего пользования до тех пор, пока вы не убедитесь в том, что он безопасен». Администрация NHTSA потребовала от Джорджа Хоца в соответствии с требованиями закона Safety Act ответить на это письмо и прислать указанную в письме информацию по продукту.

Если что-то новое постепенно появляется за, скажем, сто лет, человечество к этому новшеству может приспособиться, как бы сильно оно нашу жизнь не меняло. А если что-то за два года появляется, многие психологически не успевают адаптироваться к изменениям, которые принесла новая технология, какой бы полезной и нужной данная технология ни была. И на примере негативного отношения к первым покупателям Google Glass мы замечаем, что даже молодые люди не успевают подстроиться под новый мир.

Это приводит к тому, что людям бывает часто некомфортно в технологическом мире, который быстро меняет. Следствием стал страх человека перед новыми технологиями. В генетике — это редактирование генома. В нейротехнологиях в качестве примера можно назвать инвазивные интерфейсы. Страх настолько велик, что даже во многих научно-фантастиких книгах люди свои страхи отождествляют с отрицательными персонажами: к примеру, борги в «Звездном пути» — это киборги, которые в первую очередь заботятся об «ассимилировании» всего живого для все большего технологического совершенствования самих боргов.

Является ли данная некомфортность «родовым» недостатком самих технологий? Нет, сами по себе технологии не могут быть «плохими» или «хорошими». Психологическое влияние оказывают на нас, скорее, новые «протоколы» взаимодействия между людьми, новые противопоставления состояний человека (реальная реальностьи виртуальная реальность, подключенность-неподключенность к нейроинтерфейсу). А все это относится больше не к технологическим, а к гуманитарным изменениям. Именно гуманитарные изменения за технологиями не поспевают, как линейная функция не поспевает за экспонентной.

Технологии: быстрые, мощные, общедоступные

Раньше чтобы навредить глобальной цивилизации, нужно было создать ядерное оружие, а это требовало сложных компетенций, многих лет НИОКР и огромных капиталовложений. Теперь такой вред можно нанести, например, редактированием генома вируса, и это не требует ни большого числа людей, ни денег, ни времени. Набор для редактирования генома комнатных растений вы можете купить себе или своему ребенку за $100. Это приводит к тому, что в разы больше игроков получают доступ к таким возможностям, А значит, нам придется научиться гораздо лучше договариваться. Доверять. Не стоит ли попробовать заменить ее на риторику кооперации и доверия? «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви». — сказал в одном из интервью BigThink Стивен Хокинг.

Люди зря боятся новых технологий. Бояться нужно людей

До изобретения cильного искусственного интеллекта (теория сильного искусственного интеллекта предполагает, что компьютеры научатся самостоятельно мыслить и осознавать себя), человек остается единственным существом, способным к целеполаганию. Ни одно приложение мессенджера не отправило свой ключ шифрования спецслужбам по собственному желанию. Ни одна молекула химического оружия не имела собственного желания нас уничтожить. Лишь целеполагающий человек может использовать технологии во благо или во вред. С любым набором технологий можно построить как свободное общество, так и тоталитаризм. Технологии этически нейтральны, их наличие лишь расширяет наше пространство выбора.

Идентичность. Кто это — человек будущего?

В первую очередь стоит рассматривать технологии, меняющие человеческую идентичность, потому что варианты применения таких технологий могут изменить образ будущего в самом широком спектре сценариев: от наиболее позитивных до наиболее негативных. Речь идет о биотехнологиях (в том числе редактирование генома), нейротехнологиях, киборгизации и других. Какой может быть новая идентичность человечества, наше самоопределение? В век, когда критерий «сотворен Богом» уже устраивает далеко не всех, а критерий, предложенный новым временем — «определенный геномом homosapience» уже разваливается под натиском CRISPR, когда нейронные сети могут копировать нас до степени прохождения визуального, текстового и прочих Тестов Тьюринга, что остается нам, людям, как критерий человечности, кто это такой — человек ближайшего будущего?

Будущее как пространство личной ответственности

Как можно было бы решить эти проблемы? Все мы наверняка замечали, что гораздо сложнее терпеть те неудобства, которые нам навязали извне, и гораздо проще — те, которые есть следствия наших собственных решений. Продолжая эту мысль, одним из вариантов решения проблемы принятия инноваций является переход от отношения к будущему как к неизбежным обстоятельствам, изменениям (не важно — плохим или хорошим), которые нам навязываются, к отношению к будущему как к пространству нашей персональной ответсвенности, пространству творчества, недетерминированной системе. Было бы целесообразно не только сформировать образ желаемого будущего, но и увидеть свою личную позицию в нём.

Если проследить этапы автоматизации нашей жизни, мы увидим, что с самого начала технологической истории человечество делегировало машинам все больше: сначала физический труд, потом  - хранение информации и вычисления, затем — анализ данных. И вот сейчас технологии глубокого обучения нейронных сетей позволяют на основе данных создавать новый контент, принципиально отличающийся от исходного. Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру. То есть если бы нам не помогал компьютер, мы бы не стали более умными, чтобы построить коллайдер без его помощи, — мы бы не построили его вовсе.

Но это тенденция показывает нам, что ее экстраполяция приведет к тому, что уже при нашей жизни большая часть деятельностей будет передана роботам и ИИ, то людям останется лишь создание смыслов самого высокого уровня, целеполагание и коммуникация. Люди без собственной повестки будут выдавливаться из общества (быть может, они будут получать, скажем, безусловный базовый доход, — но только лишь финансовая независимость делает нас счастливыми?).

А вот с собственной повесткой и целеполаганием у нас имеются проблемы — мы совсем к такому будущему не готовы. Я люблю задавать людям вопрос: что бы вы делали, если бы вам не нужно было зарабатывать деньги? Это очень сложный вопрос. Нам с детства говорили «учись или будешь голодать», «работай или будешь голодать». В итоге мы почти не можем выстроить проактивную позицию по отношению к миру. Наш мир в большей степени мир наемных сотрудников, а не целеполагающих людей. У этого вопроса есть и следующий уровень сложности: а если все же я сам себе хозяин, то и вся ответственность на мне. Я смотрю сериалы дома после работы, а не помогаю детям в Африке, не потому, что мне самому нужно работать и зарабатывать деньги, чтобы не умереть, а потому, что это мой выбор, и мне нужно его принять, так ведь? Ну, а дальше есть третий уровень сложности — а если все же менять мир, то как? Все дороги открыты, что выбрать? Это проблема «Буриданова осла».

Мы летаем в космос, но не очень далеко, а закон Мура упирается в квантовые краевые эффекты. Мир директивного управления человеческой деятельностью, мир, который живет в традиционной, иерархической парадигме, многогодостиг, но, вероятно, мы подходим к барьерам, которые он не способен решить. И, может быть, именно критическое увеличение числа возможных форм деятельности, которое мы получим, если сумеем совместить введение безусловного базового дохода и помощь людям в нахождении новых смыслов, нам поможет эти барьеры преодолеть. Поэтому введение безусловного базового дохода является необходимым, но не достаточным условием.

И какое же это будущее? Вечная дискуссия — идеалы против методов

Желаемый образ будущего для всех различный, конечно, хотелось бывсе же формировать будущее, которое включает различные ценности: свобода выбора, разнообразие, развитие и выживание человечества, уважение к человеческому достоинству. Но как нам совместить работу на все эти разные образы будущего, которые формируются разными людьми? Тут надо было бы использовать принцип «свобода одного человека заканчивается там, где начинается свобода другого человека». Это подводит нас к идее: важными являются не столько идеалы и цели, сколько методы, с которыми мы к ним идем. Мораль идеалов приводит к тоталитаризму, мораль методов приводит к гуманизму. Очень важно то, какие сегодня мы используем методы и ценности для прототипирования будущего. Наша жизнь в настоящий момент перетекает в будущее так, что мы этого и не замечаем.