Цифровое общество в культурно-исторической парадигме - страница 6



Возможность анализа цифровых следов личности, накопленных за десятилетия, с помощью ИИ расширит временную перспективу в прошлое и будущее. Эффекты автобиографической памяти, искажения при прогнозировании человеком своих эмоциональных реакций и поступков, эффект дисконтирования будущего – все это будет корректироваться ИИ на основе нашего реального поведения в прошлом, а также больших данных о поведении других людей. Последствия этих изменений для личности уже сегодня можно моделировать на основе лабораторных экспериментов и анализа Big Data.

Однако искусственный интеллект как инструмент повышения осознанности будет востребован далеко не всеми. Более вероятен спрос на те его функции, которые связаны с когнитивным упрощением действительности. Развитие цифровых технологий, в том числе полномасштабное внедрение машинного обучения в повседневную жизнь, углубляет культурный разрыв между теми, кто готов к неопределенности и выбору, и теми, кто стремится избежать необходимости что-либо выбирать. Искусственный интеллект дает возможность личности переложить ответственность за свои действия на обезличенный алгоритм и его разработчиков. Это уже происходит в сфере таргетированной интернет-рекламы и новостей, где персонализация контента помещает человека в «пузырь» его собственных интересов, отменяя необходимость самостоятельно искать информацию.

Более того, алгоритмы превращаются в «архитектуру выбора», подталкивающую нас к решениям, которые должны повысить качество нашей жизни (Талер, Санстейн, 2017). Даже если в основе такого цифрового патернализма будут либеральные ценности, – что кажется маловероятным в культурах с вертикальным коллективизмом, – использование алгоритмов, корректирующих несовершенство человеческой природы ради благих целей, может способствовать снижению осознанности и рефлексивности общества.

В этой связи нельзя не упомянуть о растущей актуальности исследований, направленных на поиск психологических механизмов, которые делают личность уязвимой в отношении информационных компаний в социальных медиа, опирающихся на технологии ИИ. Сегодня специально обученные нейросети позволяют создавать вымышленный видеоконтент, неотличимый от настоящего. Созданные искусственным интеллектом видеодвойники политиков или значимых для конкретного человека людей могут говорить заданные тексты, обращаться с призывами, которых никогда не произнесли бы их реальные прототипы. Стало возможно управление такими видеодвойниками в режиме реального времени (Memes That Kill, 2018). Использование ИИ позволяет перевести информационные войны в полностью автоматизированный режим, когда нейросети сами скачивают метаданные «мишеней» и анализируют их психологический профиль по цифровым следам в поиске уязвимостей, затем генерируют искусственный видеоконтент с учетом этих психологических профилей, организуют армию ботов для его вброса в социальные сети, таргетируют сообщения для тех пользователей, которые с наибольшей вероятностью перешлют эту информацию своим друзьям, а затем проводят автоматизированную оценку разрушительного воздействия информационной кампании на общество страны-противника.

Сегодня вновь приобретают актуальность исследования конформности и подчинения, однако, в роли авторитетного другого будут выступать не экспериментаторы, а киберфизические системы, искусственный интеллект или специалисты по большим данным, психологически бесконечно далекие для обывателя. Чрезвычайно важно изучить,