Могут ли технологии заменить людям психологов? Искусственный интеллект уже умеет помогать людям не срывать негативные эмоции на близких, совместно заботиться о детях после развода и выстраивать здоровые отношения. Технологии анализируют поведение пользователей, определяют настроение по мимике, интонациям и лексике, а на основе полученных данных оценивают уровень агрессии, советуют выбирать нетоксичные формулировки в мессенджерах и вовремя обнимать родных. О том, каким образом ИИ влияет на отношения, рассказываем в переводе статьи журналиста Wired Уилла Колдвела: как подсказки в телефоне могут в корне изменить мышление человека? в чем особенности компьютерного «рентгена отношений»? каким становится общение под контролем приложений? и что будет, если искусственный интеллект начнёт управлять человеческими эмоциями?
В мае 2021 года Twitter, печально известный резкими высказываниями вспыльчивых пользователей, запустил функцию «Подсказки», которая предлагает дважды подумать, прежде чем отправить твит. В следующем месяце Facebook объявил о своем нововведении «Предупреждение о конфликте» для сообществ в соцсети. Эта технология будет уведомлять администраторов, чтобы те приняли меры в случае возможных «споров и нездоровой коммуникации». Системы электронной почты и смарт-ответы заканчивают за нас миллиарды предложений каждый день. Halo, фитнес-браслет, выпущенный Amazon в 2020 году, отслеживает тон вашего голоса. Хорошее самочувствие теперь — это не только про отслеживание пульса и подсчёт шагов, но и про манеру общения с окружающими. Уже разрабатываются терапевтические инструменты для прогнозирования и предотвращения негативного поведения, основанные на алгоритмах ИИ.
Профессор коммуникаций в Стэнфордском университете Джефф Хэнкок определяет общение, регулируемое ИИ, как процесс, при котором «интеллектуальный агент действует от имени коммуникатора, изменяя, дополняя и генерируя сообщения для достижении цели коммуникации». Эта технология, по его словам, уже широко используется.
За всем этим стоит растущее убеждение в том, что людские взаимоотношения в шаге от совершенства. С начала пандемии они всё больше зависят от каналов, управляемых компьютерами. В бурлящем океане онлайн-перепалок, бесконечных токсичных сообщений в Slack и Zoom, могут ли алгоритмы помочь нам быть добрее друг к другу? Сможет ли приложение понять наши чувства лучше, чем мы сами? Или передача нашей коммуникации под управление искусственного интеллекта разрушит то, что делает человеческие отношения человеческими?
Код совместного воспитания. Как ИИ помогает разведенным парам налаживать отношения
Можно сказать, что Джей Киссун вырос в среде семейного права. Его мать Кэтлин Киссун была адвокатом в этой отрасли, и когда Джей был подростком, он часто зависал в её офисе в Миннеаполисе и помогал разбираться с документами. В то время «модные копировальные машины» еще не появились, поэтому Джей проводил много времени, перебирая бесконечные стопки бумаг, «летающие» в коридорах юридической фирмы, а также подслушивая разные истории о том, как могут разрушаться семьи.
В этом смысле мало что изменилось для Киссуна, который сегодня является соучредителем компании «Наш семейный волшебник», помогающей разведённым парам вести коммуникацию и договариваться о совместном воспитании детей. Задумка принадлежала его матери Кэтлин, а Джей разработал бизнес-план, сначала запустив «Наш семейный волшебник» как веб-сайт. Вскоре это привлекло внимание тех, кто работает в правовой системе, включая судью Джеймса Свенсона, который в 2003 году запустил пилотную программу на платформе Киссуна в суде по семейным делам округа Хеннепин, Миннеаполис. В проекте участвовали 40 семей, которых Джей назвал самыми «хардкорными». Они зарегистрировались на платформе и «исчезли из судебной системы». Некоторые возвращались в суд через пару лет, но только потому что прекращали пользоваться проектом Киссуна.
Два десятилетия спустя «Наш семейный волшебник» был одобрен на всей территории США — её попробовали уже около миллиона человек. В 2015 году платформу запустили сначала в Великобритании, а годом позже в Австралии. Сегодня она действует в 75 странах; существуют и аналогичные продукты — CoParenter, Cozi, Amicable, and TalkingParents. Секретарь секции семейного права Американской ассоциации юристов Брайн Карпф говорит, что многие юристы теперь рекомендуют клиентам приложения по совместному воспитанию детей на постоянной основе, особенно когда паре необходимо «остыть» и общаться более конструктивно. Использование таких приложений также может быть назначено судом в качестве сдерживающего фактора возможного насилия.
В попытке сделать общение более вежливым ИИ становится всё более важным инструментом. В «Наш семейный волшебник» есть функция «Тонометр», которая анализирует настроение человека и отслеживает содержание его сообщений, отправляемых в приложении. «Это вроде знака „Стоп“ или „Уступи дорогу“», — говорит Киссун. Анализ настроения — это сумма обработки естественного языка и анализа человеческой речи. Обученные на обширных языковых базах данных алгоритмы разбивают текст на фрагменты и оценивают их по настроению и эмоциям. Тонометр обнаруживает в сообщении очень эмоциональные фразы, помечает их красным и дает оценки проблемным словам. Например, фраза «Ты виноват в том, что мы опоздали» будет помечена как «агрессивная». Другие реплики могут быть помечены как «унизительные» или «расстраивающие». Однако пользователь сам решает, хочет ли всё ещё нажать «отправить».
Тонометр изначально использовался в только в сервисе обмена сообщениями, но теперь такая функция доступна для всех случаев коммуникации между родителями. Шейн Хелгет, руководитель продукта, говорит, что скоро такая функция будет не только предотвращать токсичное общение, но и способствовать позитивному. Он собирает информацию из огромного количества взаимодействий разведенных родителей, чтобы понять, как приложение может подтолкнуть пользователей к налаживанию позитивных отношений и вне обычных разговоров. Например, через напоминания о том, что нужно заранее сообщить своё расписание, предложения поменяться датами на дни рождения и праздники. Это необязательные жесты, но они могут быть позитивно восприняты собеседником.
CoParenter, запущенный в 2019 году, также использует анализ настроения. Родители ведут переговоры с помощью текстовых сообщений, и если фраза получается слишком враждебной, то появляется предупреждение. Приложение работает как медиатор в переговорах и даже может попросить своих клиентов замолчать. Если же с помощью платформы стороны не приходят компромиссу, у системы есть возможность пригласить живого человека в чат.
Использование приложения для таких эмоционально напряжённых переговоров не лишено проблем. Киссун сознательно не хотел разрешать Тонометру оценивать, кто из родителей проявляет больше или меньше негатива, а Карпф сказал, что видел определённый эффект этого решения: «Общение становится более роботизированным, — говорит он, — как будто теперь ты пишешь для публики».
Приложения для совместного воспитания могут помочь наладить проблемные отношения, но они не могут решить все сложные ситуации. А иногда даже могут сделать все ещё хуже. «Если родитель — придурок, то он всегда таким останется», — говорит Карпф, подчёркивая, что некоторые используют приложение в качестве оружия и отправляют сообщения-приманки, чтобы «завести» своего супруга и подтолкнуть его к отправке негативного ответа. Киссун вспоминает разговор со Свенсоном, когда тот только запустил пилотную программу: «Нужно помнить, что я могу дать тебе отвёртку, и ты сможешь починить с её помощью множество вещей. Или ты можешь ткнуть ей себе в глаз» — сказал тогда судья.
Компьютер сказал обнять. Как ИИ помогает контролировать эмоции
В 2017 году Адела Тиммонс была докторантом психологии, проходила стажировку в Калифорнийском университете и больнице общего профиля в Сан-Франциско — там она работала с малообеспеченными семьями, в которых были маленькие дети, пережившие травму. Адела заметила, что пациенты добивались прогресса в терапии и потом теряли его в хаосе повседневной жизни между сеансами. Она посчитала, что технологии могут «преодолеть разрыв между кабинетом терапевта и реальным миром» и увидела потенциал в портативных технологиях, которые могут вмешиваться в момент возникновения проблемы.
На практике это «Своевременное адаптивное вмешательство». В теории эти технологии похожи на терапевта, готового шептать вам на ухо, когда зазвенит тревожный звонок. «Но чтобы сделать это эффективно, необходимо почувствовать интересующее поведение или уметь обнаруживать его удалённо», — говорит Адела Тиммонс, теперь уже директор лаборатории технологических вмешательств в экологические системы (TIES) в Международном университете Флориды.
Исследование Тиммонс включает построение компьютерных моделей человеческого поведения и направлено на создание алгоритмов, которые могут эффективно предсказывать поведение в парах и семьях. На начальном этапе разработки исследователи подключили 34 молодые пары к наручным и нагрудным мониторам и отслеживали их температуру тела, сердцебиение и потоотделение. Также они дали подопечным смартфоны, которые прослушивали их разговоры. Участники исследования проходили ежечасные опросы, в которых описывали своё эмоциональное состояние и любые споры, возникавшие между ними. Затем, использовав полученные результаты, Тиммонс и её команда разработали модели для определения момента, когда у партнёров были высокие шансы поссориться. Триггерными факторами стали высокое сердцебиение, частое использование слова «ты» и контекстуальные элементы, например, время суток и количество света в комнате. «Не существует одной переменной, которая считается сильным индикатором неизбежного скандала, — объясняет Тиммонс (хотя вождение в пробках Лос-Анджелеса было одним из основных факторов), — Много фрагментов информации должны использоваться в модели в сочетании. Тогда можно приблизиться к уровням точности алгоритма, который действительно будет работать в реальном мире».
Тиммонс расширяет эти модели, чтобы посмотреть на динамику семьи, уделяя особое внимание улучшению связей между родителями и детьми. TIES разрабатывает мобильные приложения, которые нацелены на пассивное восприятие положительных взаимодействий через смартфоны, Fitbits и Apple Watch (идея состоит в том, что программы должны работать с существующими потребительскими технологиями). Для начала собираются данные — преимущественно сердцебиение, тон голоса и язык. Оборудование также определяет физическую активность и то, находятся ли родитель и ребенок вместе.
В исследовании пар алгоритм с точностью 86% обнаруживал конфликты и мог провести корреляцию с эмоциональными состояниями, о которых респонденты сообщали сами. В контексте семьи есть надежда, что приложение сможет активно вмешаться, обнаружив конфликтное состояние. «Это может быть подсказка, например, «Обними или похвали своего ребёнка»», — говорит Тиммонс, — Мы также работаем над алгоритмами, которые смогут определять негативные состояния и помогать родителю регулировать свои эмоции. Когда эмоции родителей регулируются, дела идут лучше».
Контекстуальная информация (хорошо ли человек поспал, занимался ли он спортом сегодня) помогает улучшить показатели предсказуемости. Подсказки алгоритма могут принимать форму предложения помедитировать, сделать дыхательные упражнения или попробовать некоторые методы когнитивно-поведенческой терапии. Приложения осознанности уже существуют, но они полагаются на то, что пользователь не забудет использовать их в тот момент, когда он, вероятно, рассердится, расстроится или будет эмоционально перегружен. «На самом деле, это те моменты, когда вы меньше всего можете использовать свои когнитивные ресурсы», — говорит Тиммонс. — Мы надеемся, что сможем пойти навстречу человеку, предупредив его о тот момент, когда ему нужно использовать навыки саморегуляции». Из её опыта работы с семьями следует, что традиционная структура терапии — 50-минутные сеансы один раз в неделю — необязательно самый эффективный способ изменить ситуацию. «Я думаю, что исследователи этой области начинают проявлять более явный интерес к тому, можем ли мы расширить науку о психологическом вмешательстве», — говорит Адела.
Работа поддерживается грантом от Национальных институтов здравоохранения и Национального научного фонда для создания коммерчески жизнеспособных технологических систем. Тиммонс надеется, что исследование приведет к доступной, масштабной и устойчивой психологической помощи. Как только в её лаборатории появятся данные, доказывающие, что проект эффективен и безопасен для семей, необходимо будет принять решение о том, как можно использовать такую технологию.
Поскольку здравоохранение, основанное на данных, расширяется, проблемой становится конфиденциальность пользователей. Apple находится на полпути к завершению исследования, начатого в 2020 году совместно с Калифорнийским университетом в Лос-Анджелесе. Его цель — установить, могут ли iPhone и Apple Watch обнаруживать случаи депрессии и расстройства настроения и, в конечном итоге, предсказывать их и влиять на ситуацию. В рамках проекта данные будут использоваться даже о том, как пользователь двигается и печатает на своём устройстве. Собирать информацию будут в том числе с камеры iPhone и аудиодатчиков. Apple намеревается защитить пользовательские данные, прошив алгоритм на самом телефоне и ничего не отправляя на свои серверы.
Тиммонс говорит, что в лаборатории TIES никакие данные не передаются и не продаются, за исключением случаев, связанных с причинением вреда и абьюзом. Она считает важным, чтобы учёные, разрабатывающие эти технологии, думали о возможных злоупотреблениях: «Обеспечение допустимых пределов в этом пространстве является совместной обязанностью научного сообщества с законодателями и общественностью».
Следующий шаг — протестировать модель в режиме реального времени, чтобы увидеть, эффективны ли они, действительно ли подсказки в телефоне приводят к значительным изменениям в поведении. «У нас есть много веских причин и теорий, чтобы думать, что это будет действительно мощный механизм вмешательства, — говорит Тиммонс, — Мы просто еще не знаем, насколько хорошо он работает в реальном мире».
Рентген отношений. Как ИИ улучшает консультативную помощь
Идея о том, что датчики и алгоритмы могут разобраться в сложностях человеческих взаимоотношений, не нова. Для психолога отношений Джона Готтмана любовь всегда была игрой чисел. С 1970-х годов он пытался количественно оценить и проанализировать алхимию отношений.
Готтман проводил исследования пар, наиболее известные из которых прошли в «Лаборатории любви», исследовательском центре Вашингтонского университета, который он основал в 1980-х годах. Версия этой лаборатории до сих пор действует в Институте Готтмана в Сиэтле, основанном его женой Джули Готтман, коллегой-психологом, в 1996 году. В терминах романтической комедии, «Лаборатория любви» похожа на вступительную сцену «Когда Гарри встретил Салли», совмещённую со сценой из фильма «Знакомство с родителями», когда Роберт Де Ниро проверяет своего будущего зятя на детекторе лжи. В «Лаборатории любви» людей соединяли проводами по двое и просили поговорить между собой — сначала об истории их отношений, затем о конфликте, в то время как различные механизмы отслеживали их пульс, потоотделение, тон голоса и то, как сильно они ёрзали в кресле. В отдельной комнате, заполненной мониторами, каждое выражение лица кодировалось обученными операторами. «Лаборатория любви» собирала данные о том, как пары взаимодействуют и передают свои чувства.
Это исследование привело к появлению «метода Готтмана» в сфере консультирования по вопросам отношений. В соответствии с ним важно поддерживать соотношение положительных и отрицательных взаимодействий в пропорции 5:1. Например, представим, что партнёр просит обратить на него внимание. Если вероятность того, что ему откажут, достигает 33% — это считается катастрофой. При этом закатывание глаз тесно связано с разрушением семьи. «Отношения не так уж и сложны», — говорит Джон Готтман из своего дома на острове Оркас, штат Вашингтон.
Готтманы тоже внедряют свои исседования в сферу искуственного интеллекта. В 2018 они основали стартап Affective Software для создания онлайн-платформы оценки отношений и рекомендаций для их улучшения.
Началось всё со встречи в реальной жизни, с дружбы, которая зародилась много лет назад: тогда Джули Готтман встретила Рафаэля Лисицу, ветерана Microsoft, у школьных ворот, где они оба ожидали своих дочерей. Лисица, сооснователь Affective
Software, теперь разрабатывает виртуальную версию «Лаборатории любви», где пары могут сделать «рентген» своих отношений через камеру на компьютере, айфоне или планшете. Здесь также наблюдают за тоном голоса и пульсом. Это показатель того, как далеко продвинулось распознавание эмоций или «аффективная обработка данных». И хотя в «Лаборатории любви» Готтмана были экраны и устройства, всё равно был специально обученный человек, который просматривал экраны и кодировал каждую реплику. Готтман не верил, что получится обойтись без человеческого элемента. «Очень немногие люди могут действительно чутко кодировать эмоции, — говорит он, — Они должны были быть музыкальными. У них должен был быть некоторый опыт работы в театре… Я никогда даже не мечтал о том, что машина сможет это сделать».
Не все убеждены в том, что технологии на это способны. Искусственный интеллект, распознающий эмоции — территория изменчивая. Он в значительной степени построен на идее об универсальном выражении эмоций, которая была разработана в 1960-х и 1970-х на основе наблюдений Пола Экмана. Он также создал систему кодирования выражений лица, на которой базируется работа Готтманов и программное обеспечение большей части «аффективной обработки данных». Некоторые исследователи, такие как психолог Северо-восточного университета Лиза Фельдман Барретт, задаются вопросом, можно ли надёжно определить эмоции по выражению лица. И хотя некоторые программы по распознаванию лиц уже широко используются, среди них есть случаи расовой предвзятости: одно исследование, в котором сравнивались две популярные программы, показало, что они чаще приписывали негативные эмоции чернокожим людям, чем белым. Готтман говорит, что «Лаборатория любви» натренирована на базах данных со всеми типами лиц, и её система кодирования взаимодействий была протестирована на разных группах людей в США, включая афроамериканцев и американцев азиатского происхождения. «Мы знаем, что культура влияет на то, как люди выражают или маскируют эмоции, — объясняет он, — Мы наблюдали за этим в Австралии, Великобритании, Южной Корее и Турции. Похоже, что разработанная мной система аффектов действительно работает. Будет ли она работать во всех культурах? Этого мы не знаем».
Готтман добавил, что на самом деле «Лаборатория любви» работает на социальной системе кодирования, принимает во внимание тему разговора, тон голоса, язык тела, выражения лица. Она менее нацелена на определение единичной эмоции в данный момент, вместо этого анализирует общие качества взаимодействия. Соедините их вместе, говорит Готтман, и вы сможете с большей достоверностью определить такие эмоции, как гнев, печаль, отвращение и презрение. Когда в проекте принимает участие пара, им предлагается ответить на подробную анкету, а затем записать два 10-минутных разговора. Один — это обсуждение прошедшей недели, а другой — конфликта. После загрузки видео пара оценивает свое эмоциональное состояние на разных этапах разговора по шкале от 1 (очень негативно) до 10 (очень позитивно). Затем приложение анализирует это вместе с обнаруженными сигналами и предоставляет результаты, включая соотношение положительного к отрицательному, показатели доверия и ужасных «Четырех всадников Апокалипсиса»: критики, защитной реакции, презрения и отказа от общения («выстраивания стены»). Всё это должно быть использовано в сочетании с сеансами терапевта.
Терапевтические и психиатрические услуги все чаще предоставляются с помощью видеозвонков — после пандемии этот сдвиг ускорился. По словам аналитиков McKinsey, венчурные инвестиции в виртуальный уход и цифровое здравоохранение утроились после Covid-19, а чат-боты для терапии ИИ, такие как Woebot, становятся популярными. Приложения для консультирования по отношениям, такие как Lasting, уже основаны на методе Готтмана: система отправляет уведомления, чтобы напомнить пользователям сказать, например, «Я тебя люблю» своему партнеру. Кто-то может подумать, что это сделает нас ленивыми, но Готтманы видят в этом образовательный процесс — вооружение инструментами, которые впоследствии станут нашей второй натурой. Команда уже думает насчёт разработки упрощённой версии, которую можно будет использовать независимо от терапевта.
Для Готтманов, которые вдохновились тем, что многие пары всё равно зависают в своих смартфонах, технология открывает путь к демократизации консультативной помощи. «Люди все больше привыкают к технологии как к языку, — говорит исследователь, — И как к инструменту для улучшения жизни во всех отношениях».
Для тебя, но не от тебя. Как ИИ помогает писать вежливые электронные письма
Эта технология уже повсюду. Она может влиять на ваши взаимоотношения, а вы даже не заметите этого. Возьмем Smart Reply Gmail — те самые подсказки о том, как вы можете ответить на электронное письмо — и Smart Compose, который предлагает закончить ваши предложения. Smart Reply был добавлен как функция для мобильных телефонов в 2015 году, а Smart Compose — в 2018 году; оба работают на нейросетях.
Джесс Хохенштейн, научная сотрудница Корнельского университета, впервые столкнулась с Smart Reply, когда в 2016 году запустили Google Allo, ныне несуществующее приложение для обмена сообщениями. В нём был виртуальный помощник, который генерировал варианты ответов. Она назвала это жутким: «Я не хотела, чтобы какой-то алгоритм влиял на мою манеру речи, но я подумала, что это должно возыметь эффект на людей».
В 2019 году Хохенштейн провела исследования, результаты которого показали, что ИИ меняет то, как мы взаимодействуем и относимся друг к другу. 113 студентов колледжа попросили выполнить задание с партнером, используя Google Allo, при котором один, оба или ни один из них могли использовать Smart Reply. После этого участников спросили, насколько они приписывают коммуникативный успех или неудачу другому человеку (или ИИ) в разговоре. Другое исследование было сосредоточено на лингвистических эффектах: как люди реагировали на положительные или отрицательные «умные» ответы.
Хохенштейн обнаружила, что язык, который люди использовали с помощью Smart Reply, был склонен к позитивному. Люди чаще соглашались с положительным предложением, чем с отрицательным. Также участники часто оказывались в ситуации, когда хотели возразить, но им предлагались только выражения согласия. Эффект заключался в том, чтобы сделать беседу быстрее и мягче — Хохенштейн заметила, что это заставляет людей лучше относиться друг к другу в разговоре.
Научная сотрудница считает, что это может стать контрпродуктивным в профессиональных отношениях: технология (в сочетании с нашей собственной внушаемостью) может отбить у нас желание бросать вызов кому-то или вообще возражать. В попытке сделать наше общение более эффективным, ИИ может выбивать из него настоящие чувства, сводя коммуникацию к обмену фразами «Мне это нравится!» и «Звучит классно!». Для людей, которым и так было тяжело высказывать своё мнение, такая технология может стать дополнительным препятствием.
В исследовании на выполнение задач Хохенштейн обнаружила, что в случае достижения положительных результатов коммуникации, люди говорили, что это их заслуга. Когда что-то шло не так — обвиняли ИИ. При этом алгоритм защищал человеческие отношения и обеспечивал буфер для наших собственных ошибок. Это поднимает более глубокий вопрос прозрачности диалога: следует ли раскрывать информацию о том, что ИИ помог составить сообщение? Когда партнёр использовал функцию Smart Reply, сначала это заставляло получателя чувствовать себя более позитивно по отношению к другому человеку. Однако когда ему говорили, что сообщение написано с помощью искусственного интеллекта, получатель чувствовал себя некомфортно. Это подкрепляет парадокс, связанный с использованием такой технологии: восприятие и реальность не совпадают. «Это кажется людям жутким, однако улучшает межличностное восприятие при общении, — говорит Хохенштейн, — Это нелогично».
В своей статье Хэнкок подчеркивает, как эти инструменты «могут иметь широкомасштабные социальные последствия». А также он определяет программу исследований, направленную на решение проблемы технологической революции, которая произошла у нас под носом. Коммуникация, опосредованная ИИ, может изменить то, как мы говорим, смягчить предвзятость или наоборот её усугубить. Это может заставить нас задуматься, с кем мы на самом деле говорим. Это может даже изменить наше самовосприятие. «Если ИИ изменит сообщения отправителя, сделав их более позитивными, забавными или экстравертными, будет ли отправитель воспринимать самого себя как человека более позитивного, забавного или экстравертного?» — написал он. Если искусственный интеллект слишком сильно завладеет нашими отношениями, то с чем мы на самом деле останемся?
За заглавную иллюстрацию спасибо Юлии Саликеевой!