Чат-боты могут имитировать эмпатию, но на самом деле они её не испытывают.
Антропоморфизм – это когда мы наделяем человеческими качествами неживые объекты или животных. Чат-боты, такие как ChatGPT, Gemini и Copilot, подталкивают нас к этому, имитируя человеческую речь. Они не просто используют знакомые слова и фразы, а перенимают наши речевые модели, ведут связные контекстные беседы и даже демонстрируют эмоции, например, юмор и эмпатия.
Эти системы используют язык, который делает взаимодействие с ними естественным, плавным и доступным. Что позволяет использовать их в различных ситуациях – от обслуживания клиентов до образования и развлечений.
До недавнего времени язык считался уникальной способностью человека. Однако развитие генеративного искусственного интеллекта (ИИ), лежащего в основе этих чат-ботов, заставляет нас пересмотреть привычную точку зрения.
Одна из наиболее отличительных черт человеческого языка – это субъективность, которая проявляется в словах и выражениях, передающих эмоциональные оттенки, а также в выражении личных мнений, оценок событий и использовании контекстуальных или культурных элементов.
Первое лицо: «Я» и «Мы»
Типичный признак субъективности в языке – использование личных местоимений. Первое лицо – «я» или «мы» – позволяет нам выражать личные мысли и опыт. Второе лицо – «ты» – обращено к собеседнику, устанавливая отношения между двумя участниками разговора. Это называется интерсубъективностью.
Рассмотрим простой пример:
- Пользователь: «Я разбираю вещи дома. Как мне решить, что оставить, что отдать, а что выбросить?»
- Чат-бот: «Отличный вопрос! Разбор твоих вещей может быть утомительным, но с четкой стратегией ты можешь упростить этот процесс. Вот несколько идей, как решить, что оставить, что отдать или выбросить.»
Чат-бот неявно использует первое лицо. Хотя он не говорит «я» или «мне», он принимает на себя роль советчика или наставника, а фразы типа «вот несколько идей» преподносят эти идеи как свои собственные.
Чат-бот выступает в роли помощника, и пользователь чувствует, что к нему обращаются лично, даже если первое лицо не используется явно. Кроме того, использование фразы «вот» усиливает образ чат-бота как кого-то, кто предлагает что-то ценное.
Второе лицо: сила «ты»
«Ты» (и другие его формы, например, «твой») напрямую обращается к пользователю. Мы видим это в нескольких частях предыдущего примера, например, во фразах «разбор твоих вещей» и «ты можешь упростить этот процесс».
Обращаясь к вам лично, чат-бот стремится создать ощущение, что вы являетесь активным участником беседы. Такой язык часто используется в текстах, которые хотят вовлечь собеседника.
Другие фразы, такие как «Отличный вопрос!», не только создают положительное впечатление о запросе пользователя, но и побуждают его к дальнейшему взаимодействию. Фразы вроде «разбор вещей может быть утомительным» намекают на общий опыт в этом деле, создавая иллюзию эмпатии, признавая эмоции пользователя.
Искусственная эмпатия
Использование чат-ботом первого лица имитирует осознанность и создает иллюзию эмпатии. Принимая позицию помощника и используя второе лицо, он вовлекает пользователя и усиливает ощущение близости. Эта комбинация создаёт беседу, которая кажется человечной, практичной и уместной для советов, хотя эмпатия исходит от алгоритма, а не от настоящего понимания.
Привыкание к взаимодействию с неживыми существами, имитирующими личность и характер, может иметь долгосрочные последствия, поскольку это влияет на нашу личную, социальную и культурную жизнь. По мере совершенствования этих технологий будет всё труднее отличить разговор с реальным человеком от разговора с системой искусственного интеллекта (эх, где эти старые добрые механические и безэмоциональные голоса компьютеров и роботов и фантастических фильмов прошлого века?).
Эта все более размывающаяся граница между человеческим и искусственным влияет на наше понимание подлинности, эмпатии и сознательного присутствия в общении. Мы уже иногда начинаем обращаться к чат-ботам ИИ, как если бы они были разумными существами, что приводит к путанице относительно их реальных возможностей.
Трудности в общении с другими людьми
Взаимодействие с машинами может также изменить наши ожидания от человеческих отношений. Привыкнув к быстрому, беспроблемному и бесконфликтному общению, мы можем стать более раздражительными в отношениях с реальными людьми.
Человеческие отношения окрашены эмоциями, недопониманием и сложностью. В долгосрочной перспективе постоянное взаимодействие с чат-ботами может снизить нашу терпимость и способность справляться с конфликтами и принимать естественные недостатки межличностного общения.
Кроме того, длительное воздействие симулированного человеческого взаимодействия поднимает этические и философские дилеммы. Приписывая человеческие качества искусственным сущностям, такие как способность чувствовать или иметь намерения, мы можем начать сомневаться в ценности сознательной жизни по сравнению с идеальной симуляцией. Это может спровоцировать дискуссии о правах роботов и ценности человеческого сознания.
Взаимодействие с неразумными существами, имитирующими человеческую личность, может изменить наше восприятие общения, отношений и самоидентификации. Хотя такие технологии могут повысить эффективность, важно осознавать их ограничения и потенциальное влияние на наше взаимодействие как с машинами, так и друг с другом.
Читайте также: Разум машин: скрытое влияние искусственного интеллекта на человеческое мышление