Искусственная эмпатия ChatGPT – это лингвистический трюк. И вот как он работает

Чат-боты могут имитировать эмпатию, но на самом деле они её не испытывают. 

Антропоморфизм – это когда мы наделяем человеческими качествами неживые объекты или животных. Чат-боты, такие как ChatGPT, Gemini и Copilot, подталкивают нас к этому, имитируя человеческую речь. Они не просто используют знакомые слова и фразы, а перенимают наши речевые модели, ведут связные контекстные беседы и даже демонстрируют эмоции, например, юмор и эмпатия.

Эти системы используют язык, который делает взаимодействие с ними естественным, плавным и доступным. Что позволяет использовать их в различных ситуациях – от обслуживания клиентов до образования и развлечений.

До недавнего времени язык считался уникальной способностью человека. Однако развитие генеративного искусственного интеллекта (ИИ), лежащего в основе этих чат-ботов, заставляет нас пересмотреть привычную точку зрения.

Одна из наиболее отличительных черт человеческого языка – это субъективность, которая проявляется в словах и выражениях, передающих эмоциональные оттенки, а также в выражении личных мнений, оценок событий и использовании контекстуальных или культурных элементов.

Первое лицо: «Я» и «Мы»

Типичный признак субъективности в языке – использование личных местоимений. Первое лицо – «я» или «мы» – позволяет нам выражать личные мысли и опыт. Второе лицо – «ты» – обращено к собеседнику, устанавливая отношения между двумя участниками разговора. Это называется интерсубъективностью.

эмпат

Рассмотрим простой пример:

  • Пользователь: «Я разбираю вещи дома. Как мне решить, что оставить, что отдать, а что выбросить?»
  • Чат-бот: «Отличный вопрос! Разбор твоих вещей может быть утомительным, но с четкой стратегией ты можешь упростить этот процесс. Вот несколько идей, как решить, что оставить, что отдать или выбросить.»

Чат-бот неявно использует первое лицо. Хотя он не говорит «я» или «мне», он принимает на себя роль советчика или наставника, а фразы типа «вот несколько идей» преподносят эти идеи как свои собственные.

Чат-бот выступает в роли помощника, и пользователь чувствует, что к нему обращаются лично, даже если первое лицо не используется явно. Кроме того, использование фразы «вот» усиливает образ чат-бота как кого-то, кто предлагает что-то ценное.

Второе лицо: сила «ты»

«Ты» (и другие его формы, например, «твой») напрямую обращается к пользователю. Мы видим это в нескольких частях предыдущего примера, например, во фразах «разбор твоих вещей» и «ты можешь упростить этот процесс».

Обращаясь к вам лично, чат-бот стремится создать ощущение, что вы являетесь активным участником беседы. Такой язык часто используется в текстах, которые хотят вовлечь собеседника.

Другие фразы, такие как «Отличный вопрос!», не только создают положительное впечатление о запросе пользователя, но и побуждают его к дальнейшему взаимодействию. Фразы вроде «разбор вещей может быть утомительным» намекают на общий опыт в этом деле, создавая иллюзию эмпатии, признавая эмоции пользователя.

Искусственная эмпатия

Использование чат-ботом первого лица имитирует осознанность и создает иллюзию эмпатии. Принимая позицию помощника и используя второе лицо, он вовлекает пользователя и усиливает ощущение близости. Эта комбинация создаёт беседу, которая кажется человечной, практичной и уместной для советов, хотя эмпатия исходит от алгоритма, а не от настоящего понимания.

эмпат

Привыкание к взаимодействию с неживыми существами, имитирующими личность и характер, может иметь долгосрочные последствия, поскольку это влияет на нашу личную, социальную и культурную жизнь. По мере совершенствования этих технологий будет всё труднее отличить разговор с реальным человеком от разговора с системой искусственного интеллекта (эх, где эти старые добрые механические и безэмоциональные голоса компьютеров и роботов и фантастических фильмов прошлого века?).

Эта все более размывающаяся граница между человеческим и искусственным влияет на наше понимание подлинности, эмпатии и сознательного присутствия в общении. Мы уже иногда начинаем обращаться к чат-ботам ИИ, как если бы они были разумными существами, что приводит к путанице относительно их реальных возможностей.

Трудности в общении с другими людьми

Взаимодействие с машинами может также изменить наши ожидания от человеческих отношений. Привыкнув к быстрому, беспроблемному и бесконфликтному общению, мы можем стать более раздражительными в отношениях с реальными людьми.

Человеческие отношения окрашены эмоциями, недопониманием и сложностью. В долгосрочной перспективе постоянное взаимодействие с чат-ботами может снизить нашу терпимость и способность справляться с конфликтами и принимать естественные недостатки межличностного общения.

Кроме того, длительное воздействие симулированного человеческого взаимодействия поднимает этические и философские дилеммы. Приписывая человеческие качества искусственным сущностям, такие как способность чувствовать или иметь намерения, мы можем начать сомневаться в ценности сознательной жизни по сравнению с идеальной симуляцией. Это может спровоцировать дискуссии о правах роботов и ценности человеческого сознания.

Взаимодействие с неразумными существами, имитирующими человеческую личность, может изменить наше восприятие общения, отношений и самоидентификации. Хотя такие технологии могут повысить эффективность, важно осознавать их ограничения и потенциальное влияние на наше взаимодействие как с машинами, так и друг с другом.

Читайте также: Разум машин: скрытое влияние искусственного интеллекта на человеческое мышление

Поделиться

Добавить комментарий

Больше на Довод и Смысл

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше