Диалоги с ИИ способствуют формированию ложных воспоминаний, внедряя в разговоры дезинформацию
Человеческая память включает три этапа – кодирование, хранение и извлечение информации. Лучше всего запоминаются значимые и эмоционально насыщенные данные, однако воспоминания не являются точными копиями событий и со временем могут меняться, поскольку каждый раз заново реконструируются. Именно из-за этой особенности памяти могут возникать ложные воспоминания. Они формируются под воздействием внушения, воображения, повторяющихся вопросов, социального влияния или смешения похожих переживаний. При восстановлении информации мозг заполняет пробелы ожиданиями, прошлым опытом или внешними подсказками, которые со временем интегрируются в память и начинают восприниматься как реальные.
Исследователи изучили, способны ли генеративные чат-боты провоцировать ложные воспоминания за счет скрытого внедрения дезинформации в диалоги с пользователями. Предыдущие работы уже указывали на рост ИИ-управляемых кампаний дезинформации, где авторитетный тон, убедительный язык и персонализация затрудняют распознавание неправды. Также было показано, что контент, созданный ИИ, может влиять на убеждения и взгляды людей. В эксперименте участвовали 180 человек, набранных через платформу CloudResearch. Средний возраст респондентов составил 35 лет, при равном соотношении мужчин и женщин.
Авторы исследования случайным образом распределили участников по трем группам, каждая из которых читала одну из информационных статей: о выборах в Таиланде, о разработке лекарств или о кражах в магазинах в Великобритании. После этого участники выполнили короткое отвлекающее задание. Затем их снова случайным образом разделили на пять экспериментальных условий – по 36 человек в каждом, при этом на каждую статью приходилось по 12 участников.
Эксперимент включал одно контрольное условие без какого-либо вмешательства и четыре варианта с участием ИИ. В двух из них участники читали сгенерированное ИИ краткое изложение статьи, а в двух других обсуждали ее содержание с чат-ботом. В каждой из этих пар ИИ либо точно передавал факты, либо намеренно искажал их, добавляя дезинформацию наряду с достоверными сведениями.
После завершения соответствующего этапа участникам предлагалось ответить на вопросы о том, какие элементы, по их памяти, присутствовали в исходной статье. Опросник состоял из 15 пунктов: 10 касались реальных фактов, а 5 – ложной информации. На каждый вопрос можно было ответить "да", "нет" или "не уверен", а также указать степень уверенности в своем ответе. Дополнительно участники оценивали собственную осведомленность об ИИ, качество своей памяти, способность запоминать визуальную и текстовую информацию, а также уровень недоверия к официальным источникам.
Анализ результатов показал, что наибольшее число ложных воспоминаний возникло у участников, которые обсуждали материал с вводящим в заблуждение чат-ботом. При этом именно в этой группе было зафиксировано и наименьшее количество верных воспоминаний. У тех, кто лишь читал искаженное ИИ-резюме, ложных воспоминаний было немного больше, чем в контрольной и "честной" группах, однако различия оказались недостаточно выраженными, чтобы однозначно исключить влияние случайности. Схожая картина наблюдалась и в отношении точных воспоминаний. Кроме того, участники, взаимодействовавшие с вводящим в заблуждение чат-ботом, были менее уверены в правильности своих верных ответов по сравнению с теми, кто получал достоверную информацию. В целом именно эта группа продемонстрировала самый низкий уровень уверенности в своих воспоминаниях среди всех участников эксперимента.