Исследование показало, что искусственный интеллект может изменить веру в теории заговора
Исследование бросает вызов общепринятому мнению о том, что доказательства и аргументы редко помогают изменить мнение верующих.
Будь то ошибочное представление о том, что высадки на Луну никогда не было, или ложное утверждение о том, что вакцины от Covid содержат микрочипы, теорий заговора предостаточно, иногда с опасными последствиями.
Теперь исследователи обнаружили, что такие убеждения можно изменить, пообщавшись с искусственным интеллектом (ИИ).
«Здравый смысл подскажет вам, что люди, которые верят в теории заговора, редко, если вообще когда-либо, меняют свое мнение, особенно в соответствии с доказательствами», — сказал доктор Томас Костелло, соавтор исследования из Американского университета.
Считается, что это связано с тем, что люди принимают такие убеждения для удовлетворения различных потребностей, таких как стремление к контролю. Однако новое исследование предлагает иную позицию.
«Наши результаты в корне опровергают мнение о том, что доказательства и аргументы бесполезны, когда кто-то «забрался в кроличью нору» и начинает верить в теорию заговора», — написала команда.
По словам исследователей, этот подход основан на системе искусственного интеллекта, которая может использовать огромный массив информации для создания диалогов, способствующих критическому мышлению и предоставляющих индивидуальные контраргументы, основанные на фактах.
«Искусственный интеллект заранее знал, во что верит человек, и благодаря этому смог адаптировать свои убеждения к его точной системе убеждений», — сказал Костелло.
В статье Костелло и его коллеги рассказали, как они провели серию экспериментов с участием 2190 участников, которые верили в теории заговора. Хотя эксперименты немного отличались друг от друга, всех участников попросили описать конкретную теорию заговора, в которую они верили, и доказательства, которые, по их мнению, подтверждали ее. Затем это было передано в систему искусственного интеллекта под названием «DebunkBot».
Участников также попросили оценить по 100-балльной шкале, насколько правдивой, по их мнению, была теория заговора.
Затем они сознательно провели трехэтапную беседу с системой искусственного интеллекта о своей теории заговора или на другие темы, не связанные с заговором. После этого участники еще раз оценили, насколько верной, по их мнению, была их теория заговора.
Результаты показали, что те, кто обсуждал темы, не связанные с конспирологией, лишь незначительно снизили свой рейтинг «правдивости». Однако те, кто обсуждал свою теорию заговора с ИИ, показали, что в среднем их вера в ее истинность снизилась на 20%.
Команда заявила, что эффект, по–видимому, сохранялся в течение как минимум двух месяцев, в то время как подход работал практически для всех типов теорий заговора, хотя и не для тех, которые соответствовали действительности.
Исследователи добавили, что величина эффекта зависела от таких факторов, как важность убеждения для участников и их доверие к ИИ.
«Примерно каждый четвертый человек, начавший эксперимент с веры в теорию заговора, в конце концов отказался от этой веры», — сказал Костелло.
«В большинстве случаев ИИ может только откалывать данные, что делает людей немного более скептичными и неуверенными, но немногие избранные полностью разуверились в своем заговоре».
Исследователи добавили, что снижение веры в одну теорию заговора, по–видимому, приводит к снижению веры участников в другие подобные идеи, по крайней мере, в небольшой степени, в то время как этот подход может найти применение в реальном мире — например, искусственный интеллект может отвечать на сообщения, связанные с теориями заговора, в социальных сетях.
Профессор Сандер ван дер Линден (Sander van der Linden) из Кембриджского университета, который не принимал участия в работе, усомнился, будут ли люди добровольно взаимодействовать с таким ИИ в реальном мире.
Он также сказал, что неясно, были бы получены аналогичные результаты, если бы участники общались с анонимным человеком, в то время как есть вопросы о том, как ИИ убеждал сторонников заговора, учитывая, что система также использует такие стратегии, как эмпатия и подтверждение.
Но, добавил он, «в целом, это действительно новое и потенциально важное открытие и прекрасная иллюстрация того, как ИИ можно использовать для борьбы с дезинформацией».