Может ли ИИ сделать вас менее доверчивыми или это заговор?

Как ИИ может помочь вам выбраться из ловушек теорий заговора

Can AI make you less gullible or is it a conspiracy?

Чат-боты с искусственным интеллектом могут испытывать трудности с галлюцинаторной выдуманной информацией, но новое исследование показало, что они могут быть полезны для противодействия необоснованным и галлюцинаторным идеям в умах людей. Ученые Массачусетского технологического института имени Слоуна и Корнеллского университета опубликовали статью в журнале Science , в которой утверждают, что общение с чат-ботом, работающим на основе большой языковой модели (LLM), снижает веру в заговоры примерно на 20%.

Чтобы увидеть, как чат-бот на основе искусственного интеллекта может повлиять на конспирологическое мышление, ученый организовал обсуждение теорий заговора с чат-ботом, работающим на модели OpenAI GPT-4 Turbo, с участием 2190 участников. Участников попросили описать теорию заговора, которую они сочли правдоподобной, включая причины и доказательства, которые, по их мнению, ее подтверждают. Чат-бот, побуждаемый быть убедительным, давал ответы, соответствующие этим деталям. Когда они общались с чат-ботом, он предоставлял адаптированные контраргументы, основанные на отзывах участников. Исследование рассматривало извечную проблему галлюцинаций искусственного интеллекта с помощью профессионального проверяющего факты, оценивающего 128 утверждений, сделанных чат-ботом во время исследования. Утверждения были на 99,2% точными, что, по словам исследователей, стало возможным благодаря обширной онлайн-документации теорий заговора, представленной в данных обучения модели.

Идея обращения к ИИ для разоблачения теорий заговора заключалась в том, что их глубокие информационные резервуары и адаптивные разговорные подходы могли бы охватить людей, персонализируя подход. На основании последующих оценок через десять дней и два месяца после первого разговора это сработало. Большинство участников имели пониженную веру в теории заговора, которые они поддерживали «от классических заговоров, связанных с убийством Джона Ф. Кеннеди, инопланетянами и иллюминатами, до тех, которые касаются таких актуальных событий, как COVID-19 и президентские выборы в США 2020 года», — обнаружили исследователи.

Фактбот Веселье

Результаты стали настоящим сюрпризом для исследователей, которые предположили, что люди в значительной степени невосприимчивы к аргументам, основанным на доказательствах, развенчивающим теории заговора. Вместо этого они показывают, что хорошо спроектированный чат-бот на основе ИИ может эффективно представлять контраргументы, что приводит к измеримому изменению убеждений. Они пришли к выводу, что инструменты ИИ могут быть благом в борьбе с дезинформацией, хотя и требуют осторожности из-за того, что они также могут еще больше вводить людей в заблуждение дезинформацией.

Исследование подтверждает ценность проектов со схожими целями. Например, сайт проверки фактов Snopes недавно выпустил инструмент ИИ под названием FactBot, чтобы помочь людям выяснить, является ли то, что они услышали, правдой или нет. FactBot использует архив Snopes и генеративный ИИ, чтобы отвечать на вопросы без необходимости прочесывать статьи, используя более традиционные методы поиска. Тем временем The Washington Post создал Climate Answers, чтобы прояснить путаницу в вопросах изменения климата, полагаясь на свою климатическую журналистику, чтобы отвечать на вопросы непосредственно по теме.

«Многие люди, которые твердо верят в, казалось бы, не поддающиеся фактам теории заговора, могут изменить свое мнение, если им предоставить убедительные доказательства. С теоретической точки зрения это рисует удивительно оптимистичную картину человеческого мышления: у кроличьих нор заговора действительно может быть выход», — пишут исследователи. «На практике, демонстрируя убедительную силу LLM, наши выводы подчеркивают как потенциальное положительное влияние генеративного ИИ при ответственном развертывании, так и настоятельную важность минимизации возможностей для безответственного использования этой технологии».

LLM basics #1 with the LLM Science Exam Kaggle Competition - Zero-Shot approaches

Talking about ways to use an off-the-shelf language model to solve a multiple-choice task. Covering: - Intro to the Kaggle ...


Больше на 每天都有技术

Subscribe to get the latest posts sent to your email.

Добавить комментарий

Больше на 每天都有技术

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше