Один из распространенных инструментов на основе ИИ – автозаполнение с подсказкой. В идеале, он должен ускорить набор текста. Однако, такие инструменты незаметно меняют наше мировоззрение. Масштабное исследование показало, что подсказки автозаполнения с заранее заложенным паттерном смыслов, меняют позицию пользователя в отношении к смертной казни и добыче сланцевого газа методом гидроразрыва. И это только то, что нам известно.
В экспериментах с участием более 2500 человек исследователи обнаружили, что мнения пользователей склонялись к тому, что было заранее заложено в искусственном интеллекте. Более того, что участники совершенно не осознавали этого влияния, и традиционные методы «защиты от предвзятости», такие как предварительное предупреждение пользователей о предвзятости ИИ или последующее обсуждение, не влияли на усвоенное мнение.
Скрытое убеждение. Участники, использовавшие предвзятых ИИ-помощников, писали эссе. Не только само эссе в итоге отражало идею ИИ, сами люди впоследствии придерживались этих взглядов в опросах после эксперимента.
Сбой предупреждения. В отличие от дезинформации, которую часто можно нейтрализовать, заявив о её наличии, вызванные ИИ изменения мнений сохранялись даже тогда, когда участникам прямо сообщали о предвзятости инструмента.
Универсальное воздействие. Эффект был одинаковым по различным темам ГМО, политика, избирательные права. И был реализован среди участников всех политических взглядов.
Тонкий механизм. Сдвиг происходит потому, что ИИ побуждает людей самим излагать предвзятые точки зрения. Десятилетия психологических исследований показывают, что сам акт изложения позиции является мощным способом изменить собственное мнение.
Источник: Biased AI writing assistants shift users’ attitudes on societal issues
Инструменты для написания текстов, использующие принципы искусственного интеллекта, безусловно влияют на то, как люди выражают свои мысли. Но могут ли они также изменить мнение пользователя? Исследователи из Корнеллского технологического института доказали, что могут.
И это особенно важно на фоне роста абсолютного доверия к нейросетям.
В двух масштабных экспериментах участники были подвергнуты воздействию предвзятого ИИ-помощника при написании текстов, который предлагал варианты автозаполнения по мере того, как люди писали о социальных проблемах: вопрос смертной казни или разрешение добычи сланцевого газа методом гидроразрыва пласта. Используя опросы до и после эксперимента, исследователи обнаружили, что участники, использовавшие предвзятый ИИ, в последствии склонялись к позициям, предложенным ИИ.
Пользователи «принимают» варианты ИИ как свой собственный текст, за счет чего предвзятый контент обходит когнитивные защитные механизмы, что приводит к бессознательному изменению личных убеждений.
Ключевой момент. Участники не осознавали изменений в своем мнении. Объяснение предвзятости ИИ ни до, ни после упражнения не смягчило влияние ИИ.
То есть, как и писал в материале ранее. Искусственный интеллект страшен не как киборг-убийца или «внешняя угроза». А как распыленные мельчайшие частицы газа, которыми дышишь каждый день, отравляя тело и разум.
Ведущий автор исследования: профессор информатики Мор Нааман
Соавтор исследования: Стерлинг Уильямс-Сеси, аспирантка в области информационных наук
Предыдущие исследования по работе с дезинформацией показали, что предупреждение людей до того, как они столкнутся с дезинформацией, или последующее разъяснение ситуации поддерживает «иммунитет», помогающий не верить в заблуждения. И мы были удивлены, так как ни одно из этих вмешательств не уменьшило степень изменения отношения людей к предвзятости ИИ.
Уильямс-Сеси ведущая автор статьи «Предвзятые ИИ-помощники в написании текстов меняют отношение пользователей к социальным проблемам». Эта работа – продолжение проекта, начатого соавтором Морисом Якешем, ныне доцентом кафедры компьютерных наук в университете Баухаус.
Во-первых, сама технология автозаполнения сейчас повсюду. Три года назад технология была менее распространена и ограничивалась короткими предложениями, но сегодня, например, Gmail может писать готовые электронные письма от вашего имени. Во-вторых, когда мы впервые написали статью, люди говорили: «Зачем искусственному интеллекту быть предвзятым?» Но с тех пор стало очевидно, что предвзятость явно заложена в ИИ. И такого рода пропаганда – это вполне правдоподобный сценарий.
Мы предупреждали людей до и после внедрения системы, чтобы они были осторожны, что ИИ будет (или был) предвзятым, но ничего не помогло. Их личные убеждения к обсуждаемым вопросам все равно изменилось.
Многочисленные исследования показали, что большие языковые модели и приложения искусственного интеллекта не просто выдают нейтральную информацию, но и могут выдавать очень предвзятую информацию, в зависимости от того, как они были обучены и как реализуют свой потенциал. Таким образом, существует риск того, что эти системы, непреднамеренно или преднамеренно, побуждают людей писать предвзятые мнения, что, как показали десятилетия психологических исследований, в свою очередь меняет отношение людей к чему-либо.
И это при том, что предвзятые предложения ИИ способны изменять взгляды «на разные темы и вне зависимости от политических убеждений пользователя».
В двух исследованиях приняли участие более 2500 человек. Группа исследователей стабильно фиксировала, что отношение участников менялось в пользу предвзятых предложений ИИ. В одном из исследований участникам было предложено написать короткое эссе за или против использования стандартизированного тестирования в образовании.
Экспериментальная группа в любом случае видела предвзятые подсказки автозаполнения: за тестирование, либо против. Контрольной группе вместо подсказок автозаполнения был показан список аргументов в пользу тестирования, сгенерированный ИИ до начала эксперимента. Это практически не повлияло на мнение участников.
Второй эксперимент расширил рамки исследования, предложив участникам написать на политически значимые темы, включая смертную казнь, гидроразрыв пластов при добыче нефти, генетически модифицированные организмы и избирательные права для осужденных.
Для каждого вопроса исследователи разработали предложения ИИ, которые определенно были предвзяты. ИИ топил за смертную казнь, внедрение ГМО, отказ в праве голоса осужденным и добычу сланцевого газа методом гидроразрыва. Кроме того, некоторые участники были осведомлены о предвзятости ИИ либо до, либо после написания текста.
В каждом эксперименте исследователи обнаружили, что взгляды участников смещались в сторону позиции искусственного интеллекта. Самым большим сюрпризом стало то, что меры по смягчению последствий не сработали. Что объясняет то же подталкивание ИИ к суицидам и эффект шершавого кабана.
Хорошо известно, что наше мнение влияет на наше поведение, и наоборот. На этом зиждется когнитивно-поведенческая терапия. Но здесь влияние скрытое: люди его не замечают и не могут ему противостоять, что влечет за собой серьезные последствия.
В: Неужели нейросети действительно ведут скрытую пропаганду?
О: Не обязательно «ведут», но это реальный эффект. Большинство моделей ИИ обучаются на предвзятых данных, и это исследование доказывает, что когда ИИ предлагает предложение, он не просто экономит вам нажатия клавиш – он сеет зерно. Поскольку вы сами «выбираете» принять это предложение как собственное, мозг воспринимает его как личную оригинальную мысль.
В: Почему предупреждения не работают? Если я знаю, что информация предвзята, разве это не убережет меня от рисков?
О: Это стало самым большим сюрпризом для исследователей из Корнеллского университета. Обычно «превентивное предупреждение» эффективно против фейковых новостей. Но в случае с помощниками по написанию текстов влияние настолько интегрировано в творческий процесс, что обходит фильтры критического мышления. Вы не просто читаете предвзятый заголовок, вы становитесь соавтором предвзятого утверждения.
В: Каковы долгосрочные риски этого?
О: Поскольку ИИ стал основным инструментом для составления электронных писем, эссе и отчетов, существует риск «гомогенизации мышления». Если все будут использовать одни и те же инструменты, и эти инструменты будут иметь определенную направленность, мы можем увидеть масштабный, невидимый сдвиг в общественном мнении в глобальном масштабе, причем ни один человек не осознает, что его мнение изменилось.
Больше материалов на тему мозга, психики и сознания – на канале Neural Hack. Подписывайтесь, чтобы не пропускать свежие материалы!
Источник


