Исследовательский проект в области изучения социальных сетей, проведенный командой Университета Нотр-Дам, выявил, что широкая публика испытывает значительные трудности в различении человека и искусственного интеллекта во время политических дискуссий на различных онлайн-платформах.
Исследование, проведенное в три этапа с использованием специально разработанной платформы Mastodon в качестве платформы для проведения экспериментов, показало, что участники в 58% случаев принимают ботов с искусственным интеллектом за людей.
Исследование показало, что боты с искусственным интеллектом размывают границы человеческого восприятия в политическом дискурсе
Исследовательская группа под руководством доктора Пола Бреннера из Центра вычислительных исследований Университета Нотр-Дам использовала ботов с искусственным интеллектом, основанных на генеративных сетях, включая GPT4, Llama-2-Chat и Claude 2.
Это поколение чат-ботов было разработано с учетом разнообразия их личностей, чтобы использоваться в качестве политических игроков в сфере международных отношений, все чаще приобретая человеческие черты и участвуя в различных политических дискуссиях.
Прелесть заключалась в том, что у каждого бота был свой характер (формирование личности с подробным профилем), которому было поручено устанавливать связь между личным опытом и событиями окружающего мира.
Что касается манипулирования данными, то, несмотря на то, что участники исследования понимали, что взаимодействуют как с людьми, так и с ботами, примерно половина выборки не смогла отличить искусственный интеллект от реальных людей.
Эти данные демонстрируют, что ИИ-боты могут очень точно имитировать человеческую манеру общения, что повышает вероятность их использования для распространения дезинформации.
Роль ИИ в распространении дезинформации
Г-н Пол Бреннер поднял такие вопросы, как внедрение этих ботов с искусственным интеллектом и их вероятный каскадный эффект, то есть возможность для ботов, работающих на основе ИИ, влиять на общественное мнение и, возможно, распространять дезинформацию.
Он объяснил, что искусственный интеллект в симуляциях настолько эффективен, что любого человека в интернете легко обмануть относительно первоисточника информации.
Еще одним важным аспектом, отмеченным в этом исследовании, стала оценка различных моделей ИИ, показавшая, что показатели точности мало различаются между различными моделями с низкой степенью точности. Это позволяет нам понять, что даже менее сложные модели могут быть достаточно убедительными для создания человекоподобных диалогов в сценариях взаимодействия в социальных сетях.
Таким образом, в первой строке Бреннер, помимо прочего, подчеркнул свою позицию в отношении многомерного подхода к предотвращению распространения ложной информации с помощью ИИ.
Такие инициативы, как образовательные кампании, законодательные меры и более строгая проверка аккаунтов в социальных сетях, будут способствовать полному искоренению этой проблемы. Кроме того, планируется рассмотреть аспекты психологического здоровья подростков, подверженных влиянию искусственного интеллекта, и разработать стратегии по смягчению этого воздействия.
Данный исследовательский проект акцентирует внимание на дисбалансе между использованием искусственного интеллекта и обеспечением целостности онлайн-информации в социальных сетях, что требует разработки комплексных стратегий для решения этой проблемы.

