Пароль должен быть не менее 6 символов длиной.
*Поля, обязательные для заполнения.
Ученые из американского института Нотр-Дам подключили к дискуссии на платформе Mastodon реальных людей и ИИ-ботов. После чего пользователям предложили определить — с кем они общелись: с реальным человеком или с нейросетью Искусственного Интеллекта.
Результаты таковы: более чем в половине случаев (в 58% случаев) испытуемые ошибались. Вывод: человеку очень сложно понять — с кем именно он общается в интернете: с реальным человеком или с нейросетью.
«Известно, что живому человеку в Интернете люди верят больше, чем боту. Так что боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить (от реального человека)», — сказал Пол Бреннер, старший автор исследования.
Для эксперимента использовались разные модели ИИ: GPT-4 от OpenAI, Llama-2-Chat от Meta и Claude 2 от Anthropic. Боты были настроены на 10 различных персонажей, имели разнообразные личные профили.
«Мы предполагали, что Llama-2 будет слабее, потому что она меньше и проще, но оказывается, когда вы просто общаетесь в социальных сетях, она практически неотличима. Это вызывает беспокойство, потому что это платформа с открытым доступом, которую каждый может загрузить и изменить», — говорит Бреннер.
Наиболее успешными искусственными персонажами оказались две смоделированные «женщины», которых пользователи принимали за живых людей.
Результаты эксперимента настораживают. Авторы отмечают, что создавать в соцсетях фейковые профили для распространения определенной точки зрения гораздо дешевле и надежнее, чем платить живым людям.