Вход
Войти как пользователь
Вы можете войти на сайт, если вы зарегистрированы на одном из этих сервисов:
Зарегистрироваться
Логин (мин. 3 символа):*
Email:*
Номер телефона:*
Пароль:*
Подтверждение пароля:*
Имя:*
Защита от автоматической регистрации
CAPTCHA
Введите слово на картинке:*

Пароль должен быть не менее 6 символов длиной.

*Поля, обязательные для заполнения.

icon

Войти

|
logo

Тест показал, что ИИ в интернете невозможно отличить от живых людей

10.04.2025  -  08:58

Роботы с ИИ прошли испытание, подтверждающее, что в интернете их невозможно отличить от реально существующих живых людей, сообщает esoreiter со ссылкой на UniladTech.

Последние современные модели искусственного интеллекта смогли пройти тест, который, как считалось ранее, они пройти не могут.

Тест Тьюринга, изначально названный «Игра в имитацию», был разработан Аланом Тьюрингом в 1950 году для проверки способности машины вести беседу так, чтобы ее нельзя было отличить от человеческой.

Многие воспринимают этот тест как мерило интеллекта, и создание модели ИИ, которая стабильно проходит его, может стать важным шагом к достижению искусственного общего интеллекта.

Новое исследование ученых из Калифорнийского университета в Сан-Диего показывает, что современные технологии уже достигли этого уровня. В работе утверждается, что модель OpenAI GPT-4.5 успешно справляется с тестом Тьюринга, в котором участник одновременно общается с реальным человеком и моделью ИИ и должен определить, кто есть кто.

Участники вели 5-минутные беседы с другим человеком и одной из этих систем, прежде чем решить, кто из собеседников, по их мнению, был человеком. Когда GPT-4.5 попросили принять человеческий облик, его сочли человеком в 73% случаев, что значительно превышает выбор реального человека-участника.

То есть искусственный интеллект показался участникам более похожим на человека, чем настоящий человек.

  • Поделитесь:
Яндекс.Метрика

Наш сайт использует куки.
Продолжая им пользоваться, вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности