Поддержать команду Зеркала
Беларусы на войне
  1. Украине срочно нужна западная помощь в ПВО — ISW
  2. Удалил аккаунт в Telegram, почистил технику — и все равно пришли по «делу Гаюна». Беларус рассказал, как его вычислили силовики
  3. У противников Трампа есть одна очень плохая новость. Вот какая
  4. Пассажиры автобусов жалуются на многочасовое ожидание в очередях на границе с Литвой
  5. Почему многие беларусы живут от зарплаты до зарплаты? Дело не только в уровне заработка — вот какие еще могут быть причины
  6. Российский император сжег один из беларусских городов. Местным жителям уже второй раз доказывают, что он — герой
  7. «Мы с вами окажемся в каше!» Провластный политолог в эфире гостелеканала заявил, что Путину не надо было воевать
  8. В Гданьске 28-летний беларус покончил с собой — «Белсат»
  9. Самолет превратился в адский кабриолет на высоте 7300 метров, стюардессу выбросило в океан. Людей спасло лишь чудо — рассказываем
  10. Из России «прилетела» очередная новость, которая может повлиять на ситуацию на валютном рынке Беларуси. Что случилось?
  11. «Санкции» от ЕРИП, новшество по валюте, подорожание мобильных услуг, повышение пособий и судьба пенсий. Изменения августа
  12. «Я потеряла самое главное, что было в моей жизни». Беларусской певице Рите Дакоте запретили выступать в России
  13. Подробный прогноз. Какой будет погода на следующей неделе


Институт инженеров электротехники и электроники (IEEE) провел тест Тьюринга, чтобы оценить, насколько современные модели искусственного интеллекта могут имитировать человеческое общение, пишет LiveScience.

Изображение используется в качестве иллюстрации. Фото: pixabay.com
Изображение используется в качестве иллюстрации. Фото: pixabay.com

Сообщается, что в ходе эксперимента 500 участников вели диалог с четырьмя агентами: человеком и тремя различными ИИ-моделями: программой эпохи 1960-х ELIZA, GPT-3.5 и GPT-4. Люди должны были за пять минут определить, общаются они с человеком или ИИ.

Исследователи заявили, что GPT-4 успешно прошел тест Тьюринга. Участники ошибочно принимали GPT-4 за человека в 54% случаев. «Это достижение подчеркивает значительный прогресс в развитии ИИ, но также вызывает опасения относительно социальных и экономических последствий широкого использования таких технологий», — отметили ученые.

Система ELIZA была принята за человека в 22% случаев, GPT-3.5 в 50%, а человек в 67%.

Ученые подчеркивают, что тест Тьюринга имеет свои ограничения и критикуется за слишком упрощенный подход к оценке интеллекта. Исследователи добавили, что стилистические и эмоциональные факторы играют большую роль в прохождении теста, чем традиционные представления об интеллекте.

Тест Тьюринга, предложенный Аланом Тьюрингом в 1950 году, оценивает способность машины демонстрировать интеллект, неотличимый от человеческого.