Поддержать команду Зеркала
Беларусы на войне
  1. В закон внесли изменения. Теперь призывников, которые не явятся в военкомат, ждет более суровое наказание — рассказываем
  2. Высокие чины тайно договаривались, как «удержать» цену на дорогой товар. Не вышло, Беларусь потеряла сотни миллионов долларов — рассказываем
  3. В Минске повышают стоимость проезда в городском общественном транспорте
  4. Для владельцев транспорта вводят очередные изменения — подробности
  5. «Дорога в один конец». Действующий офицер рассказал «Зеркалу», что в армии Беларуси думают о войне с НАТО и Украиной
  6. «100 тысяч военных». Что в НАТО думают об учениях «Запад-2025» и Лукашенко как миротворце? Спросили у чиновника Альянса
  7. На эти продукты уже в скором времени могут подскочить цены. Рассказываем, почему и какие это товары (список солидный)
  8. Трамп ввел в США чрезвычайное положение из-за торгового баланса
  9. Червенская резня. Как двухтысячную колонну узников убивали во время пешего марша из Минска — трагедия, которую пытались скрыть в СССР
  10. Кому и для чего силовики выдают паспорта прикрытия? Спросили у BELPOL
  11. Кремль продолжит войну, если ему не удастся добиться полной капитуляции Украины дипломатическим путем — ISW
  12. Лукашенко снова взялся наводить порядок в финансах одной из сфер. Требует, чтобы «родных и любовниц содержали за свои деньги»
  13. В измене государству обвинили трех минчан, которые проводили социсследования
  14. Пошлины США затронули практически весь мир, однако Беларуси и России в списке Трампа нет. Вот почему
  15. На рыбном рынке Беларуси маячит банкротство двух компаний. Что об этом известно
  16. Уже спрятали зимние вещи? Доставайте обратно: в выходные вернутся снег и метели
  17. Чем может обернуться торговая война США против всего мира? Вообще-то такое уже было — рассказываем, насколько плохо все кончилось тогда


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.