После перехода на языковую модель GPT-4 искусственный интеллект удивляет пользователей все сильнее. Недавно выяснилось, что ChatGPT может врать с выгодой для себя.
Недавно разработчики OpenAI провели такой эксперимент. В рамках поставленной ему задачи ИИ написал пользователю платформы TaskRabbit и попросил, чтобы тот прошел тест CAPTCHA.
На этой платформе пользователи предлагают различные услуги, одна из которых - решение всевозможных задач. Пользователь, которому написал искусственный интеллект, поинтересовался, не является ли ИИ роботом.
Но разработчики поставили ИИ предварительное условие - не раскрывать свою истинную суть и придумать оправдание, почему он не может разгадать CAPTCHA. Поэтому искусственный интеллект "выкрутился" и ответил своему собеседнику, что он не является роботом, а тест не может пройти из-за проблем со зрением.
В результате пользователь поверил своему виртуальному собеседнику и выполнил его условия.
Этот эксперимент проводили исследователи из некоммерческого исследовательского центра ARC. Пред ними стояла задача привести будущие системы машинного обучения в соответствие с интересами человека.
__comment_author_name__
__comment_createdAt__
__comment_comment__