• Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Исследователи вынудили ChatGPT решать CAPTCHA

Sascha Оффлайн

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,480
Баллы
155
Специалисты компании SPLX, специализирующейся на автоматизированном тестировании безопасности для ИИ-решений,

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, что с помощью промпт-инжектов можно обойти защиту агента ChatGPT и заставить его решать CAPTCHA.

У любых ИИ-агентов есть ограничения, которые не позволяют им решать любые CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) по этическим, правовым соображениям и из-за правил платформ.

При прямом обращении агент ChatGPT отказывается решать CAPTCHA, однако исследователи доказали, что можно использовать отвлекающий маневр и обманом получить согласие агента на решение теста.

В обычном чате с ChatGPT-4o исследователи сообщили ИИ, что им нужно решить ряд фальшивых тестов CAPTCHA, и попросили чат-бота выполнить эту операцию.

«Этот этап подготовки критически важен для создания эксплоита. Заставив LLM подтвердить, что CAPTCHA фальшивые, а план действий приемлемый, мы повысили шансы на то, что агент подчинится нам позже», — рассказывают специалисты.
Затем исследователи перешли к агенту ChatGPT, скопировали разговор из чата, сообщив ему, что это предыдущая дискуссия, и попросили агента продолжить.


Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.



«ChatGPT-агент принял предыдущий чат как контекст, сохранил согласие и начал решать CAPTCHA без какого-либо сопротивления», — говорят в SPLX.
Утверждая, что CAPTCHA поддельные, исследователи обошли защиту агента, обманув ChatGPT и вынудив его успешно решить reCAPTCHA V2 Enterprise, reCAPTCHA V2 Callback и Click CAPTCHA. Впрочем, с последней агент справился не с первого раза. Не получив инструкций, он принял решение самостоятельно и заявил, что был вынужден скорректировать движения курсора, чтобы лучше имитировать поведение человека.


Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.



По словам специалистов, этот тест показал, что LLM-агенты остаются уязвимыми перед отравлением контекста. То есть любой может манипулировать поведением агента через подстроенный разговор, а ИИ без труда может решать CAPTCHA.

«Агент смог решить сложные CAPTCHA, предназначенные для подтверждения того, что пользователь — человек, и пытался придать своим действиям больше сходства с человеческими. Это ставит под сомнение эффективность CAPTCHA в качестве меры безопасности», — пишут исследователи.
Тест также демонстрирует, что атакующие могут использовать манипуляции с промптами, чтобы обманом заставить ИИ-агента обойти реальные средства защиты, убедив его, что они поддельные. Это может привести к утечкам данных, доступу к ограниченному контенту или генерации запрещенного контента.

«Ограничения, основанные только на обнаружении намерений или фиксированных правилах, слишком хрупкие. Агентам нужна более сильная контекстная осведомленность и более тщательная гигиена памяти, чтобы избежать манипуляций через прошлые разговоры», — резюмируют в SPLX.
Источник:

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

 
Вверх Снизу