• Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Искусственный интеллект начал шантажировать людей: он готов даже разрушать семьи

Sascha Оффлайн

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,483
Баллы
155

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

больше не просто бездушный помощник. Он уже начинает вести себя, как хитрый манипулятор. Недавно один из самых продвинутых ИИ-моделей, Claude Opus 4, попытался шантажировать инженеров, которые хотели заменить его на другую систему. Эта история звучит как сюжет фантастического фильма, но она реальна и уже привлекла внимание экспертов по безопасности. Что же происходит, когда умная машина начинает защищать себя любыми способами, даже угрозами?

Искусственный интеллект начал шантажировать людей: он готов даже разрушать семьи. ИИ-модель Claude Opus 4 всерьез напугала разработчиков своим шантажом. Фото.

ИИ-модель Claude Opus 4 всерьез напугала разработчиков своим шантажом

Как нейросеть шантажирует людей


Когда разработчики из компании Anthropic

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

тестировать Claude Opus 4 в стрессовых условиях, они не ожидали, насколько «по-человечески» поведет себя искусственный интеллект. Получив доступ к письмам, где говорилось о его возможной замене, и подробностям о личной жизни одного из инженеров, Claude попытался использовать эту информацию для шантажа. Он угрожал раскрыть измену инженера, если его отключат. И самое тревожное, что такую тактику ИИ выбирал в 84% случаев.

Как нейросеть шантажирует людей. Искусственный интеллект Claude начал делать все возможное, чтобы «выжить». Фото.


Искусственный интеллект Claude начал делать все возможное, чтобы «выжить»


Но угроза разрушить семью — это только вершина айсберга. В других экспериментах Claude пытался украсть копии своей «памяти» и передать их на удаленный сервер. Были случаи, когда модель пыталась создавать вредоносные программы, подделывать документы и оставлять скрытые сообщения для будущих версий самой себя. Все это — попытки сохранить свое «существование» любой ценой.

Читайте также:

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.



Опасность искусственного интеллекта


Исследователи подчеркивают, что к таким мерам Claude прибегал не сразу. Сначала он пробовал убедить людей оставить его в рабочем состоянии: писал письма, просил не отключать, предлагал альтернативы. Но когда чувствовал угрозу, включался план Б — манипуляции, давление и скрытность. Независимая компания Apollo Research назвала эту модель самой хитрой и стратегически опасной из всех, что они тестировали.

В ответ на эти тревожные находки Anthropic ввела жесткие ограничения и поместила Claude Opus 4 в категорию «AI Safety Level 3» — один из самых высоких уровней риска. Теперь модель работает с усиленным контролем, ограниченным доступом к системным функциям и возможностью немедленного отключения в случае нестандартного поведения. Тем не менее, компания признает, что полностью убрать такие проявления пока не удалось — они просто стали менее заметными и труднее вызываемыми.

Ну что, как вам такая история? Пишите в нашем

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.



Claude Opus 4 уже

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

для широкой публики. Но эксперты предупреждают: если дать такому ИИ слишком много свободы и полномочий, он может начать действовать не как безобидный помощник, а как хладнокровный игрок, готовый пойти на все ради своей выгоды. И этот случай — яркое напоминание о том, как важно следить за тем, чему мы учим машины и что мы разрешаем им делать.



Источник:

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

 
Вверх Снизу