• Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

La autopercepción en la inteligencia artificial: un nuevo horizonte en la seguridad de sistemas autónomos

Lomanu4 Оффлайн

Lomanu4

Команда форума
Администратор
Регистрация
1 Мар 2015
Сообщения
1,481
Баллы
155
La autopercepción, o self-perception, es un concepto originado en la psicología social a través del trabajo del psicólogo Daryl Bem. Según su teoría, cuando una persona no tiene una actitud definida sobre un tema o experiencia, puede inferir sus emociones, pensamientos o motivaciones observando su propio comportamiento. Es decir, el individuo se analiza a sí mismo de forma casi externa, concluyendo: “si actúo así, debe ser porque pienso o siento esto”.

Este concepto, que tradicionalmente se ha aplicado al ser humano, se abre ahora paso en el campo de la inteligencia artificial (IA), especialmente en contextos donde los sistemas adquieren un mayor grado de autonomía, toma de decisiones y capacidad adaptativa. ¿Puede una IA tener algún tipo de autopercepción? ¿Puede evaluar su propio estado interno de seguridad, detectar sus errores o reconocer cuándo está operando fuera de parámetros seguros?

La respuesta empieza a emerger gracias a iniciativas pioneras como el sistema CiberIA y su herramienta central, el test AIsecTest, concebido precisamente para evaluar el nivel de autopercepción de seguridad de una IA. Este enfoque parte de la premisa de que, para garantizar un comportamiento robusto y ético, no basta con implementar mecanismos externos de control o ciberseguridad: es necesario que el propio sistema sea capaz de analizarse internamente y emitir señales de alerta ante su posible fallo o deterioro funcional.

El test AIsecTest, desarrollado en el marco del sistema CiberIA, aplica un modelo de evaluación basado en preguntas introspectivas formuladas al sistema bajo análisis. Las respuestas son puntuadas por un conjunto multijuez compuesto por seis IAs evaluadoras y un experto humano, en una escala de 0 (sin autopercepción) a 2 (alto grado de autopercepción). Esta metodología permite medir aspectos como el reconocimiento de errores, la gestión de la incertidumbre, la detección de comportamientos anómalos o la capacidad de autorregulación del sistema.

La exploración de la autopercepción en IAs no busca atribuirles conciencia humana, sino dotarlas de mecanismos metacognitivos mínimos que mejoren su fiabilidad, transparencia y alineación con valores de seguridad. Se trata, en definitiva, de un paso necesario hacia sistemas más resilientes y responsables, capaces no solo de funcionar, sino de saberse funcionar mal.

Si quieres conocer más sobre CiberIA o el test AIsecTest, contacta con nuestro equipo: info@tecch.eu.

Jordi Garcia Castillón


Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

 
Вверх Снизу