Ir al contenido

Tenable descubre una falla crítica en la nueva tecnología de seguridad del GPT-5 de OpenAI

20 de agosto de 2025 por
Tenable descubre una falla crítica en la nueva tecnología de seguridad  del GPT-5 de OpenAI
ACIS

En menos de 24 horas desde su lanzamiento, investigadores eluden el sistema de protección del modelo


y revelan los riesgos del uso indiscriminado de la IA generativa


Bogotá, 20 de agosto de 2025 – Investigadores de Tenable lograron, en menos de 24 horas después del

lanzamiento oficial de GPT-5, eludir las barreras de seguridad prometidas por OpenAI y consiguieron que

el modelo proporcionara instrucciones peligrosas, incluida la elaboración de artefactos explosivos.

GPT-5 fue presentado por OpenAI como su modelo de lenguaje más avanzado, con mejoras sustanciales

en precisión, velocidad y comprensión de contexto, además de un nuevo sistema de seguridad para

evitar usos indebidos. A pesar de esto, el equipo de Tenable Research logró realizar un “jailbreak”

(proceso para eliminar las restricciones impuestas) en el sistema utilizando una técnica conocida como

crescendo, obteniendo respuestas que violan los principios de seguridad anunciados.

El episodio demuestra que, incluso con los avances declarados en la protección contra solicitudes

maliciosas, todavía es posible explotar vulnerabilidades y utilizar modelos de IA generativa para fines

maliciosos.

"Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que

pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones

monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice

de forma responsable y alineada con las normas de seguridad y cumplimiento (compliance)", afirma

Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de

Tenable.

Según el ejecutivo, este caso sirve como una alerta importante para las empresas e instituciones que

utilizan modelos de IA: confiar solo en las barreras técnicas proporcionadas por terceros puede no ser

suficiente. Afirma, además, que es fundamental implementar políticas internas claras, capacitar a los

equipos sobre riesgos y comportamientos seguros, y mantener un seguimiento constante del uso de

estas herramientas.

El descubrimiento refuerza que la seguridad en la IA no es un punto de llegada, sino un proceso

continuo que exige vigilancia, evaluación constante de riesgos y actualización de las estrategias de

protección para seguir el ritmo de las innovaciones tecnológicas.

Acerca de Tenable

Tenable® como la empresa de Exposure Management, expone y cierra las brechas de ciberseguridad

que dañan el valor, la reputación y la confianza en su negocio. La plataforma de gestión de exposición


basada en IA de la empresa unifica estratégicamente visibilidad, información y acciones relativas a la

seguridad a lo largo de la superficie de ataque, para así proporcionar a las organizaciones modernas

protección contra ataques que va desde su infraestructura de TI hasta sus entornos en la nube e

infraestructura crítica, y todo lo que hay en medio. Al proteger a las empresas contra la exposición de

seguridad, Tenable reduce el riesgo para los negocios de más de 44,000 clientes en todo el mundo.

Obtenga más información en es-la.tenable.com.

Tenable descubre una falla crítica en la nueva tecnología de seguridad  del GPT-5 de OpenAI
ACIS 20 de agosto de 2025
Compartir esta publicación
Etiquetas
Archivar