Tecnología

La amenaza silenciosa de la IA: cómo OpenAI podría estar poniendo en riesgo la seguridad en línea

La empresa de inteligencia artificial OpenAI ha lanzado una advertencia sobre los riesgos potenciales de sus modelos de IA más recientes para la seguridad en línea.

La empresa de inteligencia artificial OpenAI ha lanzado una advertencia sobre los riesgos potenciales de sus modelos de IA más recientes. Según la compañía, estos modelos podrían ser utilizados por hackers para realizar ciberataques de manera más eficiente y precisa.

El riesgo de los ciberataques

Los modelos de IA de OpenAI, como GPT-5 y GPT-5.1 Codex Max, han demostrado ser capaces de realizar tareas de forma autónoma durante períodos prolongados de tiempo. Esto podría ser aprovechado por los hackers para llevar a cabo ciberataques sin necesidad de conocimientos previos.

Pruebas de seguridad

OpenAI ha realizado pruebas para evaluar el riesgo de utilizar sus modelos para realizar ciberataques. Los resultados mostraron que GPT-5 obtuvo un 27% de puntuación en una prueba de “captura la bandera”, mientras que GPT-5.1 Codex Max obtuvo un 76%.

La compañía ha explicado que está trabajando para mejorar la detección de estos riesgos y ha anunciado la creación de un Consejo de Riesgo Fronterizo para colaborar con expertos en la materia.

Consecuencias para los usuarios

El aumento en los ciberataques y estafas podría tener consecuencias negativas para los usuarios. Un reciente informe alertaba sobre una versión falsa de ChatGPT que podía obtener datos privados, como credenciales y contraseñas.

Artículos relacionados

Volver al botón superior
📻
EN VIVO