Revista Informática

OpenAI acelera el código con Spark y bloquea ChatGPT

Publicado el 02 abril 2026 por Ferranmunoz @ferran_munoz

OpenAI presenta un modelo de codificación en tiempo real 15 veces más rápido que GPT-5.3-Codex, optimizado para chips Cerebras, e introduce un modo de bloqueo en ChatGPT para proteger a los usuarios más expuestos a las amenazas cibernéticas dirigidas a la IA.

Bajo presión desde que Anthropic y Google se han puesto al día en gran medida, sacudidos por la omnipresencia de Gemini App y el éxito fenomenal de Claude Code, OpenAI ha levantado el velo GPT-5.3-Codex-Sparkun modelo de codificación diseñado para la interacción en tiempo real. Al mismo tiempo, el pionero de la IA generativa también anunció la llegada de Modo de bloqueo y etiquetas de «Riesgo elevado» en ChatGPT. Dos iniciativas que, en conjunto, perfilan una doble trayectoria estratégica: llevar el rendimiento de la inferencia a nuevos niveles y al mismo tiempo abordar de frente los desafíos de seguridad vinculados a la creciente interconexión de los asistentes de IA con los sistemas de información de las empresas.

Spark: la velocidad es un criterio clave

Hablamos mucho sobre Codex y Claude Code. Su automatización, en teoría, ahorra mucho tiempo a los desarrolladores. Pero en la práctica, a menudo tienen mucho tiempo para ir y esperar más de un café. La realidad es que los modelos actuales de codificación de IA, por muy potentes que sean, imponen una latencia que interrumpe el flujo de trabajo del desarrollador. Unos pocos minutos de espera entre una solicitud y la primera línea de código generada son suficientes para romper el estado de concentración. OpenAI quería solucionar este problema de forma radical.

GPT-5.3-Codex-Spark es una versión simplificada (“destilada”) del modelo GPT-5.3-Codex, optimizada no para la profundidad del razonamiento sino para la capacidad de respuesta pura. El resultado es espectacular: el modelo genera más de 1.000 tokens por segundo, aproximadamente 15 veces la velocidad del modelo Codex estándar. A este ritmo, el código aparece casi en tiempo real, hasta el punto en que el desarrollador puede interrumpir, redirigir y refinar la producción del modelo mientras escribe, tal como lo haría con un colega en pareja.

Una novedad fuera del ecosistema de Nvidia

Este aumento de velocidad es el resultado de un enfoque disruptivo. ¡Salga de Nvidia! El secreto de Spark reside tanto en el modelo en sí como en la infraestructura que lo impulsa. Spark es el primer modelo OpenAI especialmente optimizado e implementado en producción en silicio que no es de Nvidia: se ejecuta en Wafer Scale Engine 3 (WSE-3) de Cerebras, un acelerador de IA de escala completa diseñado específicamente para inferencia de latencia ultrabaja.

A diferencia de las GPU tradicionales, que requieren que los datos pasen entre múltiples chips conectados por cables, el WSE-3 concentra toda la informática en una única superficie de silicio. La SRAM integrada es lo suficientemente grande como para acomodar todo el modelo destilado, eliminando los cuellos de botella en la transferencia de memoria que ralentizan las arquitecturas de GPU tradicionales.

Esta asociación, anunciada en enero pasado y valorada en más de 10 mil millones de dólares a lo largo de varios años, prevé la puesta en servicio de 750 megavatios de capacidad informática de Cerebras para 2028. OpenAI tuvo cuidado de aclarar que las GPU de Nvidia siguen siendo “fundamentales” para el entrenamiento y la inferencia de uso general, posicionando a Cerebras como un complemento especializado para cargas de trabajo donde la latencia tiene prioridad sobre todo lo demás.

OpenAI no se limitó al hardware. La pila de inferencia se ha reescrito ampliamente: conexión WebSocket persistente, optimización de API de respuestas, revisión de inicialización de sesión. Resultado: 80% menos gastos generales por viaje de ida y vuelta cliente/servidor, reducción del 50% en el tiempo hasta el primer token.
Estas mejoras, habilitadas de forma predeterminada para Spark, se irán extendiendo gradualmente a todos los modelos OpenAI.

La otra cara de la moneda

Dicho esto, esta velocidad tiene un precio. Spark es un modelo más pequeño, menos capaz en tareas complejas que requieren razonamiento de varios pasos. En el punto de referencia SWE-Bench Pro, que evalúa las capacidades de ingeniería de software autónomas, Spark obtiene una puntuación de alrededor del 56 % en comparación con el 72 % del Codex completo. En Terminal-Bench 2.0, la brecha es aún más marcada (58,4% frente a 77,3%). OpenAI también indica que Spark no alcanza el umbral de “alta capacidad” de su Marco de Preparación en términos de ciberseguridad, a diferencia del modelo principal.

En otras palabras, todo es una cuestión de equilibrio entre velocidad y relevancia. Spark está diseñado para microiteraciones rápidas (ediciones específicas, refactorización ligera, ajustes de interfaz, generación de fragmentos), mientras que el Codex completo sigue siendo la herramienta preferida para tareas pesadas y análisis arquitectónicos complejos. Varios desarrolladores que han visto una vista previa del modelo convergen en el mismo flujo de trabajo pragmático: crear rápidamente un prototipo con Spark y luego validarlo con el modelo completo antes de fusionar el código.

Spark está disponible como vista previa de la investigación para los suscriptores de ChatGPT Pro ($200/mes) a través de la aplicación Codex, la extensión VS Code y la interfaz de línea de comandos. Tiene una ventana de contexto de 128.000 tokens y solo admite texto en este momento. El acceso API se ofrecerá a un número limitado de socios.

Modo Lockdown: seguridad a través de la restricción

En un tema radicalmente diferente, OpenAI muestra un nuevo interés en la seguridad de la IA y sus usos en los negocios. Es cierto que el tema se está volviendo muy central hoy en día: a medida que ChatGPT (y otros asistentes de IA) se conectan a la web y a aplicaciones de terceros, la superficie de ataque se expande. Los ataques de inyección rápida, en los que se introduce contenido malicioso en un documento o página web y se intenta manipular la IA para extraer datos confidenciales, son ahora una amenaza muy real, creciente y muy difícil de contrarrestar.

OpenAI ahora asume este riesgo de frente. El modo de bloqueo es una nueva configuración de seguridad opcional en ChatGPT en la versión empresarial. Su principio es restringir drásticamente las interacciones de ChatGPT con sistemas externos para cortar los vectores de filtración de datos mediante una inyección rápida. Debido a que limita de facto el potencial de la IA, no está previsto su despliegue global. Más bien está diseñado para proteger a un número limitado e identificado de usuarios particularmente expuestos: gerentes de negocios, equipos de seguridad de TI, organizaciones que manejan datos confidenciales.

En concreto, cuando se activa el Modo Lockdown, varias capacidades se desactivan o restringen. La navegación web se limita al contenido almacenado en caché en lugar de consultas en vivo, lo que impide que los datos se envíen a un servidor controlado por un atacante. Las imágenes en las respuestas de ChatGPT se eliminan (el usuario aún puede cargar imágenes y usar la generación de imágenes). La carga de archivos para análisis de datos por parte de ChatGPT también está bloqueada, aunque el usuario aún puede proporcionar sus archivos manualmente.

El objetivo es cortar «deterministamente» las solicitudes de red salientes que podrían explotarse para transferir datos a un atacante. OpenAI especifica, sin embargo, que el modo Lockdown no pretende impedir ninguna forma de inyección rápida: el contenido malicioso oculto en un archivo cargado aún podría influir en el comportamiento de ChatGPT, por ejemplo, distorsionando sus respuestas. El modo está dirigido específicamente a la etapa de exfiltración, no a la inyección en sí.

Etiquetas de «Riesgo elevado» para una mayor transparencia

Al mismo tiempo, OpenAI está estandarizando un sistema de etiquetado de «Riesgo elevado» que se aplicará de manera consistente en ChatGPT, ChatGPT Atlas y Codex. La idea es marcar claramente las características que introducen riesgos adicionales relacionados con el acceso a la red o la exposición de datos. Se trata de una ventaja útil, sobre todo para la formación y la sensibilización de los usuarios.

En Codex, por ejemplo, los desarrolladores pueden otorgar al modelo acceso a Internet para ver documentación o interactuar con sitios web. La pantalla de configuración ahora mostrará una etiqueta de “Riesgo elevado” que explica qué modifica este acceso, qué riesgos introduce y bajo qué circunstancias su activación puede ser relevante.

OpenAI se compromete a hacer evolucionar estas etiquetas con el tiempo: a medida que las protecciones se vuelven más fuertes, ciertas características pueden perder su etiqueta de alto riesgo. Por el contrario, se podrán asignar esta etiqueta a nuevas funciones si sus riesgos aún no están suficientemente controlados.

Disponibilidad y alcance

El modo de bloqueo ya está disponible para los entornos ChatGPT Enterprise, Edu, Healthcare y Teachers. Los administradores pueden habilitarlo a través de la configuración de su espacio de trabajo creando una función dedicada. Conservan la capacidad de definir con precisión qué aplicaciones y qué acciones dentro de estas aplicaciones permanecen accesibles para los usuarios en modo bloqueado. Una plataforma de registros a través de la API de Cumplimiento también ofrece visibilidad detallada del uso de las aplicaciones y los datos compartidos.

OpenAI planea expandir el modo Lockdown a las ofertas para consumidores y equipos en los próximos meses.

Estos dos anuncios resaltan la tensión que atraviesa la IA generativa en los negocios: por un lado, herramientas cada vez más rápidas integradas en los flujos de trabajo; por el otro, superficies de ataque que se expanden al mismo ritmo. Una forma de recordarnos que si el asistente de codificación de IA entra en la era del tiempo real, su implementación requiere al mismo tiempo la implementación de una política de seguridad real específica, calibrada en función de los riesgos específicos de la IA.

Lea también:

GPT-5.3-Codex / Claude Opus 4.6: Llegan los nuevos modelos fronterizos 2026

OpenAI lanza una plataforma de orquestación para agentes de IA y agentes de IA: Frontier

Snowflake firma con OpenAI, ServiceNow adopta Anthropic

OpenAI Prism: el taller de IA que quiere reinventar la escritura científica

[


Volver a la Portada de Logo Paperblog