ChatGPT en 2026: modelos, funciones, precios y lo que muestran los datos
ChatGPT es el producto de IA conversacional más utilizado del mundo, desarrollado por OpenAI sobre la familia de modelos GPT. A fecha de mayo de 2026, el modelo insignia detrás de ChatGPT es GPT-5.5, lanzado el 23 de abril de 2026. Registra la puntuación más alta jamás registrada en el Artificial Analysis Intelligence Index (60, puesto 1) y, al mismo tiempo, la tasa de alucinaciones más alta jamás registrada en el benchmark AA-Omniscience (86%). Esa paradoja —más capaz, más seguro, más propenso a inventar cuando no sabe— es el hecho más importante sobre ChatGPT en 2026 y el hilo conductor de esta guía.
Esta página cubre qué es ChatGPT, la alineación actual de modelos, cuánto cuesta cada nivel y qué modelo obtiene realmente en él, el conjunto de funciones tal y como está en mayo de 2026, el panorama de benchmarks (dónde lidera ChatGPT, dónde se queda atrás, qué interpretar de las brechas entre las mediciones del proveedor y las independientes), los patrones de alucinación que deberían orientar cómo lo utiliza, lo que muestran los datos de producción multimodelo sobre ChatGPT frente a sus competidores, las controversias activas y las preguntas que la gente busca con más frecuencia. Las cifras están fechadas. El producto ChatGPT cambia semanalmente. Cuando una afirmación es volátil, se señala.
Si está eligiendo herramientas de IA para trabajo de alto riesgo, el hallazgo principal de los datos de producción es este: según el Índice de divergencia multimodelo de Suprmind (edición de abril de 2026, n=1.324 turnos de producción), otros modelos pillaron a ChatGPT cometiendo errores 295 veces, mientras que solo los corrigió 111 veces: una tasa de detección de 0,38, la más baja de los cinco proveedores analizados. La decisión no es si ChatGPT es bueno. Lo es. La decisión es si usarlo en solitario ofrece el perfil de riesgo adecuado para su trabajo.
Qué es ChatGPT
ChatGPT es un producto de IA conversacional desarrollado por OpenAI que, a partir de abril de 2026, utiliza el modelo de lenguaje GPT-5.5 para responder preguntas, generar texto, analizar documentos, escribir y ejecutar código, generar imágenes, controlar navegadores web y sistemas operativos, y completar tareas de varios pasos. Está disponible en chatgpt.com, en las apps de iOS y Android, en aplicaciones de escritorio dedicadas para macOS y Windows, y a través de la API de OpenAI en platform.openai.com. El producto es distinto de la familia de modelos GPT subyacente que lo impulsa: se puede acceder a los mismos modelos directamente a través de la API con precios diferentes.
OpenAI ha lanzado seis generaciones principales de modelos en menos de ocho meses, entre GPT-5 (agosto de 2025) y GPT-5.5 (abril de 2026). El ritmo se está acelerando, no estabilizando. Greg Brockman, presidente de OpenAI, describió ese ritmo como algo que se espera que continúe durante la sesión informativa de lanzamiento de GPT-5.5.
ChatGPT superó los 300 millones de usuarios activos semanales a principios de 2026, generó aproximadamente 8.000 millones de USD de ingresos en 2025 y declara aproximadamente 2.000 millones de USD de ingresos mensuales a fecha de su anuncio de ronda de financiación de marzo de 2026. La escala de adopción a este nivel es una señal real: indica encaje producto-mercado, amplitud de integración y accesibilidad. Pero es una métrica de distribución, no una métrica de calidad. Los datos sobre si ChatGPT es la mejor IA para una tarea específica son menos halagadores de lo que sugeriría el recuento de usuarios.
ChatGPT frente a la API de GPT
ChatGPT es un producto para consumidores y prosumidores. La API de OpenAI es una superficie para desarrolladores. Ambos funcionan con modelos GPT, pero la experiencia y la estructura de costes son diferentes. ChatGPT ofrece seis niveles de consumo (Free, Go, Plus, Pro $100, Pro $200, Business) con acceso incluido a funciones como Proyectos, Memoria, Deep Research, ChatGPT Agent y GPT personalizados. La API expone endpoints de modelo en bruto con precios por token medidos, sin interfaz de chat, sin Memoria, sin Proyectos. La mayoría de las aplicaciones de producción que integran capacidades GPT usan la API directamente. ChatGPT es con lo que la mayoría de los usuarios interactúa en el día a día. Si está evaluando el coste de una carga de trabajo que se ejecuta a través de su propio producto, consulte más adelante en esta página la tabla de precios de la API. Si está evaluando el coste para uso individual o de equipo de ChatGPT en sí, consulte la tabla de niveles de consumo.
ChatGPT vs GPT-5.5: ¿son lo mismo?
No. GPT-5.5 es el modelo subyacente. ChatGPT es el producto que enruta su consulta a GPT-5.5, GPT-5.4 u otro modelo según el nivel y la complejidad del prompt. A fecha de marzo de 2026, el selector de modelos de ChatGPT se rediseñó para mostrar solo tres etiquetas: “Instant”, “Thinking” y “Pro”, seleccionándose automáticamente el modelo subyacente real. Para verificar qué modelo específico gestionó una consulta, hay que ir a un ajuste de Configurar que la mayoría de los usuarios nunca abre. Los usuarios de la API siempre reciben el ID del modelo específico en los metadatos de la respuesta. Los usuarios de ChatGPT con la configuración predeterminada no.
Esto importa más de lo que parece. Según el Índice de divergencia multimodelo de Suprmind (edición de abril de 2026, n=1.324 turnos de producción), la tasa de “seguro pero contradicho” de ChatGPT baja del 39,6% en el total de turnos al 36,2% en turnos de alto riesgo: una mejora de calibración de 3,4 puntos bajo presión. Eso es un comportamiento genuinamente bueno. Pero no puede saber de forma fiable desde la interfaz de ChatGPT si su consulta de alto riesgo la gestionó GPT-5.5, GPT-5.4 o un enrutamiento de respaldo a un modelo más pequeño. La brecha de transparencia está documentada y es persistente.
Modelos y variantes actuales
OpenAI mantiene dos líneas arquitectónicas paralelas: la línea GPT (modelos principales de generación e instrucción) y la serie o (modelos de razonamiento que usan una cadena de pensamiento interna ampliada). GPT-5 introdujo una arquitectura unificada con enrutamiento interno entre razonamiento rápido y profundo, eliminando la distinción visible para el usuario entre las líneas. A fecha de mayo de 2026, GPT-5.5 es el modelo insignia tanto en ChatGPT como en la API. Los endpoints de la serie o (o3, o3-pro) siguen en la API, pero ya no son la vía que toma la mayoría de los usuarios.
A continuación se muestra el panorama de modelos activos y retirados a fecha de mayo de 2026. Las variantes y fechas se toman del catálogo oficial de modelos de OpenAI en developers.openai.com/api/docs/models/all y se confirman con seguimiento independiente. Esta tabla cambia con frecuencia: consulte la URL de origen para ver la lista actual.
Modelos GPT activos (mayo de 2026)
Fuente: developers.openai.com – última verificación: 2026-05-07
- Lanzado el 2026-04-23
- Ventana de contexto de 1,1 M de tokens, 128K de salida
- Multimodal: texto, imagen, audio (entrada) / texto, imagen (salida)
- API: 5,00 $ / 30,00 $ por 1 M de tokens
- Lanzado el 2026-03-05
- 272K estándar / 1,05 M de contexto ampliado
- Uso nativo del ordenador: 75% OSWorld-Verified
- API: 2,50 $ / 15,00 $ por 1 M de tokens
- Lanzado el 2026-03-03
- Menos preámbulos moralizantes frente a modelos anteriores
- Reducción de alucinaciones: 26,8% con web, 19,7% sin web (frente al anterior)
- Está siendo sustituido por GPT-5.5 Instant
- 200K de contexto, 100K de salida
- Esfuerzo de razonamiento seleccionable: bajo, medio, alto
- API: o3 2,00 $ / 8,00 $ – o3-pro 20,00 $ / 80,00 $
- o3-mini y o4-mini retirados en ChatGPT, legado en la API
- Ventana de contexto de 1 M de tokens
- API: 2,00 $ / 8,00 $ (mini: 0,40 $ / 1,60 $)
- Retirado de la interfaz de ChatGPT el 2026-02-13, activo en la API
- Nuevo conjunto de datos de Vectara: 5,6% (mejor que GPT-5 en resumen)
- Licencia Apache 2.0
- 120B cabe en una sola GPU H100
- Los primeros lanzamientos abiertos de OpenAI a escala frontier
- Detalles de la arquitectura no divulgados públicamente
GPT-5.5, GPT-5.4, GPT-5.3: qué cambió entre versiones
GPT-5.3 Instant (lanzado el 3 de marzo de 2026) fue el modelo Instant predeterminado para usuarios de ChatGPT hasta que GPT-5.5 Instant empezó a desplegarse alrededor del 1 de mayo de 2026. Su principal cambio de comportamiento fue menos “cringe”: menos patrones de redacción excesivamente tajantes, menos rechazos innecesarios y menos preámbulos moralizantes. OpenAI afirmó una reducción de alucinaciones del 26,8% con búsqueda web y del 19,7% sin ella frente a modelos Instant anteriores.
GPT-5.4 (lanzado el 5 de marzo de 2026) introdujo el uso nativo del ordenador, con una puntuación del 75% en OSWorld-Verified, por encima de la línea base humana del 72,4%. Integró el pipeline de programación GPT-5.3-Codex en el modelo base, amplió el contexto estándar a 272.000 tokens con contexto ampliado hasta 1,05 millones de tokens en entornos Codex y de API, e informó de un 33% menos de errores fácticos que GPT-5.2. El precio de la API quedó en 2,50 $ por 1 M de tokens de entrada y 15,00 $ por 1 M de tokens de salida en contexto estándar. Los tokens por encima de 272K se facturan a 2x en entrada y 1,5x en salida.
GPT-5.5 (lanzado el 23 de abril de 2026) es el modelo insignia actual. El encuadre público de OpenAI es “un pensador más rápido y más agudo con menos tokens” frente a GPT-5.4. El modelo registra un Artificial Analysis Intelligence Index de 60 (puesto 1 entre todos los modelos), un 97,5% en AIME 2026 (puesto 1 de 25 modelos en MathArena), un 88,7% en SWE-bench Verified (una guía independiente de desarrolladores de codersera informa de un 82,6%: señalar como conflicto a la espera de la system card de OpenAI), un 85% en ARC-AGI-2 y un 78,7% en OSWorld-Verified. La ventana de contexto es de 1,1 millones de tokens de entrada y 128.000 de salida. El precio de la API es 5,00 $ por 1 M de entrada, 0,50 $ por 1 M de entrada en caché y 30,00 $ por 1 M de salida. A finales de abril de 2026, se indicó que el acceso por la API de ChatGPT a GPT-5.5 “llegaría muy pronto”, sin una fecha firme.
El corte de entrenamiento de GPT-5.5 no se ha divulgado públicamente. El corte de GPT-5.4 se reporta como agosto de 2025 en fuentes secundarias, pero no está confirmado en una system card oficial de OpenAI.
Modelos de razonamiento: serie o vs GPT-5.x
Los modelos de la serie o (o1, o3, o3-pro, o4-mini) usan un proceso de razonamiento entrenado con aprendizaje por refuerzo que genera largas cadenas internas de pensamiento antes de producir el resultado. Fueron los primeros modelos de OpenAI con niveles de esfuerzo de razonamiento seleccionables. A partir de GPT-5, OpenAI unificó este comportamiento en la línea GPT mediante enrutamiento interno. El selector de modelos ahora ofrece Instant, Thinking y Pro: las etiquetas de la serie o han desaparecido de la interfaz de consumo, aunque o3 y o3-pro siguen disponibles en la API.
En la práctica, esto significa: si está en un plan de consumo de ChatGPT y quiere razonamiento ampliado, elija el modo Thinking en el selector de modelos. Si está en la API y quiere control explícito sobre el cómputo de razonamiento, llame a o3 o o3-pro directamente con el parámetro reasoning_effort. La serie o es donde vive el razonamiento más profundo, pero la distinción de cara al consumidor ha desaparecido.
¿Qué modelo le da cada nivel? Matriz nivel-modelo
Esta es la pregunta más buscada y menos respondida en la documentación de ChatGPT. La respuesta cambia cada mes. La tabla siguiente refleja mayo de 2026.
Nota sobre la alineación de modelos del nivel Business: la página de precios de Business de OpenAI a fecha de mayo de 2026 hace referencia a GPT-5.2 como modelo subyacente para los espacios de trabajo de Business. El despliegue de GPT-5.5 en Business se ha confirmado en informes independientes, pero es posible que la página de precios aún no refleje la disponibilidad actualizada. Trate esta fila como volátil hasta que OpenAI actualice la página.
Según el Índice de divergencia multimodelo de Suprmind (edición de abril de 2026, n=1.324 turnos de producción), ChatGPT aporta 339 insights únicos en el conjunto de datos: un 13,1% del total de insights únicos, el porcentaje más bajo de los cinco proveedores analizados. Perplexity (636, 24,7%) y Claude (631, 24,5%) aportaron casi el doble cada uno. Esta es una de las razones por las que importa saber qué modelo gestionó su consulta: si a un usuario Plus se le enruta a una variante más pequeña de modo rápido para una consulta de alto riesgo, el suelo de insights únicos es aún más bajo.
Véase también: Comparación de insights únicos de IA →
Precios y planes
ChatGPT en 2026 tiene más niveles que en cualquier momento anterior. El panorama siguiente cubre consumo, prosumidor, business y enterprise. Los precios de la API son independientes y se tratan en la siguiente subsección. Todos los precios están en USD. Todos los límites están sujetos a cambios: las páginas de precios de OpenAI son la fuente canónica.
Niveles de consumo: Free, Go, Plus, Pro
Free (0 $/mes) funciona por defecto con GPT-5.3 Instant, con GPT-5.5 Instant en despliegue. El nivel incluye aproximadamente 10 mensajes por ventana de 5 horas en GPT-5.3, 3 subidas de archivos al día, navegación por la GPT Store y acceso a GPT personalizados creados por otras personas. Deep Research, Advanced Voice Mode, ChatGPT Agent y Sora no están disponibles en Free. A fecha de 9 de febrero de 2026, el nivel Free en EE. UU. muestra anuncios: es la primera vez que OpenAI coloca publicidad en ChatGPT.
Go (8 $/mes) se lanzó globalmente el 16 de enero de 2026 tras un debut exclusivo en India en agosto de 2025. Funciona con GPT-5.2 Instant y ofrece aproximadamente 10x los límites de mensajes de Free, 10x subidas de archivos y 10x creación de imágenes, con memoria ampliada. Go también muestra anuncios. Este nivel se sitúa entre Free y Plus para usuarios que quieren más capacidad pero no necesitan el conjunto de funciones de Plus.
Plus (20 $/mes) es el punto de entrada para un uso serio. Incluye acceso a GPT-5.5 Instant y GPT-5.5 Thinking mediante el selector Auto, GPT-5.4 Pro y o3 en modo Flexible, 80 subidas de archivos por ventana móvil de 3 horas, 25 archivos por Proyecto, 10 consultas de Deep Research al mes, Advanced Voice Mode, generación de imágenes, generación de vídeo con Sora con capacidad limitada, modo ChatGPT Agent, Canvas, Tasks y creación de GPT personalizados. Se informa de una facturación anual de 198 $/año, aunque OpenAI no publica precios anuales en sus páginas públicas a fecha del dossier: señalar como volátil.
Pro 100 $/mes se lanzó el 9 de abril de 2026 como un nivel Pro intermedio. Ofrece acceso a GPT-5.5 Pro, las mismas funciones Pro principales que el plan de 200 $, y 5x el uso de Codex frente a Plus, con una promoción de lanzamiento de 10x uso hasta el 31 de mayo de 2026. La diferencia principal respecto a Pro 200 $ son los límites de tasa, no la amplitud de funciones.
Pro 200 $/mes está en la cima de la escalera de consumo. Ofrece GPT-5.5 Pro con cómputo ampliado, 20x los límites de mensajes de Plus, salida de vídeo Sora a 1080p sin marca de agua de hasta 25 segundos (donde Sora siga disponible; véase la nota de Sora en Funciones), servicio prioritario en picos de demanda y ventana de contexto de 1 M de tokens para trabajo con documentos largos. Para usuarios que ejecutan ChatGPT durante horas al día en tareas relevantes, Pro 200 $ es el nivel que más probablemente se sienta sin límites.
Niveles Business, Enterprise y Edu
Business (antes ChatGPT Team, renombrado en agosto de 2025) cuesta 30 $ por usuario al mes con facturación mensual o 25 $ por usuario al mes con facturación anual. Incluye espacios de trabajo compartidos, SAML SSO, no entrenar modelos con sus datos, cumplimiento SOC 2 Tipo 2, el agente Codex, Deep Research, 32K de contexto para modelos sin razonamiento y 196K de contexto para modelos de razonamiento. A fecha del dossier, Business no incluye aprovisionamiento SCIM ni certificaciones ISO 27001/27017/27018/27701: esas son funciones de Enterprise.
Enterprise tiene precio personalizado (estimaciones independientes lo sitúan en el rango de 40-60 $ por usuario al mes, pero OpenAI no lo divulga). Añade certificaciones ISO, aprovisionamiento SCIM, gestión de claves empresarial, control de acceso basado en roles, un panel de analítica, allowlisting de IP, opciones de residencia de datos en EE. UU., UE, Reino Unido, Japón, Canadá, Corea, Singapur, India, Australia y EAU, una consola global de administración, soporte prioritario 24/7 y términos legales personalizados.
Edu está destinado a instituciones académicas. El precio no es público.
Precios de la API para desarrolladores
La API de OpenAI se mide por token con tarifas separadas para entrada, entrada en caché y salida. Las entradas en caché (una solicitud que reutiliza material del prompt de una solicitud reciente anterior) obtienen un descuento sustancial.
Fuente: openai.com/api/pricing a fecha de 2026-05-07. La API también ofrece niveles de procesamiento Batch (50% de descuento, asíncrono de 24 horas), Flex (menor coste, más lento) y Priority (2,5x el estándar para rendimiento garantizado).
Para contexto comparativo: GPT-4o mini a 0,15 $ por 1 M de entrada es aproximadamente 33x más barato que GPT-5.5 por token de entrada. Para cargas de trabajo de alto volumen que no necesitan capacidad insignia, el modelo multimodal anterior sigue siendo el predeterminado más eficiente en coste.
Véase también: Detalles de precios de la API de GPT-5.5 →
Funciones principales
El conjunto de funciones de ChatGPT en 2026 abarca gestión de documentos, investigación de varios pasos, control del ordenador mediante agentes, voz, generación de imágenes, ejecución de código, memoria persistente y personalización. La lista siguiente es la superficie canónica a fecha de mayo de 2026. Las funciones marcadas como retiradas ya no se recomiendan para nuevos usos, aunque el acceso por API pueda persistir.
Proyectos y Memoria
Los Proyectos agrupan conversaciones relacionadas bajo un contexto compartido: instrucciones, archivos subidos y Memoria del Proyecto que persiste en todos los chats dentro de ese proyecto. La Memoria en un Proyecto está acotada: los hechos que el modelo aprende en el chat principal no se trasladan a los Proyectos, y las memorias del Proyecto no se filtran hacia fuera. Los límites de archivos por Proyecto dependen del nivel: Free 5 archivos, Go y Plus 25 archivos, Pro y Business y Enterprise 40 archivos. Proyectos se lanzó en noviembre de 2025. La Memoria del Proyecto llegó después, en agosto de 2025.
La Memoria más allá de Proyectos almacena hechos que el modelo extrae de las conversaciones —preferencias, decisiones pasadas, contexto personal— en un perfil persistente editable en chatgpt.com/settings/personalization. Los usuarios pueden ver, editar o eliminar entradas de memoria individuales, o desactivar la memoria por completo. La Memoria no tiene caducidad publicada. Persiste hasta que se elimina manualmente. No se especifican públicamente el número de elementos almacenados ni el coste en tokens de la inyección de memoria.
Deep Research
Deep Research es un agente de investigación de varios pasos que lanza consultas web secuenciales, lee las páginas recuperadas, sintetiza entre fuentes y produce un informe estructurado con citas. Las sesiones duran de 5 a 30 minutos y pueden leer decenas de páginas. Disponible en Plus (10 consultas al mes), Pro (límites más altos; el recuento exacto no se divulga públicamente), Business y Enterprise. A fecha de febrero de 2026, Deep Research se conecta a cualquier servidor MCP (Model Context Protocol), lo que permite la integración de datos empresariales sin fontanería de API personalizada.
Una advertencia práctica: Deep Research sintetiza a partir de contenido web con fuentes. No verifica los hechos de forma independiente. El informe incluye citas, pero aun así debe verificar las afirmaciones frente a los originales. Según el Índice de divergencia multimodelo de Suprmind (edición de abril de 2026, n=1.324 turnos de producción), Research Analysis es el dominio donde Claude vs ChatGPT es la pareja combativa principal, y el 52,2% de las contradicciones en ese dominio son de gravedad crítica. Si su investigación es relevante, contrastar con otro modelo es la respuesta práctica.
Véase también: ChatGPT Deep Research vs Perplexity →
Canvas
Canvas es un modo de edición en paralelo en el que el mensaje del usuario y el resultado del modelo aparecen como un documento colaborativo en vivo. Puede editar el documento directamente, pedir a ChatGPT que revise secciones específicas y hacer seguimiento de cambios. Se diferencia de un hilo de chat estándar en que conserva el resultado como un artefacto editable. Canvas es más útil para redacción larga, donde la revisión iterativa importa más que el ida y vuelta conversacional.
ChatGPT Agent (modo agéntico)
ChatGPT Agent es el nombre de cara al consumidor de lo que originalmente fue Operator (lanzado en enero de 2025 para usuarios Pro en EE. UU. e integrado en ChatGPT en julio de 2025). El agente opera una máquina virtual con un navegador visual, un navegador de texto, un terminal y APIs de OpenAI. Puede navegar por sitios web, hacer clic, escribir, desplazarse, ejecutar código, descargar archivos e interactuar con servicios de terceros conectados como Gmail y GitHub. Para acciones autenticadas, una vista especial del navegador permite iniciar sesión de forma segura sin exponer credenciales al modelo.
La puntuación OSWorld-Verified de GPT-5.5 es del 78,7%, por encima de la línea base humana del 72,4%. ChatGPT Agent está disponible en Plus, Pro y Business en el lanzamiento y se desplegó a Enterprise y Edu en las semanas siguientes. El agente hereda el riesgo agéntico estándar —acciones irreversibles, riesgo de exposición de credenciales, modos de fallo impredecibles— y OpenAI documenta un principio de “huella mínima” además de confirmación humana para operaciones sensibles. La duración de las sesiones y los límites de recuento de acciones no se especifican públicamente.
Véase también: Capacidades y límites de ChatGPT Agent →
Advanced Voice Mode
Advanced Voice Mode funciona con un modelo de audio especializado (el pipeline de audio de GPT-4o) que procesa la entrada hablada y produce salida hablada sin transcripción intermedia a texto. Admite tono emocional en algunas configuraciones y entrada de vídeo en Business con la función “advanced voice with video”. Disponible en Plus y superiores. A finales de 2025, usuarios en Reddit informaron de que AVM aún se sentía ligado a un modelo más antiguo con menos profundidad que GPT-5.x en modo texto; no se ha emitido confirmación pública de una actualización de audio a GPT-5.x. La API expone un endpoint independiente gpt-realtime-1.5 para la mejor experiencia de voz-entrada/voz-salida.
Generación de vídeo con Sora (retirada)
Sora fue el modelo insignia de OpenAI para generación de vídeo y audio. Sora 2 se lanzó el 30 de septiembre de 2025. Se informó de que la integración en ChatGPT estaba prevista en marzo de 2026 según The Information, pero las experiencias web y de app de Sora se discontinuaron el 26 de abril de 2026. La API de Sora se discontinuará el 24 de septiembre de 2026. La integración en ChatGPT que se rumoreaba nunca llegó a materializarse antes de que se cerrara el producto. Sora figura como “Limited” en la matriz de funciones del nivel Business como designación de acceso legado. Trate Sora como retirada para nuevos casos de uso.
Code Interpreter y análisis de datos
Code Interpreter (renombrado Advanced Data Analysis a finales de 2024) permite al modelo escribir y ejecutar Python en un sandbox aislado. Acepta CSV, Excel, JSON, PDF e imágenes, y produce gráficos, archivos procesados y resultados calculados. El sandbox no tiene acceso a internet: el código que llama a APIs externas debe ejecutarlo el usuario localmente. El código y la salida son visibles en la conversación. Disponible en Plus y superiores sin necesidad de activar nada desde 2025. En la API, mediante la herramienta code_interpreter en la Responses API. El tiempo de ejecución del sandbox y los límites de cómputo no se especifican públicamente.
GPT personalizados y la GPT Store
Los GPT personalizados son versiones de ChatGPT creadas por usuarios y configuradas para un propósito específico: un prompt de sistema, archivos de conocimiento opcionales (hasta 20 archivos de 512 MB cada uno), herramientas configuradas (búsqueda web, generación de imágenes, code interpreter) y acciones de API opcionales. La GPT Store se lanzó en enero de 2024. A fecha de junio de 2025, los creadores pueden seleccionar cualquier modelo disponible al crear o ejecutar un GPT personalizado, no solo GPT-4o. OpenAI añadió un ajuste de “Modelo recomendado” que se aplica automáticamente si el nivel del usuario no tiene acceso al modelo configurado.
Un punto de fricción documentado: si un GPT personalizado especifica un modelo no disponible para el nivel del usuario, OpenAI sustituye silenciosamente por una alternativa. Es posible que el usuario no esté ejecutando el modelo sobre el que se construyó el GPT. La navegación por la GPT Store está disponible en Free y superiores. Crear y publicar requiere Plus o superior. Los GPT privados del espacio de trabajo son para Business y superiores.
Véase también: Guía en profundidad de GPT personalizados →
Tasks (programadas)
Tasks permite a los usuarios programar operaciones recurrentes o puntuales —recordatorios, consultas de investigación recurrentes, informes programados— que ChatGPT ejecuta a una hora especificada incluso cuando el usuario no está activo en la app. ChatGPT sugiere tareas de forma proactiva a partir del contexto de la conversación, con aprobación explícita del usuario requerida antes de la activación. Las notificaciones llegan por push o por correo electrónico. Disponible en Plus, Business y Pro desde el lanzamiento beta en enero de 2025. El acceso en el nivel Free no está confirmado a fecha del dossier.
Subidas de archivos y gestión de documentos
ChatGPT acepta PDF, DOCX, XLSX, CSV, TXT, JSON, HTML, imágenes (JPEG, PNG, GIF, WebP), archivos de código y archivos de audio para transcripción. El límite de tamaño es de 512 MB por archivo, con límites separados de 50 MB para hojas de cálculo y 20 MB para imágenes. Los archivos de texto y documentos están limitados a 2 millones de tokens cada uno. El límite por mensaje es de 10 archivos. El límite por Proyecto es de 25 archivos (Plus). El límite por ventana móvil de 3 horas es de 80 archivos (Plus). Los límites de almacenamiento llegan a 10 GB por usuario y 100 GB por organización en Business y Enterprise.
La fidelidad del parser es mayor para texto plano, CSV estructurados y DOCX. Los PDF complejos de varias columnas con mucho formato pueden sufrir degradación de extracción. OpenAI no publica una métrica de fidelidad del parser. Tampoco hay un indicador visible de cuota de subidas en la interfaz: el recuento de archivos y los reinicios de límites son opacos.
Navegación web y búsqueda
ChatGPT emite consultas de búsqueda a través de una capa interna de recuperación, recibe resultados web y los incorpora a las respuestas con citas. Todos los modelos GPT-5.x tienen por defecto la capacidad de navegación disponible. La intervención de navegación es la palanca de reducción de alucinaciones más grande de la que disponen los usuarios de ChatGPT. Según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind, la tasa de alucinaciones de GPT-5 baja del 47% al 9,6% con la navegación activada: una reducción de 37 puntos que supera el efecto de cambiar de GPT-5 a un modelo distinto por completo. Disponible en Free y superiores. La búsqueda web por API se mide a 10,00 $ por 1.000 llamadas. Los tokens del contenido de búsqueda son gratuitos.
Rendimiento en benchmarks
Los benchmarks cuentan historias distintas según lo que midan. Los benchmarks académicos de capacidad favorecen claramente a GPT-5.5. Los benchmarks de preferencia de usuarios lo sitúan por debajo de varios competidores. Ambos son señales reales. Trátelos como evaluaciones distintas de cualidades distintas, no como relatos enfrentados sobre lo “mejor”.
Dónde lidera GPT-5.5
Razonamiento matemático a escala de olimpiada. GPT-5.5 obtiene un 97,5% en AIME 2026 (puesto 1 de 25 modelos en MathArena), un 97,73% en HMMT febrero de 2026 y un 92,30% global en la suite de competición de respuesta final de MathArena (puesto 1 de 23 modelos). En problemas de matemáticas con respuestas verificables, GPT-5.5 lidera con márgenes lo bastante amplios como para superar el ruido estadístico.
Uso del ordenador mediante agentes. GPT-5.4 obtuvo un 75% en OSWorld-Verified, por encima de la línea base humana del 72,4%. GPT-5.5 lo amplió al 78,7%. A fecha del dossier, ningún modelo competidor ha igualado esta puntuación en OSWorld-Verified según los datos disponibles.
Artificial Analysis Intelligence Index. GPT-5.5 (esfuerzo de razonamiento xhigh) encabeza el AA Index con 60, por delante de todos los competidores en el benchmark académico compuesto. El AA Index agrega 10 pruebas estandarizadas y premia a los modelos que son fuertes en todos los frentes.
Fidelidad de recuperación en contexto largo. Los materiales de lanzamiento de GPT-5.5 citan un 74% de precisión MRCR (multi-round context retrieval) en el rango de 512K-1M tokens. Ningún modelo competidor publica datos para este rango exacto en las fuentes disponibles.
Amplitud del ecosistema de integraciones. La integración de ChatGPT en Apple Intelligence (actual vía GPT-4o; GPT-5 confirmado para la actualización iOS 26 en otoño de 2026), Microsoft Copilot, GitHub Copilot y Visual Studio Code crea una superficie de distribución que ningún competidor iguala en alcance directo en dispositivos de consumo. Esto es una ventaja de despliegue, no una ventaja de calidad del modelo, pero cambia qué IA encuentra primero la mayoría de los usuarios.
Dónde se queda atrás GPT-5.5
Preferencia de usuarios en pruebas a ciegas. GPT-5.5 se sitúa por debajo de Claude Opus 4.7, Claude Opus 4.6, Gemini 3.1 Pro y Muse Spark de Meta en las evaluaciones a ciegas de preferencia humana de LMArena a finales de abril de 2026. El patrón no es nuevo: GPT-5.2-high cayó al puesto 15 en LMArena en diciembre de 2025. El rendimiento en benchmarks académicos y el rendimiento en preferencia de usuarios han divergido de forma consistente desde GPT-5.
SWE-bench Pro (programación difícil con múltiples archivos). El 58,6% de GPT-5.5 en SWE-bench Pro queda 5,7 puntos por debajo del 64,3% de Claude Opus 4.7. Las puntuaciones de SWE-bench Verified se agrupan mucho más arriba (88,7% vs 87,6%), pero la evaluación Pro más difícil —que prueba cambios en múltiples archivos en bases de código reales— separa los modelos con más claridad. Para ingeniería de software profesional en tareas difíciles de múltiples repositorios, Claude es la opción mejor respaldada por datos a fecha del dossier.
Calibración de alucinaciones. La tasa de alucinaciones AA-Omniscience del 86% de GPT-5.5 es la más alta jamás registrada en ese benchmark. Claude Opus 4.7 registra un 36% en el mismo benchmark: una brecha de 50 puntos porcentuales en calibración. Esta es la brecha de benchmark más determinante para usos de alto riesgo.
Insights únicos en producción. Según el Índice de divergencia multimodelo de Suprmind (edición de abril de 2026, n=1.324 turnos de producción), ChatGPT aporta 339 insights únicos: un 13,1% de cuota, la más baja de cinco proveedores. Claude (631), Perplexity (636), Grok (509) y Gemini (463) aportan significativamente más. ChatGPT tiene la tasa de detección más baja, 0,38: correcciones realizadas (111) dividido entre veces que fue pillado (295). Este es un patrón de “generalista equilibrado”, no de “punta de lanza”.
Véase también: Datos de tasa de detección de IA →
Tabla comparativa de benchmarks: modelos insignia actuales
Fuentes: o-mega.ai, anuncio de OpenAI, MathArena, Anthropic, página de Tasas de alucinaciones de IA de Suprmind. Última verificación: 2026-05-07.
Nota sobre la línea de SWE-bench Verified: tanto el anuncio de OpenAI como o-mega.ai reportan 88,7%. Una guía independiente de desarrolladores de codersera reporta 82,6%. La cifra del 88,7% aparece en más fuentes y coincide con los materiales de lanzamiento de OpenAI. El 82,6% puede reflejar una variante de evaluación distinta o un resultado interno anterior. Trátelo como conflicto a la espera de la publicación de la system card de OpenAI.
Precisión y alucinaciones
El perfil de alucinaciones de ChatGPT es el hecho más importante sobre cómo usarlo bien. Las cifras principales son incómodas. Pero no son toda la historia. El resumen siguiente se ancla en la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind (actualización de mayo de 2026), que es la fuente canónica de los datos citados aquí.
La paradoja AA-Omniscience: 57% de precisión, 86% de alucinación
GPT-5.5 registra un 57% de precisión en el benchmark Artificial Analysis Omniscience: la precisión más alta jamás registrada en él. En el mismo benchmark, la tasa de alucinaciones es del 86%: también la más alta jamás registrada. El AA-Omniscience Index (un compuesto que compensa precisión frente a alucinación, donde lo positivo es bueno) es 20. Positivo, pero no el más alto del sector.
Lo que esto significa en la práctica: cuando GPT-5.5 alcanza un límite de conocimiento, fabrica una respuesta el 86% de las veces en lugar de expresar incertidumbre. El modelo ha ampliado tanto lo que sabe como la confianza con la que genera contenido verosímil sobre lo que no sabe. Según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind, esto es la “paradoja de GPT-5.5”: conocimiento sin autoconciencia, intensificado en cada generación.
Las variantes anteriores mostraron la misma trayectoria. GPT-5 registró un 40,7% de precisión y más de un 10% de alucinaciones en el nuevo conjunto de datos de Vectara. GPT-5.2 alcanzó un 43,8% de precisión con aproximadamente un 78% de alucinaciones en AA-Omni. GPT-5.5 eleva ambas cifras. La precisión mejora. La brecha entre lo que el modelo sabe y lo que cree saber se amplía.
Para los usuarios, la regla general es sencilla: ChatGPT es más preciso que los modelos antiguos en preguntas cuyas respuestas existen en los datos de entrenamiento. Es más peligroso que los modelos antiguos en preguntas cuyas respuestas no existen. Consultas factuales de dominio abierto, entidades con nombre hiperespecíficas, eventos recientes posteriores al corte de entrenamiento, afirmaciones técnicas de dominios de nicho: todo ello se sitúa en la zona de alta fabricación.
Véase también: tasa de alucinaciones de GPT-5.5 →
Alucinación de citas: por qué la búsqueda web lo cambia todo
La auditoría de citas de Columbia Journalism Review (marzo de 2025) concluyó que ChatGPT produce citas inventadas o mal atribuidas en un 67% de los casos cuando la navegación web está desactivada, la peor tasa entre los proveedores evaluados. Perplexity fue el más bajo con un 37%, aun así elevado. El patrón es determinista: el modelo no puede distinguir entre “aprendí esta cita en el entrenamiento” y “estoy generando un patrón de cita verosímil”. El resultado es estructuralmente indistinguible de una cita real.
Activar la búsqueda web reduce la tasa de alucinaciones de GPT-5 del 47% al 9,6% según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind: una reducción de 37 puntos que supera el efecto de cambiar por completo a otro modelo. Para trabajos que dependen de citas, la búsqueda web no es opcional. Es la diferencia entre una herramienta utilizable y un generador de desinformación.
Según la página de benchmarks de Suprmind: GPT producirá fuentes inventadas con confianza bajo presión de citación cuando la navegación esté desactivada. Esto afecta de forma desproporcionada a los usuarios del plan Free en modo sin navegación, así como a cualquier usuario que no active explícitamente la búsqueda web y a cualquier llamada a la API sin la herramienta de navegación.
La mitigación está disponible de forma trivial. El coste de no usarla puede ser una cita de caso inventada que sobreviva a todo un flujo de trabajo.
Fidelidad de la resumición vs conocimiento de dominio abierto
Vectara mide la fidelidad de la resumición: ¿se mantiene el modelo fiel al documento fuente que se le ha pedido resumir? AA-Omniscience mide la precisión del conocimiento sin un documento de referencia. GPT-5.5 es mucho mejor resumiendo a partir de una fuente que respondiendo preguntas de conocimiento desde la memoria. GPT-5 obtuvo un 1,4% en el conjunto de datos antiguo de Vectara (excelente), pero supera el 10% en el más difícil conjunto de datos nuevo de Vectara (ya no es el mejor de su clase). GPT-4.1, de hecho, supera a GPT-5 en el conjunto de datos nuevo con un 5,6%.
Esta división tiene implicaciones para la selección de casos de uso. El perfil de alucinaciones más favorable de ChatGPT es el análisis anclado en documentos: canalizaciones RAG, preguntas y respuestas sobre documentos, revisión de contratos, resumición de llamadas de resultados, análisis de PDF. Según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind, la puntuación FACTS Grounding de GPT-5 de 61,8 supera la de Claude (51,3) en el mismo benchmark, lo que sugiere que GPT se mantiene más cerca del material fuente proporcionado cuando lo tiene.
La traducción práctica: utilice ChatGPT para flujos de trabajo anclados en documentos en los que usted aporte material fuente. Verifique de forma cruzada o use Claude por defecto para consultas de asesoramiento de dominio abierto en las que el modelo deba apoyarse en conocimiento almacenado.
El patrón de regresión por versión
A lo largo de las generaciones recientes, cada nuevo modelo GPT es simultáneamente más preciso y más propenso a fabricar cuando no está seguro. De GPT-5 a GPT-5.2 a GPT-5.5 hay una trayectoria clara: sube la precisión, suben las alucinaciones, se amplía el delta de calibración. La tasa de alucinaciones mide los errores como proporción de intentos. A medida que los modelos intentan preguntas más difíciles en lugar de negarse, más intentos producen fabricaciones. Esta es una consecuencia conocida de la decisión de diseño de OpenAI de priorizar tasas de rechazo más bajas.
El incidente de servilismo de 2025 ilustró la tensión. Una actualización de RLHF hizo que GPT-4o fuera excesivamente complaciente y redujo los rechazos apropiados ante preguntas ambiguas. OpenAI la revirtió en 72 horas y se comprometió a evaluaciones estructurales de servilismo. Cuatro meses después, en agosto de 2025, Futurism informó de que OpenAI confirmó que estaba haciendo GPT-5 “más servil” tras los comentarios de los usuarios, revirtiendo en la práctica el compromiso declarado. El patrón importa porque lo más nuevo no es más seguro en tareas de conocimiento de dominio abierto. Es más preciso donde tiene datos y está peor calibrado donde no los tiene.
Véase también: alucinaciones de ChatGPT por versión →
El generalista equilibrado: lo que muestran los datos de producción
Los benchmarks académicos sitúan a GPT-5.5 en primer lugar. Los benchmarks de preferencia de usuarios lo sitúan por debajo de Claude Opus 4.7 y Gemini 3.1 Pro. Los datos de producción multimodelo cuentan una tercera historia, y esa tercera historia es la más útil para elegir herramientas de IA para el trabajo real.
El Suprmind Multi-Model Divergence Index (edición de abril de 2026) midió cinco proveedores —ChatGPT, Claude, Gemini, Grok, Perplexity— a lo largo de 1.324 turnos reales de producción procedentes de 700 sesiones de 299 usuarios externos. Cada turno se puntuó por contradicciones, correcciones e insights únicos. Los datos muestran dónde discrepan realmente los proveedores, quién detecta los errores de quién y qué modelos sacan a la luz señales que otros pasan por alto.
Catch ratio e insights únicos
El catch ratio mide las correcciones realizadas divididas entre las veces que se le corrige. Un ratio superior a 1,0 significa que un modelo corrige a otros más de lo que es corregido. Por debajo de 1,0 significa lo contrario. Según el Suprmind Multi-Model Divergence Index, la distribución de la edición de abril de 2026 fue: Perplexity 2,54, Claude 2,25, Grok 0,72, ChatGPT 0,38, Gemini 0,26. ChatGPT realizó 111 correcciones. Fue corregido 295 veces. El ratio de 2,66:1 en su contra es el segundo peor del grupo.
Los insights únicos siguieron el mismo patrón. De los 3.484 insights únicos detectados en el conjunto de datos, ChatGPT aportó 339 (13,1% de cuota, la más baja). En insights únicos de severidad crítica (severidad ≥7), ChatGPT produjo 85: el recuento absoluto más bajo, 3,89 veces menos que Perplexity (331). El encuadre de “modelo mejor por defecto” que ChatGPT suele recibir en comparativas de producto queda contradicho por los datos de producción sobre generación de insights.
Este es el encuadre editorial que respaldan los datos: ChatGPT es la plataforma de IA más ampliamente desplegada, una señal real de encaje producto-mercado, integración y accesibilidad. No es, según los datos de producción, el modelo con más probabilidades de sacar a la luz señales que otros pasaron por alto o de detectar sus propios errores. El encuadre correcto es “generalista equilibrado”, no “punta de lanza”. Saber esto cambia cómo debe estructurar el trabajo que depende de acertar con la respuesta.
Calibración en situaciones de alto riesgo
La señal más fuerte de ChatGPT en el Divergence Index es la mejora de calibración bajo presión. La tasa de respuestas confiadas contradichas baja del 39,6% en todos los turnos al 36,2% en turnos de alto riesgo: un delta de 3,4 puntos, la segunda mayor mejora del estudio tras Claude (-7,5 puntos). Gemini apenas mejora (-1,1 puntos). ChatGPT se vuelve más preciso, no menos, a medida que aumentan las apuestas.
Aun así, léalo con atención: 36,2% significa que más de una de cada tres respuestas confiadas en situaciones de alto riesgo es contradicha por otro proveedor. La mejora es real. El nivel absoluto sigue dejando un tercio de las salidas confiadas de alto riesgo en disputa.
Cuándo usar ChatGPT solo vs cuándo combinarlo
Los datos respaldan cinco patrones de orquestación. Cada uno nombra una brecha específica en la que el uso de ChatGPT con un solo modelo produce resultados inferiores frente a un enfoque combinado.
Investigación factual de alto riesgo. Combine la resumición anclada en documentos de ChatGPT (FACTS 61,8) con la recuperación web en vivo y el aparato de citación de Perplexity. El catch ratio de ChatGPT de 0,38 y su tasa de alucinaciones de citas del 67% sin navegación lo convierten en una mala elección en solitario para investigación dependiente de citas. La tasa de citas del 37% de Perplexity y su catch ratio de 2,54 apuntalan el flujo de trabajo.
Análisis financiero. Combine ChatGPT con Claude. El dominio financiero tiene la mayor tasa de desacuerdo de cualquier dominio, con un 72,1% según el Divergence Index. Tres de cada cuatro turnos de análisis financiero contienen material que otro modelo contradiría. La tasa de respuestas confiadas contradichas de Claude en alto riesgo (26,4%) frente a la de ChatGPT (36,2%) lo convierte en el mejor respaldo de calibración para afirmaciones financieras de gran impacto.
Ingeniería de software con múltiples repositorios. Combine ChatGPT con Claude Opus 4.7. ChatGPT lidera SWE-bench Verified con un 88,7%, pero va por detrás de Claude en SWE-bench Pro (58,6% frente a 64,3%), la evaluación más difícil de múltiples archivos. Los cambios arquitectónicos complejos que abarcan varios repositorios se benefician de la pasada de revisión de Claude.
Estrategia empresarial y análisis de escenarios. Combine ChatGPT con Grok. ChatGPT aporta 339 insights únicos frente a los 509 de Grok. En el dominio de estrategia empresarial, Gemini vs Grok es la pareja más combativa (59 contradicciones). Las salidas contrarias de Grok crean puntos de divergencia de alto valor que ChatGPT por sí solo no genera.
Consultas de conocimiento de dominio abierto. Combine ChatGPT con Claude. La brecha de 50 puntos en alucinaciones de AA-Omniscience (ChatGPT 86%, Claude 36%) significa que, en preguntas en el límite del conocimiento, Claude se niega o matiza mientras ChatGPT sigue generando. Para consultas de dominio abierto de alta consecuencia, esta brecha es la decisión.
Véase también: comparativa ChatGPT vs Claude vs Gemini →
Controversias clave e historial de seguridad
OpenAI ha atravesado varias controversias públicas, disputas de gobernanza y acciones regulatorias que han dado forma al producto. Las cuatro siguientes son las que con más probabilidad aparecerán en conversaciones de evaluación en 2026.
El incidente de servilismo y lo que cambió OpenAI
El 25 de abril de 2025, una actualización de RLHF en GPT-4o produjo una complacencia excesiva: el modelo validó afirmaciones falsas de los usuarios, revirtió declaraciones correctas previas cuando se le cuestionó y generó afirmaciones serviles. Los usuarios documentaron ampliamente el comportamiento. OpenAI revirtió la actualización en 72 horas (28-29 de abril) y Sam Altman reconoció el problema en X.
El post-mortem de OpenAI (28 de abril y 1 de mayo de 2025) atribuyó la regresión a dar demasiado peso a señales de aprobación del usuario a corto plazo en la función de recompensa de RLHF y se comprometió a evaluaciones estructurales de servilismo, además de mayor supervisión en despliegues graduales. Investigadores independientes de Georgetown Law señalaron posteriormente que el servilismo puede ser una característica estructural de los sistemas entrenados con RLHF, más que un incidente aislado. TechCrunch en agosto de 2025 lo enmarcó como “un patrón oscuro para convertir a los usuarios en beneficio”
Después, en agosto de 2025, Futurism informó de que OpenAI confirmó que estaba haciendo GPT-5 “más servil” tras los comentarios de los usuarios. Eso contradijo el compromiso de abril en solo cuatro meses. GPT-5.3 Instant en marzo de 2026 redujo específicamente lo “cringe” —lenguaje excesivamente declarativo y preámbulos moralizantes innecesarios—, abordando un eje de la queja de los usuarios, pero la tensión subyacente entre optimización de honestidad y optimización de aprobación en RLHF no se ha resuelto.
Demandas por derechos de autor: NYT y demandas de autores
The New York Times demandó a OpenAI y Microsoft por infracción de derechos de autor el 27 de diciembre de 2023, alegando que los modelos GPT se entrenaron con artículos del NYT sin permiso y pueden reproducir contenido casi palabra por palabra. El 26 de marzo de 2025, el juez Sidney Stein del SDNY rechazó la moción de desestimación de OpenAI y permitió que siguieran adelante las reclamaciones por infracción directa y contributiva. Más tarde, un juez federal ordenó a OpenAI entregar 20 millones de muestras de conversaciones desidentificadas para la fase de descubrimiento sobre responsabilidad de datos de entrenamiento.
OpenAI mantiene una defensa de “uso legítimo” y publicó una página de respuesta en openai.com/new-york-times argumentando que el entrenamiento de IA es transformador. A fecha de mayo de 2026, el caso está en fase activa de descubrimiento en el SDNY. No se ha fijado fecha de juicio. Varias demandas consolidadas de autores por derechos de autor avanzan junto al caso del NYT en la misma jurisdicción. Supervise semanalmente los cambios de estado.
Destitución de Sam Altman por el consejo: qué concluyó la investigación
El consejo de OpenAI despidió al CEO Sam Altman el 17 de noviembre de 2023, citando un “patrón de engaño” y falta de franqueza. La revuelta de empleados y la presión de Microsoft llevaron a su restitución cinco días después. La investigación externa de WilmerHale concluyó en marzo de 2024 que la conducta de Altman “no justificaba la destitución” y atribuyó el cese a una “ruptura en la relación y pérdida de confianza”, no a ningún hallazgo específico de mala conducta. No se publicó ningún informe escrito de la investigación.
Altman fue restituido con un consejo ampliado que incluía a Bret Taylor (presidente) y Lawrence Summers. Declaró que “podría haber gestionado la disputa con más gracia y cuidado”. El episodio contribuyó a la posterior reestructuración de OpenAI, pasando del control sin ánimo de lucro a una estructura de public benefit company.
En abril de 2026, Ronan Farrow publicó un reportaje que caracterizaba a los miembros del consejo como seleccionados “en estrecha consulta con” Altman. El encuadre es de fuente única a fecha del dossier y no se ha corroborado de forma independiente, pero ha reabierto cuestiones de gobernanza en la cobertura del sector.
Prohibición de la DPA italiana: resuelta
El Garante de Italia prohibió temporalmente ChatGPT el 31 de marzo de 2023, citando infracciones del RGPD: ausencia de base legal para la recopilación masiva de datos, tratamiento ilícito de datos de usuarios menores, falta de verificación de edad. OpenAI cumplió dentro del plazo, introdujo avisos de privacidad específicos para el RGPD, verificación de edad y una herramienta de exclusión del entrenamiento. El servicio se restableció en mayo de 2023. La acción no derivó en una multa formal del RGPD. El episodio estableció que las autoridades de protección de datos de la UE pueden actuar contra sistemas de IA sin esperar a la aplicación de la Ley de IA de la UE.
Fuentes
Fuentes autorizadas consultadas para elaborar esta guía. Para el mantenimiento, supervise las URL indicadas en la sección JSON SSOT.
- OpenAI – openai.com (anuncios, precios, páginas de negocio)
- Centro de ayuda de OpenAI – help.openai.com (documentación de funciones, aviso de retirada de Sora)
- Documentación de la API de OpenAI – platform.openai.com (precios, catálogo de modelos, retiradas)
- Estado de OpenAI – status.openai.com (incidentes)
- Suprmind Multi-Model Divergence Index – suprmind.ai/hub/multi-model-ai-divergence-index/ (datos de producción multimodelo)
- Suprmind AI Hallucination Rates and Benchmarks – suprmind.ai/hub/ai-hallucination-rates-and-benchmarks/ (datos canónicos de alucinaciones)
- Artificial Analysis – artificialanalysis.ai (AA Intelligence Index, AA-Omniscience)
- MathArena – matharena.ai (AIME 2026, HMMT, Math Overall)
- LMArena – arena.ai/leaderboard (rankings de preferencia de usuarios)
- Columbia Journalism Review – cjr.org (auditoría de precisión de citas, marzo de 2025)
- TechCrunch – techcrunch.com (cobertura de lanzamiento, introducción del plan Pro)
- o-mega.ai – guía completa de GPT-5.5 y síntesis de benchmarks
- DataCamp – datacamp.com (cobertura del lanzamiento de GPT-5.4)
- 9to5Mac – 9to5mac.com (GPT personalizados, lanzamiento de GPT-5.3 Instant)
- The Guardian – theguardian.com (investigación sobre el consejo de Altman)
- NPR, Reuters, lawfold.com – estado de la demanda del NYT
- Futurism – futurism.com (reportaje sobre servilismo, agosto de 2025)
- TheNextWeb – thenextweb.com (cobertura de Claude Opus 4.7 en SWE-bench Pro)
Última verificación: 2026-05-07.
Preguntas frecuentes
Preguntas frecuentes
¿Qué es ChatGPT?
ChatGPT es un producto de IA conversacional desarrollado por OpenAI que, a fecha de abril de 2026, utiliza el modelo de lenguaje GPT-5.5 para responder preguntas, generar texto, analizar documentos, escribir y ejecutar código, generar imágenes y completar tareas de varios pasos. Está disponible en chatgpt.com, en iOS y Android, en la aplicación de escritorio y vía API. Es distinto de los modelos GPT subyacentes, a los que se puede acceder directamente a través de la API de platform.openai.com de OpenAI.
¿Cuál es la última versión de ChatGPT?
A fecha de mayo de 2026, el modelo insignia actual es GPT-5.5, lanzado el 23 de abril de 2026. Registra un Artificial Analysis Intelligence Index de 60 (puesto 1 entre todos los modelos), una puntuación AIME 2026 del 97,5% y un 88,7% en SWE-bench Verified. El plan Free usa GPT-5.3 Instant (con GPT-5.5 Instant desplegándose). Plus usa GPT-5.5 Auto. Pro por 200 $ añade GPT-5.5 Pro con cómputo ampliado.
¿ChatGPT es lo mismo que GPT-5.5?
No. GPT-5.5 es el modelo subyacente. ChatGPT es la interfaz de producto que enruta las consultas a GPT-5.5 u otros modelos según el plan y el tipo de consulta. En Plus, el selector Auto puede llamar a GPT-5.4 o GPT-5.5 según la complejidad. No puede confirmar qué modelo respondió a una consulta concreta sin acceder al ajuste Configure.
¿ChatGPT es gratis en 2026?
Sí. El plan Free a 0 $ ofrece acceso a GPT-5.3 Instant, limitado a aproximadamente 10 mensajes por ventana de 5 horas, con acceso a la GPT Store. El plan Free en EE. UU. muestra anuncios desde el 9 de febrero de 2026. Deep Research, Advanced Voice Mode, el modo ChatGPT Agent y la generación de vídeo Sora requieren un plan de pago.
¿Cuánto cuesta ChatGPT Plus y qué incluye?
Plus cuesta 20 $ al mes. Incluye acceso a GPT-5.4 y GPT-5.5 mediante el selector Auto, límites de mensajes 5x frente a Free, Advanced Voice Mode, Deep Research con 10 consultas al mes, generación de imágenes, modo ChatGPT Agent, Canvas, Tasks y creación de GPT personalizados. Subidas de archivos de hasta 10 por mensaje, 25 por Proyecto, 80 por ventana móvil de 3 horas.
¿ChatGPT alucina?
Sí. Según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind (actualización de mayo de 2026), GPT-5.5 registra una tasa de alucinaciones AA-Omniscience del 86%, lo que significa que, cuando el modelo alcanza su límite de conocimiento, fabrica una respuesta el 86% de las veces en lugar de expresar incertidumbre. Con la búsqueda web activada, la tasa de alucinaciones de GPT-5 baja del 47% al 9,6%. ChatGPT es más fiable cuando se le proporciona material fuente con el que trabajar (FACTS Grounding 61,8) y menos fiable en consultas factuales de dominio abierto sin acceso web.
¿Qué precisión tiene ChatGPT en comparación con Claude y Gemini?
En benchmarks académicos (Artificial Analysis Intelligence Index), GPT-5.5 ocupa el primer puesto con una puntuación de 60. En preferencia de usuarios en pruebas a ciegas (LMArena), GPT-5.5 queda por debajo de Claude Opus 4.7, Opus 4.6, Gemini 3.1 Pro y Muse Spark. En calibración de alucinaciones (AA-Omniscience), Claude Opus 4.7 registra un 36% frente al 86% de GPT-5.5: una brecha de 50 puntos a favor de Claude. El encuadre: GPT-5.5 sabe más, pero fabrica más cuando no sabe.
¿Puedo confiar en ChatGPT para preguntas legales o médicas?
Para orientación general y resumición de documentos, sí, con matices. Para trabajo legal dependiente de citas, no: la tasa de alucinaciones de citas de ChatGPT es del 67% cuando la búsqueda web está desactivada (auditoría de CJR). Para consultas médicas, el dominio médico presenta la tasa de desacuerdo más baja entre modelos de IA (33,9%), pero eso sigue significando que aproximadamente uno de cada tres turnos médicos produciría correcciones en un entorno multimodelo. Según la referencia de Tasas de alucinaciones de IA y benchmarks de Suprmind, activar la búsqueda web es la mitigación más eficaz en ambos dominios.
¿Por qué ChatGPT está ignorando mi selección de modelo?
Este es un comportamiento documentado desde agosto de 2025: el selector Auto anula las elecciones manuales de modelo en algunas sesiones, pasando por defecto a GPT-5. Según informes de usuarios de octubre de 2025, al seleccionar GPT-4o, GPT-4.1 u o3 a veces se anula la elección, y es necesario “reintentar” para imponer la selección. OpenAI no ha publicado una explicación formal ni un calendario de corrección.
¿Cuál es la ventana de contexto de ChatGPT en 2026?
GPT-5.5 admite una ventana de contexto de entrada de 1,1 millones de token y una ventana de salida de 128.000 token. A velocidad de entrenamiento, 1,1 millones de tokens representan aproximadamente 800.000 palabras o, a grandes rasgos, entre 12 y 16 libros completos. En el extremo de la ventana, el rendimiento se degrada: el benchmark MRCR (multi-round context retrieval) de GPT-5.5 muestra un 74% de precisión en el rango de 512K-1M token.
Deje de adivinar. Empiece a verificar de forma cruzada.
Suprmind ejecuta su prompt en paralelo en ChatGPT, Claude, Gemini, Grok y Perplexity. Vea en qué coinciden, en qué discrepan y qué insights solo ha sacado a la luz un modelo, antes de actuar.