OpenAI ha lanzado sus últimos modelos de lenguaje, GPT 5.4 Thinking y GPT 5.4 Pro, centrados en mejorar la precisión y la eficiencia de los agentes de IA. La medida se produce cuando la compañía busca contrarrestar la creciente competencia de Claude de Anthropic, especialmente a medida que los usuarios exploran cada vez más alternativas debido a las controversias que rodean las prácticas de OpenAI y los contratos gubernamentales.
Precisión mejorada y capacidades de agente
GPT 5.4 Thinking está diseñado específicamente para tareas complejas como codificación y operación autónoma de IA. A diferencia de los modelos anteriores, prioriza la precisión sobre la velocidad, tarda más en generar respuestas pero ofrece resultados más confiables. OpenAI afirma que GPT 5.4 es su “modelo más factual hasta ahora”, reduciendo el riesgo de falsedades generadas por IA en un 18% en comparación con GPT 5.2. Las afirmaciones individuales ahora tienen un 33% menos de probabilidades de ser falsas, según los puntos de referencia de OpenAI. A pesar de estas mejoras, se recomienda a los usuarios que verifiquen todo el contenido generado por IA.
El modelo está optimizado para la actividad de agentes, lo que significa que consume menos potencia informática y reduce los costos para los desarrolladores que implementan agentes de IA. Tanto GPT 5.4 Thinking como Pro están disponibles para suscriptores pagos de ChatGPT y a través de la API OpenAI, con GPT 5.4 Thinking también integrado en la aplicación de codificación Codex.
El ascenso de Claude y los contratos gubernamentales
El lanzamiento de GPT 5.4 por parte de OpenAI parece ser una respuesta directa a la creciente participación de mercado de Anthropic, particularmente después de que las aplicaciones móviles de Claude encabezaron las listas de las tiendas de aplicaciones. Muchos usuarios de IA ahora están migrando activamente datos de ChatGPT a Claude, impulsados por la insatisfacción con las políticas de OpenAI y la creciente disputa entre las dos empresas.
El conflicto se extiende más allá del sector tecnológico, como lo demuestran las recientes negociaciones contractuales con el Departamento de Guerra de Estados Unidos (anteriormente Departamento de Defensa). Según se informa, Anthropic rechazó un acuerdo que habría permitido al gobierno utilizar su IA para vigilancia masiva y sistemas de armas autónomos. Esta decisión alinea aún más a Anthropic con las preocupaciones sobre la privacidad de los usuarios, mientras que la voluntad de OpenAI de colaborar en tales proyectos sigue sin estar clara.
Implicaciones para el desarrollo de la IA
El lanzamiento de GPT 5.4 subraya la creciente sofisticación de los modelos de IA y su creciente papel en las aplicaciones empresariales. El enfoque en las capacidades de agencia sugiere un futuro en el que los sistemas de IA operarán de manera más independiente, lo que requerirá mayor confiabilidad y rentabilidad. Sin embargo, el debate en curso sobre la ética de la IA y la vigilancia gubernamental plantea preguntas fundamentales sobre el desarrollo y despliegue responsable de estas tecnologías.
Los últimos modelos de OpenAI representan un paso adelante en la precisión de la IA, pero el contexto más amplio de la competencia de la industria y los contratos gubernamentales resalta la necesidad de transparencia y consideraciones éticas en la búsqueda de capacidades avanzadas de IA.
