OpenAI lanza GPTo, mejorando las capacidades de texto, visuales y de audio de ChatGPT

La última actualización de OpenAI a su modelo de inteligencia artificial puede imitar cadencias humanas en sus respuestas verbales e incluso puede intentar detectar el estado de ánimo de las personas.

El efecto evoca imágenes del movimiento “Her” de Spike Jonze de 2013, donde el personaje principal (humano) se enamora de un sistema operativo artificialmente inteligente, lo que genera algunas complicaciones.

Si bien pocos encontrarán atractivo el nuevo modelo, OpenAI dice que funciona más rápido que las versiones anteriores y puede razonar a través de texto, audio y video en tiempo real.

GPT-4o, abreviatura de «omni», impulsará el popular chatbot ChatGPT de OpenAI y estará disponible para los usuarios, incluidos aquellos que usan la versión gratuita, en las próximas semanas, anunció la compañía durante una breve actualización transmitida en vivo. El director ejecutivo Sam Altman, que no fue uno de los presentadores del evento, simplemente publicó la palabra «ella» en el sitio de redes sociales X.

Durante una demostración con la directora de tecnología Mira Murati y otros ejecutivos, el robot de IA conversó en tiempo real, agregando emoción (específicamente “más dramatismo”) a su voz según lo solicitado. También ayudó a seguir los pasos necesarios para resolver una ecuación matemática simple sin tener que escupir primero la respuesta, y ayudó con un problema de codificación de software más complejo en una pantalla de computadora.

También intentó extrapolar el estado emocional de una persona mirando un video de selfie de su rostro (decidiendo que estaba feliz porque estaba sonriendo) y tradujo al inglés y al italiano para mostrar cómo podría ayudar a las personas que hablan diferentes idiomas a tener una conversación.

El analista de Gartner, Chirag Dekate, dijo que la actualización, que duró menos de 30 minutos, dio la impresión de que OpenAI está tratando de ponerse al día con rivales más grandes.

«Muchas de las demostraciones y capacidades mostradas por OpenAI nos parecían familiares porque habíamos visto versiones avanzadas de estas demostraciones presentadas por Google en su lanzamiento Gemini 1.5 pro», dijo Dekate. «Si bien Open AI tuvo la ventaja de ser el primero en actuar el año pasado con ChatGPT y GPT3, en comparación con sus pares, especialmente Google, ahora estamos viendo que surgen brechas de capacidad».

Google planea celebrar su conferencia de desarrolladores de E/S el martes y miércoles, donde se espera que revele actualizaciones de su propio Gemini, su modelo de IA.