El pasado lunes, OpenAI nos sorprendió con el lanzamiento del nuevo modelo ChatGPT-4o, mejor conocido como āomniā. Este nuevo modelo de inteligencia artificial promete ser toda una revolución, ya que llevarĆ” la conversación con la IA a un nuevo nivel.

Tal y como se ha dado a conocer, este modelo no solo utiliza las palabras para poder comunicarse, sino que tambiƩn tendrƔ la capacidad de responder a entradas visuales y leer seƱales emocionales y promete ser mƔs rƔpido que GTP-4 Turbo.
Un detalle importante que debes de tener en cuenta es que este modelo estarÔ disponible de forma gratuita para todos los usuarios de ChatGTP y por medio de una API durante las próximas semanas, informaron desde OpenAI.
Las mejoras de la actualización Chat GPT-4o
En una transmisión en vivo por YouTube titulada “OpenAI Spring Update“, la CTO de OpenAI, Mira Murati, junto con los empleados Mark Chen y Barret Zoph, presentaron las impresionantes capacidades de GPT-4o. La demostración en vivo mostró cómo el modelo puede mantener conversaciones fluidas en tiempo real utilizando audio y comprensión visual.
Pero, ¿cuÔles son todas las mejoras integradas en ChatGPT-4o? Se trata de una actualización bastante importante que cuenta con varias mejoras, por lo que ahora vamos a profundizar en las novedades que llegan con esta actualización:
Respuesta RƔpida y Natural
Una de las caracterĆsticas mĆ”s destacadas de GPT-4o es su capacidad para responder a entradas de audio en aproximadamente 320 milisegundos, un tiempo de respuesta comparable al de una conversación humana natural, mucho mĆ”s rĆ”pido que los 2-3 segundos tĆpicos de los modelos anteriores.
Este avance se logró entrenando el modelo con datos de texto, visión y audio, procesados simultÔneamente por una única red neuronal.
Capacidades Emocionales en Demostraciones en Vivo
Durante la transmisión en vivo, se mostró cómo GPT-4o puede captar y responder a las emociones humanas de manera impresionante. El asistente de IA no solo comprendĆa el tono emocional del usuario, sino que tambiĆ©n ajustaba su estilo de respuesta, incorporando efectos de sonido, risas y hasta cantando, lo que hizo la interacción aĆŗn mĆ”s natural y atractiva.
Comprensión Visual Avanzada
Otra faceta innovadora de GPT-4o es su mejorada capacidad de comprensión visual. Los usuarios pueden cargar capturas de pantalla, documentos con texto e imÔgenes, y grÔficos para mantener conversaciones detalladas sobre el contenido visual. En la demostración, el modelo mostró su habilidad para analizar selfies, detectar emociones y participar en conversaciones animadas sobre las imÔgenes.
Traducción en Tiempo Real y Multilingüismo
GPT-4o tambiĆ©n ha mejorado notablemente en la traducción en tiempo real y la capacidad de comunicación en mĆ”s de 50 idiomas, cubriendo asĆ el 97% de la población mundial. Esta caracterĆstica facilita conversaciones casi instantĆ”neas entre hablantes de diferentes idiomas, eliminando barreras lingüĆsticas y culturales.
Relacionado: Ā”OpenAI va por tu trabajo! Sus nuevas IA podrĆan quitarte tu trabajo
Mejoras en la Accesibilidad y Rendimiento
OpenAI ha hecho que GPT-4o sea accesible para todos los usuarios de ChatGPT, ofreciendo a los suscriptores de pago mayores lĆmites de tasa. En forma de API, GPT-4o promete el doble de velocidad y un costo 50% menor comparado con GPT-4 Turbo. Sin embargo, las capacidades de audio y video aĆŗn estĆ”n en desarrollo y no se han lanzado completamente.
Seguridad y Reducción de Riesgos
Con las nuevas capacidades vienen nuevos desafĆos. Mira Murati reconoció los posibles riesgos en tĆ©rminos de seguridad que plantea GPT-4o. OpenAI estĆ” comprometido en investigar y abordar estos desafĆos, solicitando retroalimentación de los usuarios y llevando a cabo pruebas rigurosas con expertos en diversas Ć”reas como la psicologĆa social, sesgos y desinformación para mejorar continuamente la seguridad del modelo.
Actualizaciones Adicionales a ChatGPT
El mismo dĆa del anuncio de GPT-4o, OpenAI tambiĆ©n presentó varias actualizaciones para ChatGPT, incluyendo una nueva aplicación de escritorio para macOS y una interfaz simplificada. Los usuarios gratuitos tendrĆ”n acceso a funciones avanzadas como navegación web y anĆ”lisis de datos, anteriormente exclusivas para suscriptores de pago.
AsĆ que la capacidad que tiene GPT-4o de combinar texto, voz y visión en tiempo real, realmente abre un sinfĆn de posibilidades en las interacciones hombre-mĆ”quina. Esto sin duda alguna es un gran paso para llevarnos a experiencias de IA mucho mĆ”s emocionales y naturales, mĆ”s parecidas a lo que podemos ver en la ciencia ficción.
EstÔ mÔs que claro que la revolución de la Inteligencia Artificial apenas estÔ comenzando, ya que con GPT-4o, OpenAI ha dado una pequeña demostración de futuro en el que las mÔquinas finalmente no solo comprenden palabras, sino que comienzan a reconocer nuestras emociones.
10 videos que demuestra lo sorprendente que es
En este hilo de X, el usuario @CopyRebeldia nos presenta 10 videos que demuestran lo sorprendente que es GPT-4o, creando mundos nuevos para personas con discapacidad visual, resolviendo problemas matemĆ”ticos, como es capaz de hablar con diferentes tonos, acentos y dialectos, incluso puede traducir cualquier cosa que vea/oiga en tiempo real… Ā”Hasta muestran a dos GPT-4o hablando entre sĆ y cantando!
Pingback: 47 increĆbles ejemplos del poder de GPT-4o