domingo, diciembre 29, 2024

12 Days of OpenAI: Let’s dive in! [ Días 1 a 6 ]

Durante este mes de Diciembre OpenAI se ha subido al carro de los calendarios de adviento creando el suyo propio. En lugar de 24 días han sido 12 días, comenzando el 5 de Diciembre hasta el 20 de Diciembre y con algún día de descanso. Y en lugar de cajas o puertas con chocolates, nos han traído anuncios en vídeo, nuevas funcionalidades y modelos que nos acercan un poco más al futuro de la IA.

Figura 1: 12 Days of OpenAI: Let’s dive in! [ Días 1 a 6 ]

En este artículo quiero hablaros brevemente de lo que se ha presentado en cada uno de esos 12 anuncios para que tú también estes actualizado de lo que ocurre en torno al mundo de la Inteligencia Artificial.

Día 1: Modelos o1 y o1-mini

Actualmente el modelo más avanzado de OpenAI era o1-preview lanzado el 13 de Septiembre, como el primer modelo con capacidad de “razonamiento” para resolver problemas más complejos. Digamos que este modelo “pensaba” creando varias líneas de procesamiento paralelos y en base a estas respuestas genera una salida más concreta y avanzada. Algo que vemos y veréis como, al menos por ahora, la capacidad de computo es proporcional al detalle y valor de las respuestas.

Figura 2: Comparativa de modelos
o1-preview, o1 y o1 pro mode

Pues en este primer día OpenAI actualizó este modelo por el definitivo o1 y o1-mini, según ellos el modelo más avanzado de Inteligencia Artificial, aunque esto no iba a ser verdad por mucho tiempo (no os quiero hacer spoilers aún). En la imagen anterior tenéis una comparativa del rendimiento de esos modelos.

Figura 3: Nuevo plan de precios de CahtGPT

Y veréis que pone “o1” y “o1 pro mode”, ¿qué es esto del sufijo “pro mode”? Pues básicamente, se han dado cuenta que tienen algunos perfiles muy exigentes computacionalmente y que requieren un uso más avanzado que un usuario “normal”. Es por ello, que en su plan de precios ha aparecido una nueva tarifa “Pro” por la módica cantidad de 200$ más impuestos al mes. De esta forma, seguimos contando con un plan “Free”, “Plus” y el nuevo plan “Pro”.

Día 2: Reinforcement Fine-Tuning

Este día fue algo más tranquilo, presentando un adelanto de su herramienta para hacer fine-tuning a modelos o1 mediante “Reinforcement Fine-Tuning”. Este enfoque supera al enfoque supervisado en cuanto a que permite que los modelos aprendan a razonar de nuevas maneras y se adapten a otros dominios o casos de uso con unos pocos ejemplos, sin ser necesario un gran dataset.

Figura 4: Reinforcement Fine-Tunning en o1

Por otro lado, también anunciaron algunas colaboraciones para crear un asistente legal, detectar enfermedades genéticas raras o crear modelos expertos en una determinada área (muy en línea con esa herramienta de fine-tuning presentada).

Día 3: Sora

El tercer día fue muy potente, ya que lanzaron Sora al resto de los mortales. Hasta ahora, se trataba de un modelo de texto a vídeo publicado por primera el 15 de febrero de 2024 y al que solo tenían acceso unos cuantos cientos de artistas. Sin embargo, en este día se dio acceso limitado a Sora a todos los usuarios del plan “Plus” (50 generaciones de vídeo) e “ilimitado” a todos los usuarios del plan “Pro”. La nueva página de Sora es sora.com, aunque aún no está disponible en Europa.

Figura 5: La web de Sora

Pero eso no es todo, Sora ha aparecido alrededor de multitud de herramientas. OpenAI no sólo nos permite generar vídeos a partir de un prompt en multitud de calidades y formatos, sino que además nos permite generar vídeos indicando milestones temporales mediante diferentes prompts. Por supuesto, también nos permite modificar el contenido de un vídeo e iterar sobre el resultado, etcétera.

Figura 6: Sora incluido en ChatGPT Plus y ChatGPT Pro

Y aunque la presentación fue todo un éxito, es cierto que las críticas han sido cuantiosas debido a que días después Google sorprendió con otro modelo de generación de vídeo, Veo 2. Las comparaciones son odiosas, pero digamos que Veo 2 es bastante competente y sobre todo coherente en los vídeos resultantes.

Día 4: Canvas

El cuarto día OpenAI presentó “Canvas”, una nueva forma de trabajar con ChatGPT para escribir y trabajar en código mediante el chat.

Figura 7: Canvas permite trabajar con código en paralelo.

En cuanto al código, la diferencia sustancial es que el código se queda en la ventana paralela en lugar de estar todo en la conversación, pudiendo incluso ejecutarlo, como se ve en la imagen anterior.

Figura 8: Canvas para escritura

Y en cuanto a las herramientas de escritura, le podemos pedir que escriba sobre un tema y luego ajustar la longitud del texto, nivel de la lectura (desde un público de “Educación infantil” hasta uno con “Estudios de posgrado”, así lo indica ChatGPT), añadir emojis o hacer una revisión final al texto.

Día 5: ChatGPT en Apple Intelligence para iOS y macOS

Un día tranquilo donde mostraron la integración de ChatGPT junto a Apple Intelligence en iOS y macOS. Nos mostraron cómo, en diferentes escenarios, se delegan las respuestas a ChatGPT en lugar de Siri. O como iOS también acepta la multimodalidad de ChatGPT permitiendo enviar y generar imágenes con desde la interfaz nativa.
Y, por último, como la integración de macOS nos permite interactuar con ficheros directamente desde nuestro Mac gracia a Apple Intelligence y la potencia de GPT-4o.

Día 6: Acceso a cámara y pantalla de smartphone y Voz de Santa Claus

¿Recordáis aquella demo que hicieron con el modo avanzado de voz, compartiendo pantalla y vídeo en tiempo real al modelo? Pues seis meses después por fin han liberado la posibilidad de compartir la cámara y pantalla de nuestro smartphone y ya se puede otorgar visión a nuestro copilot de bolsillo, como si de la película Her se tratara.


Figura 10: Screen Sharing & Santa Claus Voice

Además, sacaron algo bastante “chulo” y es nada más y nada mes que la voz de Santa Claus, para charlar con él desde ChatGPT y pedirle muchos regalos estas navidades. Y creo que tiene algo que deciros, como podéis ver en el vídeo siguiente en Español.

Este ha sido un resumen de los primeros seis días, en la siguiente parte de este artículo os traigo el resumen de los seis segundos, que aún quedan muchas cosas que contar de este calendario de adviento tan peculiar de OpenAI. Lo tienes en la segunda parte de este artículo.

No hay comentarios:

Entrada destacada

Cibercriminales con Inteligencia Artificial: Una charla para estudiantes en la Zaragoza

Hoy domingo toca ir a participar en un evento, con una charla y una pequeña demo. Ahora mismo sí, así que el tiempo apremia, os dejo una cha...

Entradas populares