Meta-aprendizaje con GPT-3: Aprender a sumar leyendo o a escribir código fuente con servicios cognitivos de Texto Predictivo.
Figura 1: Meta-aprendizaje con GPT-3: Aprender a sumar leyendo o a escribir código fuente con servicios cognitivos de Texto Predictivo. |
Figura 3: Modelo de texto predictivo entrenado con probabilidades |
Para resolver este problema, el último modelo que ha visto la luz ha sido GPT-3 (con permiso de GShard de Google que lleva escasos días público) y ha sido desarrollado por OpenAI, empresa de Elon Musk. Es el pistoletazo de salida de una nueva generación de modelos gigantescos - para que os hagáis una pequeña idea, GPT-3 cuenta con 175.000 millones de parámetros - desarrollados y entrenados por grandes empresas tecnológicas para ser servidos a los usuarios a través de APIs.
Figura 4: GPT-3 en GitHub |
Figura 5: Libro de Machine Learning aplicado a Ciberseguridad |
Puede resultar algo exagerado para un modelo que únicamente predice la siguiente letra, ¿verdad?. Lo que se ha observado con GPT-3, que ya se empezaba a intuir con su hermano pequeño GPT-2, es que es capaz de desarrollar un meta-aprendizaje, es decir, ha aprendido a aprender. Esto es resultado de haber sido entrenado con prácticamente la totalidad de los textos que hay en la red y es aquí es donde reside la potencia de este modelo.
Figura 6: Formulario para ser aceptado |
Comúnmente, un modelo se desarrolla para resolver un problema específico. Sin embargo, GPT-3 ha cambiado radicalmente esta mentalidad, ya que ha sido entrenado para una tarea general y son los usuarios los que han ido encontrando distintos casos de uso en los que el modelo se desenvuelve a la perfección. Vamos a ver algunos ejemplos en diferentes ámbitos.
Generación de texto
GPT-3 is going to change the way you work.
— OthersideAI (@OthersideAI) July 22, 2020
Introducing Quick Response by OthersideAI
Automatically write emails in your personal style by simply writing the key points you want to get across
The days of spending hours a day emailing are over!!!
Beta access link in bio! pic.twitter.com/HFjZOgJvR8
Operaciones matemáticas
El modelo es capaz de predecir que después de la secuencia “3 + 3 = “ el carácter más probable es el “6”. ¿Esto significa que sepa sumar? Realmente no, es únicamente cuestión de probabilidad, pero sí que puede dar respuesta a operaciones matemáticas de esta forma... ¿se podrían hacer cálculos matemáticos seguros?
Escribir código
GPT-3 es capaz de escribir código en distintos lenguajes de programación mediante una descripción en lenguaje natural, consiguiendo incluso el desarrollo de frontales web o de redes neuronales.
AI INCEPTION!
— Matt Shumer (@mattshumer_) July 25, 2020
I just used GPT-3 to generate code for a machine learning model, just by describing the dataset and required output.
This is the start of no-code AI. pic.twitter.com/AWX5mZB6SK
Do you want to learn how to convert Natural Language to SQL using GPT-3?
— Bhavesh Bhatt (@_bhaveshbhatt) July 23, 2020
This walk-through video should help!
Thanks @sh_reya for the gpt3-sandbox :)
Video Link : https://t.co/sqY7SBS7xG#DataScience #MachineLearning #AI #ArtificialIntelligence #DeepLearning #gpt3 #OpenAI pic.twitter.com/JYG61fuFXN
This is mind blowing.
— Sharif Shameem (@sharifshameem) July 13, 2020
With GPT-3, I built a layout generator where you just describe any layout you want, and it generates the JSX code for you.
W H A T pic.twitter.com/w8JkrZO4lk
Estos son únicamente unos ejemplos de lo que GPT-3 es capaz de lograr en los meses que lleva en producción, y puedes ver muchos más ejemplos de aplicación de GPT-3 en este enlace de GPT-3 examples. Nadie sabe aún cuáles son los límites de estos modelos y que nos depararán los próximos que salgan a la luz pero, ¿a que ya no resulta tan exagerado poner las APIs privadas?
No hay comentarios:
Publicar un comentario