Para el pasado jueves, como el programa de Horizonte llevaba un montón de temas "difíciles", Iker Jiménez y Carmen Porter me pidieron que llevara algún tema más fácil de llevar, y que incluso nos distendiera un poco, así que llevé el asunto de las Alucinaciones de la Inteligencia Artificial Generativa del que tantas veces os he hablado yo por aquí.
Ese día fue un día más que interesante donde se estaba discutiendo la Artificial Intelligence Act en Europa, y donde además había irrumpido Google Gemini - sin llegar a Europa ni en Español aún -, así que el día se las traÍA.
De la Artificial Intelligence Act en Europa ya os escribí este fin de semana un artículo largo y detalla con mi punto de vista, y sobre las alucinaciones ya os he dejado muchas artículos, como estos que tenéis por aquí, ya que como sabéis son parte del OWASP Top Ten para LLM Apps & Services.
En este programa hablamos de la "Hallucinations" o "Alucinaciones de la Generative AI", que en OWASP TOP 10 es el número llamado LLM09 - Overreliance, o lo que es lo mismo, exceso de confianza en las respuestas que da el modelo LLM. Esto lo hemos visto con la comparativa sobre las preguntas de resolución de problemas para developers, donde el 50% de ellas son erróneas, lo hemos visto con los datos biográficos sobre personas públicas, como en mi caso donde se inventa de todo, o de personas como Arturo Pérez-Reverte, Rodrigo Cortés o David Summers como vimos en el artículo de "¡Ojo con ChatGPT que es un charlatán mentirosillo!".
Esto. como he dicho, son lo que se llaman "Hallucinations" o "Alucinaciones" , y es algo con lo que hay que convivir en todos los LLM que tenemos hoy en día, así que cuidado con tener un exceso de confianza en las respuestas que da.
Google cometió con Bard un Overreliance e hizo una demo integrado en Google Search con él preguntándole por proyectos de la NASA, y el error le costó una caída en Bolsa de 100 Billions de USD. Para el programa, buscamos algunos ejemplos con Iker Jiménez, Carmen Porter, y el caso de Bard con mis dos años en la cárcel.
Está claro que estos LLMs no son una fuente fiable para recibir información, o para fiarte de en la toma de decisiones sin revisar lo que te dicen. Es una fuente de creatividad, de conversación, y puedes estar horas hablando con ellos, pero no te puedes fiar de lo que te den como fuente de información fiable.
Figura 7: Las Alucinaciones de la Inteligencia Artificial Generativa
De todo esto hablamos en el programa de Horizonte, y si no lo has podido ver, puedes ver todo el programa entero en la web, o el trocito que trata este tema, que como todas mis entrevistas e intervenciones públicas en vídeo, incluidas las conferencias, lo he subido a mi Canal Youtube.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
No hay comentarios:
Publicar un comentario