Hoy sábado os dejo un repost de un artículo que publiqué para el blog de DES Madrid, donde voy a participar con una charla. Para que no se pierda en el tiempo, y quede para siempre en este blog, que es más largo que mi vida. Y de paso le añado algunos enlaces y alguna imagen más, para que quede más completo.
La Paridad Humana (Human Parity) en Inteligenci Artificial Cognitiva
Las tecnologías de Inteligencia Artificial han avanzado mucho en los últimos tres a cinco años. Pero cada día que pasa se alcanza un nuevo logro, especialmente en los servicios cognitivos, que es de lo que quiero hablar hoy.
Dentro de las capacidades de utilizar sistemas de inteligencia artificial para resolver problemas complejos, hay toda una rama dedicada a construir modelos y tecnologías que resuelvan los problemas cognitivos que resolvemos los humanos con relativa facilidad en nuestro motor de inteligencia – el cerebro – utilizando nuestros sensores de entrada y salida de datos: la vista, la voz, el oído, el tacto y el gusto.
Son estas disciplinas de Visión, Habla y Escucha, las que han estado desarrollándose durante los últimos años a una velocidad increíble. Y por una razón, que incluso nosotros mismos en Telefónica tomamos como guía:
Figura 2: Presentación de Movistar Home en MWC 2018
Imaginemos un servicio de atención de llamadas telefónicas para los Estados Unidos. Imaginemos ahora que tenemos un equipo de humanos con Servicios Cognitivos de reconocimiento del habla en inglés para todos los ciudadanos que hablan en esa lengua en ese país. La tasa de veces que ese equipo de humanos falla al reconocer una frase de otros humanos es superior al que tendríamos si pusiéramos una Inteligencia Artificial a reconocerlos. Y es que la Paridad Humana en Speech Recognition en lengua inglesa se superó ya en el año 2017.
Ejercicios similares han ido pasando a lo largo de los últimos tres años. Fue ya en el año 2015 cuando los servicios cognitivos de visión artificial superaron la Paridad Humana en reconocimiento de objetos. Y hace no más de un año y unos meses, en Enero de 2018 se superó la Paridad Humana en comprensión lectora. Sí, puedes dar un texto a una Inteligencia Artificial y hacer todo tipo de preguntas que se pueden extraer de ese texto en base a la información que en él existe y empezar a preguntarle. Su tasa de error es menor que la de los seres humanos.
Figura 4: Skype Translator powered with AI
En Marzo de 2018 se consiguió superar la Paridad Humana en traducción inglés-chino, y supongo que a todos os emociona ver el uso de esta capacidad en Skype para que en tiempo real dos niñas de México y Estados Unidos se comuniquen sin barrera de idioma de por medio.
Y en este año otra límite ha sido superado. Una Inteligencia Artificial ha superado la Paridad Humana en lectura de labios, como si en una 2001 lo hubieran visto venir. El “pobre” HAL 9000 ya ha sido superado, por el proyecto de MIT Lab “Alter Ego” .
Y esto se está masificando y comoditizando. Por ejemplo, los jóvenes ya no se sorprenden de los sitemas de Visión Artificial que se usan en SnapChat para ponerte orejas de gatito, o que usan los sistemas de Vídeo Conferencia para difuminar el fondo. O de que se reconozca a la gente en las fotografías.
En el caso de Microsoft Azure, hay servicios de Visión Artificial para reconocer a Celebrities, y ni el propio Kevin Mitnick y yo, cambiando sus gafas por mi gorro, fuimos capaces de engañarle. Y solo estamos en 2019. ¿Qué habrá en 2030?
Imaginemos lo que imaginemos para el 2030, está claro que debe contar con sistemas de Inteligencia Artificial con servicios Cognitivos muy superiores a los humanos, y probablemente tendrán incluidas cosas que nos parecen tan nuestras como “el instinto”, “la intuición” o la “imaginación”, que al final tienen un poco o un mucho de Analítica Predictiva de datos.
El futuro lo construimos – por ahora – nosotros, así que mientras que estas AI no tengan sueños, soñemos nosotros con un mundo en el que la tecnología nos hace mejores humanos.
Saludos Malignos!
PD: Me gustaría completar el artículo con el trabajo de Botnik Studios que ha utilizado una IA para reproducir el estilo de J.K. Rowling y escribir un capítulo de Harry Potter titulado "Harry Potter y el retrato de lo que parecía un montón de ceniza", que muestra cómo una AI puede aprender a escribir tal y como lo hace un humano concreto.
Figura 8: Harry Potter y el retrato de lo que parecía un montón de ceniza
La Paridad Humana (Human Parity) en Inteligenci Artificial Cognitiva
Las tecnologías de Inteligencia Artificial han avanzado mucho en los últimos tres a cinco años. Pero cada día que pasa se alcanza un nuevo logro, especialmente en los servicios cognitivos, que es de lo que quiero hablar hoy.
Figura 1: La Paridad Humana (Human Parity) en Inteligencia Artificial Cognitiva |
Dentro de las capacidades de utilizar sistemas de inteligencia artificial para resolver problemas complejos, hay toda una rama dedicada a construir modelos y tecnologías que resuelvan los problemas cognitivos que resolvemos los humanos con relativa facilidad en nuestro motor de inteligencia – el cerebro – utilizando nuestros sensores de entrada y salida de datos: la vista, la voz, el oído, el tacto y el gusto.
Son estas disciplinas de Visión, Habla y Escucha, las que han estado desarrollándose durante los últimos años a una velocidad increíble. Y por una razón, que incluso nosotros mismos en Telefónica tomamos como guía:
“Durante muchos años los humanos hemos aprendido los interfaces de la tecnología y ya es hora de que la tecnología aprenda los interfaces de los humanos.”Y por supuesto, lo han hecho. Existe una unidad de medición de la calidad de los modelos de Inteligencia Artificial para Servicios Cognitivos que se llama “Paridad Humana”. Es decir, utilizamos la Paridad Humana como tasa de error, por lo que si un servicio cognitivo se equivoca menos que un humano en uno de los problemas, decimos que ese servicio ya ha superado al ser humano.
Figura 2: Presentación de Movistar Home en MWC 2018
Imaginemos un servicio de atención de llamadas telefónicas para los Estados Unidos. Imaginemos ahora que tenemos un equipo de humanos con Servicios Cognitivos de reconocimiento del habla en inglés para todos los ciudadanos que hablan en esa lengua en ese país. La tasa de veces que ese equipo de humanos falla al reconocer una frase de otros humanos es superior al que tendríamos si pusiéramos una Inteligencia Artificial a reconocerlos. Y es que la Paridad Humana en Speech Recognition en lengua inglesa se superó ya en el año 2017.
Figura 3: Paridad Humana en Speech Recognition |
Ejercicios similares han ido pasando a lo largo de los últimos tres años. Fue ya en el año 2015 cuando los servicios cognitivos de visión artificial superaron la Paridad Humana en reconocimiento de objetos. Y hace no más de un año y unos meses, en Enero de 2018 se superó la Paridad Humana en comprensión lectora. Sí, puedes dar un texto a una Inteligencia Artificial y hacer todo tipo de preguntas que se pueden extraer de ese texto en base a la información que en él existe y empezar a preguntarle. Su tasa de error es menor que la de los seres humanos.
Figura 4: Skype Translator powered with AI
En Marzo de 2018 se consiguió superar la Paridad Humana en traducción inglés-chino, y supongo que a todos os emociona ver el uso de esta capacidad en Skype para que en tiempo real dos niñas de México y Estados Unidos se comuniquen sin barrera de idioma de por medio.
Y en este año otra límite ha sido superado. Una Inteligencia Artificial ha superado la Paridad Humana en lectura de labios, como si en una 2001 lo hubieran visto venir. El “pobre” HAL 9000 ya ha sido superado, por el proyecto de MIT Lab “Alter Ego” .
Figura 5: AlterEgo, desarrollado por el MIT Lab |
Y esto se está masificando y comoditizando. Por ejemplo, los jóvenes ya no se sorprenden de los sitemas de Visión Artificial que se usan en SnapChat para ponerte orejas de gatito, o que usan los sistemas de Vídeo Conferencia para difuminar el fondo. O de que se reconozca a la gente en las fotografías.
En el caso de Microsoft Azure, hay servicios de Visión Artificial para reconocer a Celebrities, y ni el propio Kevin Mitnick y yo, cambiando sus gafas por mi gorro, fuimos capaces de engañarle. Y solo estamos en 2019. ¿Qué habrá en 2030?
Imaginemos lo que imaginemos para el 2030, está claro que debe contar con sistemas de Inteligencia Artificial con servicios Cognitivos muy superiores a los humanos, y probablemente tendrán incluidas cosas que nos parecen tan nuestras como “el instinto”, “la intuición” o la “imaginación”, que al final tienen un poco o un mucho de Analítica Predictiva de datos.
Figura 7: No Lusers 171: "Emociones Intelectuales" |
El futuro lo construimos – por ahora – nosotros, así que mientras que estas AI no tengan sueños, soñemos nosotros con un mundo en el que la tecnología nos hace mejores humanos.
Saludos Malignos!
PD: Me gustaría completar el artículo con el trabajo de Botnik Studios que ha utilizado una IA para reproducir el estilo de J.K. Rowling y escribir un capítulo de Harry Potter titulado "Harry Potter y el retrato de lo que parecía un montón de ceniza", que muestra cómo una AI puede aprender a escribir tal y como lo hace un humano concreto.
Figura 8: Harry Potter y el retrato de lo que parecía un montón de ceniza
Cambio climático bueno hablando de este tema, la paridad entre I.A. Y personas pongamos un supuesto el mío como humano creativo y el de una máquina que no se como actuaría después de ver los datos o mandándolos hacia atrás sesgándolos lo que sea. Pongamos que nos abstraemos de la realidad, y nos imaginamos que podríamos hacer con estos datos y cuando menos te lo esperas en tu mente surge una idea global y empieza en tu cabeza y si y si creamos nuestro entonces empezamos a discernir lo que podemos hacer y no dada la tecnología actual y nos damos cuenta de que mucha de esa tecnología ya existe. Solo habría que ajustarla a nuestras necesidades a el modelo y algunas Ideas que se te van ocurriendo mientras tanto,tendríamos las energías renovarles existentes ideas sueltas y la idea. Si el planeta funciona de una forma cíclica no podemos ir a la contra a no ser que tengamos un propósito, desalinisar el agua de mar con energía renovable para repoblación del los bosques, provocaría un aumento del oxígeno habría una aumento de raíces en lo que daría un aumento de la sujeción del suelo. Para lo que va a acontecer, imaginemos que se se me hubiera ocurrido una máquina que con un bajo costo para el propósito de volver a hacer cíclico, digamos depurar poco a poco el medio ambiente! Energía motriz eólica ,fotovoltaica o fotovoltaica por espejos, consistiría en evaporar rápida y eficientemente gran cantidad de agua marina y así ayudar a las nubes a para estimular las lluvias se que una sola no haría nada pero las suficiente? Bueno esta sería parte de mi idea, la I.A. Que ponga la suya y los usuarios que quieran las suyas también haber si de aquí al 2030 arreglamos esto entre todos, parece mentira que todavía allá gente que para beber tenga que hacer km caminando al día y países que los niños se mueran de hambre ....
ResponderEliminarHola.
ResponderEliminarUna entrada muy interesante. La verdad, cuando leo sobre IA cognitiva no puedo evitar que mi imaginación se expanda y visualice sistemas avanzados que, superen a los humanos sobre todo en lo referente a las barreras mentales en torno a las personas con alguna discapacidad, congénita o adquirida. Claro que hoy en día, se reconoce el habla, se reconocen imágenes (de forma limitada pero es algo que antes no ocurría), se predicen emociones, respuestas, incluso se imitan estilos de escritura mediante el aprendizaje.
Qué me imagino yo en 2030 (aunque ya no lo veré, desde luego) que Una persona sorda pueda mediante estos modelos predictivos comunicarse con otra sin depender exclusivamente de la lengua de signos y que a su vez mejore su comprensión lectora de la lengua escrita.
Que una persona ciega acceda a la información escrita o no textual, sin barreras, porque ya al ingresar una imagen en una entrada como esta, añadirá un texto alternativo que describa el contenido de la imagen de forma más natural que como lo hace hasta ahora. Y quien ve, ya no tendrá la excusa de la flojera o el fastidio para describir la imagen .
Que a su vez, este tipo de sistemas de inteigencia artificial brinden soporte a lectores de pantalla y puedan acceder a textos científicos (sin depender del braille o el papel), gráficos y elementos que permitan expandir las posibilidades de personas que, con mentes brillantes se ven forzados a abandonar las ciencias por las humanidades.
Que una persona con parálisis cerebral cuente con una interfaz de comunicación aumentativa o alternativa o mixta, según requiera su necesidad y pueda comunicarse.
Y así, sistemas, aplicaciones, librerías, todo un abanico de tecnologías que nos acerquen en lugar de aumentar y acentuar nuestras diferencias aumentando la brecha entre los individuos.
Y por qué no, que existan sistemas que enseñen a los seres humanos a ser más empáticos y compasivos, menos egoístas, más tolerantes y respetuosos de la diversidad de su propia raza.
Que se transformen en el botón de pánico que algunas mentes requieren; en el trampolín que otras tantas necesitan para seguir expandiéndose y creando cosas que mejoren la calidad de vida de los seres vivos.
Por cierto, a riesgo de que me consideres una atrevida, decir que tu blog es fascinante y que lo único que le falta para que sea cuasi perfecto es que describas las imágenes de tus entradas. No sé si a alguien como tú le despertará la curiosidad como para tomarse el tiempo, pero si te animas, descarga nvda de nvda project, es un lector de pantallas para windows y verás a qué me refiero con lo de tus imágenes.
Sí, añades el texto en la leyenda y si bien identifica la imagen, no resulta lo bastante descriptivo para acceder al contenido no textual que transmiten.
Gracias por compartir tus conocimientos; por tomarte el tiempo con la agenda que llevarás para seguir alimentando tu blog y para seguir, indirectamente, motivando a personas como yo.
Saludos no tan malignos, pero quizá sí muy descarados.