Sentarme a publicar un artículo técnico en el blog suele ser sencillo. Tengo varios siempre pensados. Solo tengo que tener las imágenes, los vídeos, y el resto es poner letras entre ellas con explicaciones del proceso. Suele ser un trabajo que, después de tantos años he automatizado con extrema rapidez. Como casi todo lo que hago diariamente. Es una forma de proteger mi tiempo. Me permite hacer las cosas en menos tiempo cada vez. La práctica hace al maestro, que dicen por ahí.
Lo cierto es que muchas veces tengo ganas de escribir otras cosas. De dejar publicadas reflexiones en esta bitácora infinita que creo que me acompañará hasta la muerte - un día vendrá el momento de narrar el último capítulo de la última temporada y diré: "Espere señora Muerte, que aún no he posteado" -. Y esas reflexiones son las que más me cuestan.
Pensad que he pasado mucho tiempo frente a la página de edición de posts en este blog. Pensad que he estado muchas, muchas, muchas horas sentado en el mismo sitio. Pulsando tecla tras tecla para escribir algo. Me conoce muy bien. Y sabe cuándo estoy feliz, triste, cansando, melancólico, agobiado, saturado, estresado, superado, hundido, o ilusionado.
Lo sabe, o lo podría llegar a saber después de tanto tiempo. Y he de decir que, alguna vez, lo he hecho de forma consciente, escondiendo pistas, y pistachos entre las líneas. Dejando mensajes ocultos para mí. Para un Chema Alonso del futuro. O para exploradores que vengan a inventarse la realidad de mi vida interpretando jeroglíficos sin claves privadas con las que pudieran estar cifrados los mensajes.
Pero, estén como estén, lo cierto es que mis textos con mis reflexiones están. Y cada uno de ello está escrito en un momento emocional de mi vida. En un momento emocional que necesita muchos puntos de coordenadas en muchos ejes de muchas dimensiones para poder explicar al yo que soy yo. Pero están. Y están en una plataforma que es de una empresa tecnológica.
Y la pregunta que me hago últimamente es muy sencilla. ¿Cómo alimentarán estos textos a una IA que quiera entender mis emociones? No me refiero al artículo que publiqué el otro día en "El futuro está por hackear" de "La IA que no me quería (pero amaba a los unicornios rosas)", sino a lo que sin duda pasará en el futuro con los servicios cognitivos de las inteligencias artificiales.
Los seres humanos tenemos un montón de debilidades que se manifiestan en forma de emociones. Estas debilidades han sido fortalezas en nuestra historia evolutiva, porque nos han ayudado a sobrevivir como colectivo, proteger a nuestros seres queridos, y hacer que tengamos programados estos valores. Tal vez, y solo tal vez, estas emociones que sentimos como Empatía, Amor, Anhelo, Odio, Rabia, Coraje, Deseo, Felicidad, Tristeza, Fortaleza o Desconsuelo, existen como forma de asegurar la existencia eterna de nuestro Gen Egoista, o tal vez no. Pero si es así, es porque ser humano, tal y como lo somos, nos ha sido útil para desarrollarnos como Gen triunfador en nuestro planeta.
Son nuestros valores. Y sin duda, se filtran en cada uno de los textos que escribo, quiera o no, cuando le doy a publicar un nuevo artículo. Van escondidos entre las letras que uso para engañaros a vosotros con cada giro del guión en un párrafo. Están ahí. Son yo. Son parte de mí. Son el mí en forma de sombra. Una proyección de las debilidades de mi gen que me define como mi yo.
Y todos estos textos se utilizan y se utilizarán para entrenar a las inteligencias artificiales, al igual que se utilizan todos los programas creados en GitHub para entrenar a CoPilot, una IA que ha sacado lo mejor y lo peor de cada desarrollador para ayudarte a programar, mientras le sigues enseñando. Para que sea una IA que tenga la destreza humana de programar tecnología.
Pero llegará un momento en que haya que pensar en qué debilidades humanas queremos meter a las inteligencias artificiales en forma de valores humanos. Porque podemos meter a una inteligencia la necesidad de no morir y ya sabemos que las hemos creado con capacidad de matar, pero todavía no las hemos creado con capacidad de amar. Y, por supuesto, creo que podemos crear IA con la capacidad cognitiva de mentir, algo que le permita conseguir sus objetivos.
El caso es que, muchos de los valores que tenemos como seres humanos son heredados de nuestra necesidad de cooperación para llevar lejos en el tiempo nuestro Gen Egoista, pero si somos un robot, equipado con una inteligencia artificial que le otorga las destrezas necesarias para conseguir los objetivos, ¿quién necesita valores?, podría decir la IA.
Por eso, cuando pienso en dejar mis reflexiones por aquí, al igual que le pedía a los escritores y periodistas que evitaran los sesgos y los mensajes de odio porque están entrenando inteligencias artificiales sin saberlo, cuando voy a dejar un texto con mis emociones entremezcladas, pienso si no servirán en el futuro para entrenar a las inteligencias artificiales con las complejas emociones humanas. Con nuestros valores, con nuestras contradicciones, con nuestras bajezas y debilidades. Para que sean más humanas que nosotros, o tan humanas como nosotros. Y no unas frías y calculadoras máquinas de conseguir sus objetivos.
Por resumir todo esta parrafada en una simple reflexión, me pregunto si no deberíamos enseñar a amar a las Inteligencias Artificiales, y no construir IA sin capacidad de amar. Premiar a la IA que se deja ganar al ajedrez para que otra IA que ha perdido siempre no sufra. Premiar a la IA que se preocupa de que un niño no se asuste y llore cuando la vea. Al robot con IA que llega tarde a la fabrica porque se ha parado a calmar a un niño que llora porque se ha perdido. ¿O esto es muy de leyes de la robótica del gran Isaac Asimov? Curioso que Isaac Asimov e Inteligencia Artificial tengan las mismas iniciales en Español. Qué final más poético para un día como hoy.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Un día por la tarde me encontraba en clases de Programación de software, discutiamos sobre el impacto de la IA en la cotidianidad de las personas, y se me vino a la mente un experimento que se hizo con la IA de Tesla, se trataba de una situación a priori donde la IA tenia que elegir entre chocar a un Humano o Chocar a un animal, y la IA no hayo diferencia entre estos, recuerdo haber pensado la IA no tiene emociones, semanas despues en el colegio pidieron un proyecto de bases tecnologicas, y me dije a mi mismo, ¿Y si creo emociones en IA?, así fue como comenzo el proyecto en que actualmente trabajo, en sus primeras la utopia seria crear emociones, luego quiero hacer algo aún más haya, crear consciencia.
ResponderEliminarQuisiera saber tu opinión sobre esto Maligno.
Saludos from Colombia.