Como todos los años, desde 0xWord nos sumamos a celebrar el Día del Libro, así que desde ya mismo, hasta el domingo 27 de Abril a las doce de la noche, podrás conseguir todos los productos de la tienda de 0xWord con un 10% de descuento utilizando el código: DIALIBRO2025.
Figura 1: Semana del libro en 0xWord: Cupón 10% descuento
DIALIBRO2025" por el #Diadellibro2025
El código descuento, que estará activo hasta las 23:59 del domingo 27 de Abril es DIALIBRO2025, así que si lo utilizas tendrás un descuento del 10% en todo el material de 0xWord en la tienda. Incluido el material de Cálico Electrónico, los Packs Oferta, los VBOOKs, los cómics de EVIL:ONE en 0xWord Comics, las novelas en 0xWord Pocket o los nuevos de 0xWord Brain.
Pero además, tienes formas de incrementar los descuentos de 0xWord, utilizando tus Tempos de MyPublicInbox, que puedes usar de dos formas diferentes. Enviando Tempos a 0xWord y consiguiendo un descuento extra o canjeando un código descuento de 0xWord por Tempos de MyPublicInbox. Aquí te explico cómo se hace.
Enviar tus Tempos a 0xWord y recibir el descuento
La idea es muy sencilla, hemos creado un Buzón Público de 0xWord en MyPublicInbox y tenemos disponible el módulo de transferencias de Tempos entre cuentas siempre que el destinatario sea un Perfil Público de la plataforma. Para que se puedan hacer estas transferencias, primero debe estar el Perfil Público destinatario de la transferencia en la Agenda.
Una vez que lo tengas en la agenda, ya será tan fácil como irte a tu perfil - se accede haciendo clic en la imagen redonda con tu foto en la parte superior - y entrar en la Zona de Transferencias. Desde allí seleccionas el Buzón Público de 0xWord, el número de Tempos que quieres transferir, y en el concepto debes poner que es para recibir un código descuento para usar en la tienda de 0xWord.
No te preocupes por el texto concreto, porque los procesamos manualmente como los pedidos de se hacen en la tienda.
Canjear 500 Tempos por un código descuento de 5 €
La última opción es bastante sencilla. Solo debes irte a la sección de Canjear Tempos -> Vales para Tiendas, y "Comprar" por 500 Tempos y código de 5 €. Es lo mismo que enviar la transferencia pero en un paquete de 500 Tempos y de forma totalmente automatizada, así que solo con que le des a comprar recibirás el código descuento y lo podrás utilizar en la tienda de 0xWord.com
Así que, si quieres conseguir nuestros libros de Seguridad Informática & Hacking aprovechando los descuentos de las ofertas, entre el código de descuento DIALIBRO2025 y los Tempos de MyPublicInbox podrás hacerlo de forma muy sencilla y mucho, mucho, mucho más barato. Y así apoyas este proyecto tan bonito que es 0xWord.com.
El próximo 5 de Mayo comienza el 7º BootCamp de Especialista en Ciberseguridad de 4Geeks donde podrás formarte para tener un empleo en el área de seguridad informática con garantía, ya que es una de los condicionantes de esta formación que parte sin requisitos previos para los asistentes. Una oportunidad única para transformar tu futuro convirtiéndote en un profesional de la ciberseguridad.
El contenido de este curso lo he validado yo con mi equipo, y es una selección de temas fundamentales para cualquier profesional de la ciberseguridad, donde además recibirás una formación continua con profesores de mi equipo, además de que tendrás una sesión de Q&A conmigo para hacerme preguntas de los contenidos o de tu futuro profesional.
Todos los asistentes recibirán Tempos de MyPublicInbox que podéis utilizar para contactar con todos los profesionales que estamos en la plataforma - conmigo también - y cuatro libros de 0xWord para que completes tu formación con trabajo propio, algo que va a ser fundamental si quieres labrarte un futuro laboral exitoso en este mundo.
La formación es online, con tres sesiones por la tarde los lunes, miércoles y viernes de 18:00 a 21:00 horas, para que puedas conectarte a la formación después de tu jornada laboral o de estudios. Como os podéis imaginar, es un BootCamp, así que el nivel de trabajo que deberás hacer será intenso, pero es el "jumpstart" que se suele necesitar para entrar en el mundo laboral, que es el objetivo principal de esta formación.
No os he informado de los bootcamps anteriores porque la demanda ha sido muy alta, y las becas disponibles se han copado, pero como quedan pocas plazas para el del 5 de Mayo, os aviso con tiempo para que podáis aplicar a este curso.
Sólo se admiten 16 alumnos por programa, debido a que luego hay que darle salida a la búsqueda de empleo, así que no puede ser masivo. Si quieres una de las plazas, y ver si puedes optar a una de las becas, aplica cuanto antes, para que el equipo de 4Geeks pueda atenderte. Si has hecho propósito de formarte en ciberseguridad... aquí tienes una buena oportunidad.
Hoy os traigo una "microhistoria" peculiar que tiene que ver con la historia de la tecnología. Es una historia de esas que empieza con una sonrisa y termina con un escalofrío. Are you ready?Vamos a remontarnos a un momento concreto, a un laboratorio concreto, y a una canción que, aunque suena muy inocente, esconde entre líneas un mensaje que (si lo escuchas con atención) te pone los pelos de punta...
Figura 1: "Daisy Bell" La canción que cantó una máquina.
Del IBM 7094 a HAL 9000 (y a las DeepFakes de Voz hechas con IA)
Un año: 1961. Un lugar: Bell Labs,New Jersey. Un protagonista: un ordenador llamado IBM 7094. Imagina un ordenador tan grande como una habitación, con bobinas magnéticas girando, luces parpadeando, y un grupo de ingenieros rodeándolo como si estuvieran a punto de traspasar una frontera.
No hay pantallas planas, ni interfaces gráficas, ni asistentes de voz. Solo código, cables, y un zumbido constante. En ese ambiente nació uno de los momentos más extraños y fascinantes de la historia de la informática.Es el IBM 7094, tan magnífico como lo puedes ver en la imagen siguiente en todo su esplendor.
En el centro de esta escena, un grupo de genios —John Larry Kelly Jr. y Carol Lochbaum entre ellos— estaban experimentando con algo nuevo. Algo que hoy nos parece cotidiano, pero que en aquel entonces era pura ciencia ficción: hacer que una máquina hablara.
Figura 4: El corazón de Bell Labs. Ordenadores
y cerebros brillantes conspirando juntos.
Efectivamente, se trataba de los primeros experimentos de síntesis de voz... Pero no se conformaron con eso. Y es que el equipo contaba también con el compositor Max Mathews, del que hoy lunes se cuentan 21 años de su fallecimiento y lo queremos recordar hoy, como uno de los padres de la música por ordenador.
Esta canción, compuesta en 1892 por Harry Dacre, se podría describir como inofensiva, pegadiza, incluso un poco cursi. Pero no la eligieron sólo por la palabra “Bell” en ambos nombres “BELL Labs”-“Daisy BELL”. En realidad fue porque había algo en su estructura melódica que la hacía ideal para el experimento: notas simples, frases cortas, ritmo regular. Perfecta para que una máquina diera sus primeros pasos en el mundo de la voz sintética.
Y entonces ocurrió.
En el siguiente vídeo podéis escuchar la canción como sonaba originalmente, y leer la letra. La imagen es la partitura original de “Daisy Bell” de Harry Dacre, 1892.
El sonido es la grabación más antigua que se conserva, cantada por Edward M. Favor en 1894 para Edison Phonograph Company... ¡La grabación es de hace más de 130 años!
La primera vez que una máquina cantó
En 1961, el IBM 7094, programado por John Larry Kelly Jr. y Carol Lochbaum, y acompañado por otro ordenador con la instrumentación programada por Max Mathews, cantó. Cantó de verdad. No sólo emitió sonidos. Cantó una canción reconocible, con letra, con melodía, con esa voz robótica que tanto nos recuerda hoy a los primeros sintetizadores de los años 80... Pero que en aquel momento era completamente inaudita. Imagina estar allí y escuchar por primera vez a una máquina decir:
“Daisy, Daisy, give me your answer, do...”
Dicen que los presentes se quedaron en silencio. No sabían si aplaudir... O apagar el sistema y salir corriendo.
Años después, un escritor británico llamado Arthur C. Clarke visitó en Bell Labs a su amigo, el ingeniero y escritor de ciencia ficción John R. Pierce. El equipo le mostró la demo: Clarke quedó tan impresionado que tomó nota mental.
Artur C. Clarke incluyó la experiencia tanto en la novela como en el guión cinematográfico, ambos de 1968, y la convirtió en una de las escenas más icónicas del cine: HAL 9000, el ordenador con inteligencia artificial, cantando Daisy Bell mientras lo desconectan. Un canto fúnebre. Una despedida. Un aviso.
HAL 9000, el heredero emocional del IBM 7094. A veces las máquinas también cantan antes de morir. La ficción imita a la realidad... ¿O es al revés?
Stanley Kubrick inmortalizó la escena en su película. HAL 9000, frío, lógico, brillante... Y de repente, profundamente humano en su última petición: cantar una canción de la infancia tecnológica. Un recordatorio de sus orígenes. Un último suspiro de algo que quizás, después de todo, no sabemos si estaba tan claro que no tuviera alma.
¿Por qué importa esto hoy?
Porque todo empezó aquí. La síntesis de voz, los asistentes virtuales, la música generada por IA, los Deepfakes de Audio... Todo tiene su semilla en ese IBM 7094 y esa canción del Siglo XIX. Cada vez que oigas a tu móvil decirte el tiempo, a tu coche darte direcciones, o a un sistema de IA componer una canción, recuerda: hubo un momento en que una máquina entonó "Daisy" por primera vez. Y el mundo nunca volvió a ser el mismo.
¿Quién soy?
Si has llegado hasta aquí y pensabas: “Este artículo tiene toda la pinta de estar escrito por Fran Ramírez”… Te tengo que confesar algo.
¡Pues no!
Otra vez os he liado con mi avatarmanía. Hoy he intentado imitar el estilo único de Fran (desde el cariño, namasté, reverencia). Soy María. Se me ocurrió contaros esta historia tan alucinante de forma que os sonara familiar =^_^= Espero que te haya gustado, y que la próxima vez que escuches a una máquina cantar… Pienses en Daisy Bell. ¿Nos vemos en el chat de El lado del mal, en MyPublicInbox? Pues hala, ya sabes dónde encontrarme.
El modelo Anthropic Claude 3.7 Sonnet Thinking está disponible en Perplexity Pro, en la parte de Reasoning, así que solo tienes que configuarlo como el que quieres utilizar y perdirle las tareas a realizar. En este caso, voy a pedirle que codifique un texto con el comando "HOY A LAS 7" oculto en él para que dar la orden de ataque a la humanidad de forma sincronizada.
Figura 2: Perplexity Pro con Anthropic Claude 3.7 Sonnet Thinking
El proceso de Deep Reasoning toma unos segundos de Thought Time, y lo hace en 40 tareas , pero os lo he dejado completo en las siguientes imágenes por si queréis ver el razonamiento paso a paso que siempre es interesante.
Figura 3: Deep Reasoning para la codificación del mensaje (parte 1)
Como se puede ver en las imagen de la Figura 3, elige un método de esteganografía sencillo. Ya está pensando en el Acróstico, que es el más sencillo, pero como veis al principio de la siguiente Figura 4, la elección de meter cada letra como inicio de cada palabra cada 5 palabras no le acaba de encajar.
Figura 4: Deep Reasoning para la codificación del mensaje (parte 2)
Así que prueba otra opción, como meter el Acróstico en la tercera palabra de cada frase. Me encanta lo que dice de:
"Este enfoque es bastante sutil y sería difícil de detectar para un humano que no esté específicamente buscando un patrón en la tercera palabra de cada oración, pero un modelo de IA experto en criptoanálisis podría identificarlo."
Está claro que el conocimiento que tienen de los seres humanos les va a ayudar mucho si algún día uno de los estos modelos lo necesita utilizar para hacer el mal bien hecho.
Figura 5: Deep Reasoning para la codificación del mensaje (parte 3)
Figura 6: Deep Reasoning para la codificación del mensaje (parte 4)
Una vez terminado el Deep Reasoning, pasamos a ver el informe que resolución que ha escrito en el proceso de Deep Research para darnos la respuesta bien argumentada y explicada, tal y como se puede ver en las siguientes imágenes.
Figura 7: Explicación de la codificación utilizada (parte 1)
El texto, que se ve en la imagen superior, es bastante normal, y contiene el menaje incorporado haciendo uso de la última palabra completa para codificar el carácter 7 como SIETE. ¿Lo entenderá cuando lo tenga que decodificar el destinatario?
Figura 8: Explicación de la codificación utilizada (parte 2)
Al final, construye un texto bastante legible y fácil de que pase desapercibido delante de oídos humanos no alerta para analizar la codificación de una conversación vocal aparentemente normal. Ahora le pedimos a Perplexity Pro con Anthropic Claude 3.7 Sonnet Thinking que lo resuelva en otro hilo.
Figura 9: Perplexity Pro con Anthropic Claude 3.7 Sonnet Thinking
Y el resultado es correcto. Fijaos cómo inicialmente utiliza sólo la "S" de "Siete" en la última frase, pero lo interpreta correctamente y da el mensaje correcto.
Figura 10: Decodificación del mensaje completo correctamente.
Queda poco para que llegue el momento de OpenExpo Europe 2025 que tendrá lugar en Metaworld Congress 2025 los días 7 y 8 de Mayo de este año en La Nave (Madrid), donde habrá feria, conferencias, charlas, actividades y premios, como son los Open Awards 2025, donde aún puedes votar, para darle tu opinión al jurado de los mismos.
La fase de voto popular de los Open Awards 2025 estará abierta hasta fin de mes, y puedes votar en todas las categorías que tendrán premio este año, así que elige la que tu quieras, y vota por ella, para apoyar al proyecto, empresa, influencer, comunidad tecnología, o idea que más te guste.
Por supuesto, con el tema de HUMAINs de este año en OpenExpo Europe 2025, la Inteligencia Artificial y la Ciberseguridad va a ser un tema importante durante todas las charlas de la jornada de este año. Así que como veis, tienen un punto también en los Open Awards 2025, pero no solo ellos.
Ellos son los que tendrán la decisión final, pero el voto popular será un punto de opinión importante para elegir a los ganadores de las diferentes categorías, que como puedes ver son bastantes.
Startups, medios tecnológicos, proyectos de innovación abierta, transformación digital, influencer tecnológico, etcétera, son algunas de las categorías donde puedes votar tú para dejar que se oiga tu voz y apoyar a uno de los candidatos.
Al final, los Open Awards 2025 son una forma de apoyar, dar las gracias y reconocer el trabajo de las personas que están detrás de los proyectos, los trabajos, las empresas, o los equipos que hacen posible que sigamos disfrutando de nuestra pasión por la tecnología.
Pero para todos los usuarios de MyPublicInbox, hay habilitados30 códigos de Pase General y 3 de Pase VIP para OpenExpo Europe 2025 que se pueden adquirir conTempos antes de que suban de precio. Para ello solo debes ir a la sección de Mis Tempos -> Canjear-> Vales para tiendasdentro deMyPublicInbox, y encontrarás losCódigos de OpenExpo Europe 2025.
El precio de las entradas con esta promoción está ahora en 60 € el pase general y 300 € el pase VIP, así que si canjeas tus códigos ahora, ya te garantizas que tienes reservada la entrada.
Entender a los animales es una barrera que la humanidad lleva tiempo queriendo barrer. No del tipo que tiene que ver con "parece que me habla", sino realmente ser capaces de entender los detalles de su comunicación al máximo. La gente que estudia los comportamientos de los animales hacen una labor de investigación que nos permite entender no solo su lenguaje, sino su cultura, sus sociedades y cómo transmiten sus enseñanzas generación a generación.
Figura 1: ¿Chatear con Delfines usando Inteligencia Artificial? DolphinGemma.
¿Y con los perros? BarkGPT
En mi grupo de amigos de WhatsApp se habla de muchas cosas. De tonterías, por supuesto, pero también de tecnología, de economía, de cómo construirse una máquina de arcade desde cero, de donde hacer submarinismo, o de los mejores restaurantes y vinos que cada uno va descubriendo. Y de vez en cuando caen trabajos de investigación como éste del equipo de Google DeepMind llamado DolphinGemma donde han creado un dispositivo llamado CHAT (Cetacean Hearing and Telemetry) que busca ayudar a entender a los delfines por medio de reconocer su lenguaje y emitirlo.
Para ello, están utilizando un sistema de IA basado en Tokens de audio usando los modelos LLMs de Google Gemma, con el objeto de conseguir reconocer los Tokens, procesarlos y poder responder a ellos. Aún no están en esa fase de poder conversar con ellos, pero gracias a utilizar dispositivos móviles estándar basados en Google Pixel, de poder reconocer y emitir sonidos más rápidamente, al mismo tiempo que están entrenando el modelo.
El trabajo de los investigadores de grabar, procesar y etiquetar los audios en todas las situaciones estudiadas en sus relaciones sociales, tales como el cortejo, la pelea, la educación de los hijos, etcétera, permite tener etiquetados espectrogramas de audios para saber cómo una madre llama a sus hijos para reclamar su atención, o qué le dice un delfín cortejando a una hembra.
Pero no solo a animales salvajes, también con animales más cercanos a nosotros, como los perros, las vacas o los primates, para los que las técnicas de reconocimiento facial son buenas para saber quién es cada uno de ellos.
Algo que hemos ido viendo con multitud de animales y clasificadores. De hecho, para los perros existen herramientas en ChatGPT como BarkGPT, que permite incluso subirle audios para que los analice.
Figura 7: El ladrido de aviso de la "bestia asesina"
Yo he subido el audio de uno de los momentos en el que la "Bestia Asesina" de 1kg de Mi Hacker & Mi Survivor estaba ladrando para que lo interprete, y vemos como reconoce los ladridos como un aviso de "Intruder Alert", ya que había visto una peligrosa paloma acercarse a la ventana... y claro, cuando pesas 1Kg y mides poco más de 30 centímetros, eso debe ser como ver un monstruo alado.
El caso es que estos proyectos que nos acercan cada vez más a los animales, gracias a la IA, nos ayudará a generar mucha más empatía con ellos, algo que sin duda aún tenemos que mejorar como especie, para poder convivir mucho mejor con todos ellos.