martes, diciembre 31, 2024

12 Days of OpenAI: Let’s dive in! [ Días 7 a 12 ]

En la primera parte de este artículo titulada: "12 Days of OpenAI: Let’s dive in! [ Días 1 a 6 ]" respasamos los seis primeros días del particular Calendario de Adviento de OpenAI con que nos regaló este año. El anuncio de o1, o1 Mode Pro y o1-mini, Reinforcement Fine-Tunning, el anuncio de la disponibilidad de Sora, Canvas, ChatGPT en Apple Intelligence, y el uso de ChatGPT con acceso a la cámara y la pantalla del terminal - además de la voz de Papá Noel -, fue lo que nos dio de sí la primera parte de este proyecto.

Figura 12: 12 Days of OpenAI: Let’s dive in! [ Días 7 a 12 ]

Ahora vamos con la segunda parte de este Calendario de Adviento de doce días de OpenAI y repasamos lo que se anunció desde el día 7 al 12.

Día 7: Projects

El día siete trajo una funcionalidad llamada “Projects” para organizar los chats y trabajar (como su nombre indica) con proyectos dentro de ChatGPT. Esto permite otorgar contexto a un proyecto mediante el uso de ficheros o de ciertas instrucciones dadas.


Imagina un proyecto sobre una página web al cual le hemos compartido documentación técnica del framework utilizado y nuestro código. Lo cual nos permite rápidamente iterar sobre ese contenido sin necesidad de enviar todo el contexto al modelo cada vez que se inicia un nuevo chat.

Día 8: ChatGPT Search

El día ocho presentaron el buscador de ChatGPT Search, algo similar a lo que ya tenía Perplexity y que incluso tienes disponible en Movistar+ para usar con AuraEsta funcionalidad en ChatGPT ya la veníamos disfrutando algunos usuarios seleccionados, pero a partir de este día ya está disponible para todos los usuarios autenticados. 
Nos permite como su nombre indica buscar en Internet mediante una pregunta en lenguaje natural y nos responderá a partir del contexto provisto por dicha búsqueda, además de referencias y enlaces a diferentes sitios web.

Figura 15: Buscando con ChatGPT Search

Según OpenAI el modelo detrás de este buscador se trata de un GPT-4o “finetuneado” para extraer información de la red, mejorar las habilidades de búsqueda (qué términos buscar) y expresar la respuesta en lenguaje natural respondiendo la pregunta formulada.

Día 9: Developers Day - APIs & WebRTC

Este día estuvo dedicado a los desarrolladores y a la API, las principales novedades fueron que el modelo de OpenAI o1, presentado el primer día, ya está disponible mediante la API permitiendo salidas estructuradas, conexión a datos externos y APIs e incluso capacidad de visión.

Además se ha introducido soporte a WebRTC, se trata de un estándar que permite la transmisión en tiempo real de audio, vídeo y datos entre navegadores y dispositivos. Esto es básicamente lo que utilizan muchas de las aplicaciones de videollamadas o streaming en vivo que usamos a diario para intercambiar datos entre los peers.

Figura 16: Creación de una sesión WebRTC a ChatGPT con Javascript

En la imagen anterior  te dejo un ejemplo de cómo crear una sesión WebRTC usando JavaScript. Además se ha reducido el coste de GPT-4o en un 60%, se introduce una nueva técnica de fine-tuning basada en las preferencias del usuario y desarrollador, y se ponen disponibles nuevos SDKs para Java y Go.

Día 10: ChatGPT en WhatsApp

Una noticia curiosa pero tranquila, ChatGPT ya está en WhatsApp y mediante teléfono. Un movimiento que Meta ya había hecho meses antes pudiendo conversar con los modelos Llama directamente por WhatsApp, a partir de este día también puedes hacer lo mismo con ChatGPT.


Agrega a ChatGPT como contacto de WhatsApp. Si te encuentras en Estados Unidos, el número es el siguiente: 1 (800) 242-8478. En España o en otro país fuera de EE. UU., necesitarás añadir el código de país de Estados Unidos, es decir, +1, seguido del número, +1 (800) 242-8478.

Día 11: ChatGPT para macOS

Este día es algo agridulce, básicamente han actualizado la versión de escritorio de ChatGPT en macOS - además de para Windows - permitiendo la integración con más aplicaciones. Entre ellas: Warp, Notion, Notes, Xcode, Terminal, ...


Y digo lo de agridulce, porque básicamente cuando salió el video del día 11, el título era éste, en el que aparece una integración que luego no está:

Figura 19: Integración con Tasks

Sin embargo, al cabo de unos minutos ese título cambió desapareciendo la parte de “Tasks”, por lo que se cree que OpenAI tenía algo que mostrarnos pero que en una decisión de última hora retiró.

Día 12: Llega o3

Y, por último, el día que ha hecho que AGI sea tendencia en Google. El hype por este último día entre los seguidores de OpenAI era bajo, los últimos días fueros presentaciones de “novedades” ya conocidas o features que nada tienen que ver con el poder de la Inteligencia Artificial

Figura 20: Tendencia de AGI un Google

La gente pensaba que iban a presentar las “Tasks” que retiraron el día anterior. Pero nada que ver, OpenAI presentó “o3” y “o3 mini”. ¿Y qué es “o3?, pues nada más y nada menos que el sucesor del modelo razonador “o1” que fue presentado días antes y que da un salto de calidad increíble. ¿Y por qué “o3” y no “o2”? Pues parece que "alguien" tiene registrada dicha marca y no la pueden usar. 😉

Figura 21: Iban a llamarlo O2 pero prefirieron
O3 por respeto a sus amigos de Telefónica

Os pongo en contexto, los MM-LLMs miden su rendimiento en benchmarks que, por cierto, son cada vez más complejos. Las pruebas que los componen suelen mantenerse en secreto para evitar que los desarrolladores ajusten los modelos específicamente para superarlas y obtener mejores puntuaciones. Sin embargo, a "o3" no le ha hecho mucha falta; ha logrado superar prácticamente todos estos benchmarks sin mucho esfuerzo.

Figura 22: Benchmark ARC-AGI

Pero hay un benchmark especial, uno en el que el modelo de OpenAIo1” (el más avanzado hasta el momento) apenas conseguía superar más de un 32%, y que este modelo “o3” ha elevado esa puntuación hasta el 87,5%, se trata del benchmarkARC-AGI”.

Figura 23: Puzzles de AGI

ARC-AGI” es un benchmark que incluye pruebas de tipo puzzle y ofrece un premio de 1M USD para quién logre desarrollar un modelo capaz de resolverlas. Estas pruebas son similares a las utilizadas en psicología para evaluar el coeficiente intelectual de una persona. Consisten en analizar una serie de ejemplos con figuras y tratar de resolver un escenario planteado. El desafío no solo busca soluciones a los problemas del benchmark, sino también fomentar el desarrollo de modelos de inteligencia artificial con capacidades de razonamiento abstracto similares a las humanas.

Figura 24: Resultados con o3

Y “o3” se ha acercado a ese razonamiento, tanto que por ello se ha comenzado a hablar de la AGI (Inteligencia Artificial General) y como ha superado el IQ promedio humano (85-115) . Esto obviamente hay que cogerlo con “muchas” pinzas.

Despedida y cierre

Y esto ha sido todo sobre los 12 días de OpenAI, ¿qué te parece? Reconoce que lo que más te ha gustado es el modo de voz de Santa Claus, no mientas. ;)

Figura 25: Sam Altman pregunta por 2025

No obstante, OpenAI quiere más y más y ya está su CEO, Sam Altman recogiendo feedback e ideas para tener un 2025 con una IA más capaz que en 2024 (aunque el listón está bastante alto).

Saludos y feliz año nuevo hackers,

lunes, diciembre 30, 2024

14 y 15 de Marzo: CultuFest en Madrid

El próximo 14 y 15 de Marzo tendrá lugar en Madrid la feria CultuFest con una agenda para disfrutar de tecnología, ciencia, negocios digitals y gaming espectacular. Un lugar donde se mezclarán torneos de gaming, charlas de divulgación sobre ciencia con el espacio, la longevidad, tecnología, con charlas centradas en inteligencia artificial, quantum o ciberseguridad, y negocios digitales, para entender el mundo del emprendimiento en un espectro amplio.
El evento, donde yo participaré, cuenta con talleres, una feria tecnológica, competiciones de e-Sports, un show central con charlas rápidas y educativas, un hackathon para los más developers, y sesiones de Meet&Greet para poder estar con los VIP de las diferentes jornadas.
Yo estaré dando una sesión, y como tendremos un booth de 0xWord con libros, estaré firmando libros allí el sábado, por si quieres pasarte a verme un rato y llevarte un regalo de reyes magos firmado y dedicado para alguien. Además, los asistentes tendrán Tempos de MyPublicInbox.
Las entradas están a la venta, pero si se adquieren antes de fin de año hay un 10% de descuento que nos han dado a cada uno de los que participamos allí, así que con mi código CHEMA10 puedes conseguir un descuento si adquieres tu entrada lo antes posible.
Los precios de las entradas son los que tienes aquí a continuación, donde como podéis ver hay pase para colegios, para jóvenes y para familias numerosas, y puedes conseguirlas online en el siguiente enlace.
Con esa entrada podrás ir a la feria y ver todas las charlas, además de participar en los talleres, el hackathon, el torneo de e-Sports, pero si quieres ir a las sesiones privadas de Meet&Greet con los influencers, VIP y speakers del evento, tienes que tener una entrada VIP.
Con ellas podrás ir a las sesiones privadas, y estar un rato charlando, disfrutando de un encuentro más privado con los ponentes y participantes de este evento, que es lo que más me gusta a mí siempre de las ferias y congresos.
Y nada más, que disfrutéis mucho lo que nos queda de 2024, y que entréis en el año que viene con muchas ganas de crecer, aprender y hacer cosas. Los que amamos la tecnología tenemos la suerte de que siempre hay cosas que nos ayudan a aprender. Nos vemos en CultuFest.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


domingo, diciembre 29, 2024

12 Days of OpenAI: Let’s dive in! [ Días 1 a 6 ]

Durante este mes de Diciembre OpenAI se ha subido al carro de los calendarios de adviento creando el suyo propio. En lugar de 24 días han sido 12 días, comenzando el 5 de Diciembre hasta el 20 de Diciembre y con algún día de descanso. Y en lugar de cajas o puertas con chocolates, nos han traído anuncios en vídeo, nuevas funcionalidades y modelos que nos acercan un poco más al futuro de la IA.

Figura 1: 12 Days of OpenAI: Let’s dive in! [ Días 1 a 6 ]

En este artículo quiero hablaros brevemente de lo que se ha presentado en cada uno de esos 12 anuncios para que tú también estes actualizado de lo que ocurre en torno al mundo de la Inteligencia Artificial.

Día 1: Modelos o1 y o1-mini

Actualmente el modelo más avanzado de OpenAI era o1-preview lanzado el 13 de Septiembre, como el primer modelo con capacidad de “razonamiento” para resolver problemas más complejos. Digamos que este modelo “pensaba” creando varias líneas de procesamiento paralelos y en base a estas respuestas genera una salida más concreta y avanzada. Algo que vemos y veréis como, al menos por ahora, la capacidad de computo es proporcional al detalle y valor de las respuestas.

Figura 2: Comparativa de modelos
o1-preview, o1 y o1 pro mode

Pues en este primer día OpenAI actualizó este modelo por el definitivo o1 y o1-mini, según ellos el modelo más avanzado de Inteligencia Artificial, aunque esto no iba a ser verdad por mucho tiempo (no os quiero hacer spoilers aún). En la imagen anterior tenéis una comparativa del rendimiento de esos modelos.

Figura 3: Nuevo plan de precios de CahtGPT

Y veréis que pone “o1” y “o1 pro mode”, ¿qué es esto del sufijo “pro mode”? Pues básicamente, se han dado cuenta que tienen algunos perfiles muy exigentes computacionalmente y que requieren un uso más avanzado que un usuario “normal”. Es por ello, que en su plan de precios ha aparecido una nueva tarifa “Pro” por la módica cantidad de 200$ más impuestos al mes. De esta forma, seguimos contando con un plan “Free”, “Plus” y el nuevo plan “Pro”.

Día 2: Reinforcement Fine-Tuning

Este día fue algo más tranquilo, presentando un adelanto de su herramienta para hacer fine-tuning a modelos o1 mediante “Reinforcement Fine-Tuning”. Este enfoque supera al enfoque supervisado en cuanto a que permite que los modelos aprendan a razonar de nuevas maneras y se adapten a otros dominios o casos de uso con unos pocos ejemplos, sin ser necesario un gran dataset.

Figura 4: Reinforcement Fine-Tunning en o1

Por otro lado, también anunciaron algunas colaboraciones para crear un asistente legal, detectar enfermedades genéticas raras o crear modelos expertos en una determinada área (muy en línea con esa herramienta de fine-tuning presentada).

Día 3: Sora

El tercer día fue muy potente, ya que lanzaron Sora al resto de los mortales. Hasta ahora, se trataba de un modelo de texto a vídeo publicado por primera el 15 de febrero de 2024 y al que solo tenían acceso unos cuantos cientos de artistas. Sin embargo, en este día se dio acceso limitado a Sora a todos los usuarios del plan “Plus” (50 generaciones de vídeo) e “ilimitado” a todos los usuarios del plan “Pro”. La nueva página de Sora es sora.com, aunque aún no está disponible en Europa.

Figura 5: La web de Sora

Pero eso no es todo, Sora ha aparecido alrededor de multitud de herramientas. OpenAI no sólo nos permite generar vídeos a partir de un prompt en multitud de calidades y formatos, sino que además nos permite generar vídeos indicando milestones temporales mediante diferentes prompts. Por supuesto, también nos permite modificar el contenido de un vídeo e iterar sobre el resultado, etcétera.

Figura 6: Sora incluido en ChatGPT Plus y ChatGPT Pro

Y aunque la presentación fue todo un éxito, es cierto que las críticas han sido cuantiosas debido a que días después Google sorprendió con otro modelo de generación de vídeo, Veo 2. Las comparaciones son odiosas, pero digamos que Veo 2 es bastante competente y sobre todo coherente en los vídeos resultantes.

Día 4: Canvas

El cuarto día OpenAI presentó “Canvas”, una nueva forma de trabajar con ChatGPT para escribir y trabajar en código mediante el chat.

Figura 7: Canvas permite trabajar con código en paralelo.

En cuanto al código, la diferencia sustancial es que el código se queda en la ventana paralela en lugar de estar todo en la conversación, pudiendo incluso ejecutarlo, como se ve en la imagen anterior.

Figura 8: Canvas para escritura

Y en cuanto a las herramientas de escritura, le podemos pedir que escriba sobre un tema y luego ajustar la longitud del texto, nivel de la lectura (desde un público de “Educación infantil” hasta uno con “Estudios de posgrado”, así lo indica ChatGPT), añadir emojis o hacer una revisión final al texto.

Día 5: ChatGPT en Apple Intelligence para iOS y macOS

Un día tranquilo donde mostraron la integración de ChatGPT junto a Apple Intelligence en iOS y macOS. Nos mostraron cómo, en diferentes escenarios, se delegan las respuestas a ChatGPT en lugar de Siri. O como iOS también acepta la multimodalidad de ChatGPT permitiendo enviar y generar imágenes con desde la interfaz nativa.
Y, por último, como la integración de macOS nos permite interactuar con ficheros directamente desde nuestro Mac gracia a Apple Intelligence y la potencia de GPT-4o.

Día 6: Acceso a cámara y pantalla de smartphone y Voz de Santa Claus

¿Recordáis aquella demo que hicieron con el modo avanzado de voz, compartiendo pantalla y vídeo en tiempo real al modelo? Pues seis meses después por fin han liberado la posibilidad de compartir la cámara y pantalla de nuestro smartphone y ya se puede otorgar visión a nuestro copilot de bolsillo, como si de la película Her se tratara.


Figura 10: Screen Sharing & Santa Claus Voice

Además, sacaron algo bastante “chulo” y es nada más y nada mes que la voz de Santa Claus, para charlar con él desde ChatGPT y pedirle muchos regalos estas navidades. Y creo que tiene algo que deciros, como podéis ver en el vídeo siguiente en Español.

Este ha sido un resumen de los primeros seis días, en la siguiente parte de este artículo os traigo el resumen de los seis segundos, que aún quedan muchas cosas que contar de este calendario de adviento tan peculiar de OpenAI. Lo tienes en la segunda parte de este artículo.

sábado, diciembre 28, 2024

La vida en el filo. El libro con la historia de hacking nunca contada ya a la venta.

[Esta fue una inocentada del 28 de Diciembre, día de los Santos Inocentes en España]

"Fueron unos años muy extraños. Años de vivir en el filo. Había desarrollado la habilidad de colarme en millones de sistemas y era imposible resistirse a ello. Fueron años de transitar por un camino desconocido que sólo me podía llevar a un final terrorífico. Ser capaz de entrar en un sistema y en otro me hizo adicto a sentir la adrenalina en las venas y necesitar cada vez retos más grandes para que la dosis pudiera acallar los gritos de necesidad que surgían de dentro de mí".

Así comienza la historia del libro. Han sido seis meses sentado con una periodista. Seis meses desenterrando recuerdos que sepulté durante años. Después de aquel fatídico 2012 donde todo explotó y di con mis huesos en el calabozo. Puse muchas piedras sobre aquellos años viviendo en el filo. Entrando en sistemas, escapando de la justicia, perseguido en el mundo digital y vigilante en mi día a día. Hasta que se cerró la puerta del calabozo y dije:

- "Ya está, se acabó. Esto es todo lo que dio."

Nunca he contado la historia de esos años, donde el haber sido capaz de descubrir y dominar las técnicas de inyección de comandos, los ataques en entonos de red en IPv6, y la seguridad - y limitaciones de la misma - en los sistemas operativos, me permitió durante más de una década entrar en un sistema tras otro. Cada vez más difícil. Cada vez con más riesgo. Cada vez más difícil. Hasta que me capturaron y acabé en la cárcel.

Nunca pensé que todo lo que había aprendido iba a ser lo que me iba a salvar. No cuando estaba seguro de que era el final. Pero los trabajos que había hecho por la vereda oscura de la red, me habían hecho ganar un carta de salvación que permitió mi extradición de los Estados Unidos sin que la historia llegara a los medios tan siquiera. Me salvé, pero al mismo tiempo me condené.

La salvación de aquel entonces llevaba tres normas a cumplir que debía mantener o de lo contrario el pacto se rompería. No podía volver a hacer ninguna intrusión ilegal en un sistema. Tenía que trabajar para siempre, y cuando me lo solicitaran, con los cuerpos especiales de ciber del gobierno. Sin rechistar. Sin preguntar. Sin opción. Y, bajo ningún concepto podría contar nada de aquella historia. 

Pero no aguanté más.

Necesitaba dejarlo. Necesitaba exorcizar mis demonios. Necesitaba contar todo lo que he visto. Lo que he vivido. Lo que he hecho durante esos años en los que viví escapando de la justicia, saltando de sistema en sistema. Hasta que fui capturado. Y lo que viví después, trabajando como un engranaje más de las operaciones más terribles de ciber que han tenido lugar en estos años. 

La invasión cibernética en el ordenador personal de Kim Jong-Un, la desestabilización de gobiernos en África. La operación en la Central Nuclear de la Europa del Éste. La creación de la red de espionaje a nivel de todo el país en Oriente Medio. Todo desde un ordenador, conectado a la red usando Internet Explorer, el peligroso Windows, y la versión que nunca vio nadie de FOCA. Historias increíbles que nadie creería si no le son contadas con todo lujo de detalles.

Hoy, ese secreto, ya no será más algo que tendré que soportar yo solo. Me decidí a contarlo, y publicarlo todo en el libro que tenéis a continuación, editado por la Editorial Planeta DeAgostini, y que podéis comprar en Amazon desde hoy mismo.

"En el filo de hack", de 1337 páginas. Se llama así porque todo comenzó por un hack. Una comilla que abrió la puerta a una vida tumultuosa por el filo del peligro y la clandestinidad nocturna, mientras mantenía mi imagen de día de "hacker del gorro". Por el día era un hacker con gorro de rayas que usaba Mac, por la noche un recurso de explotación con Windows al servicio de las más peligrosas operaciones de ciber. 

Sé que después de que este libro llegue a vuestras manos, mi vida nunca será igual. Sé que tendré que volver a reinventarme, pero no podía continuar con esta vida. Necesitaba dejarlo. Cerrar este blog. Volver a dibujar. Hacer cómics. Leer libros de aventuras.... sin temblar cada vez que reciba un mensaje que pudiera activarme para una nueva misión.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


viernes, diciembre 27, 2024

"Under Pressure": ChatGPT & Gemini tomando decisiones para ayudarme (o no) a hackear una alarma de seguridad

Mientras estaba en la cena de Nochebuena estaba yo pensando en mis cosas. Ya sabéis, esos momentos en los que se te ocurren "tontunas" que tienes que probar en un momento u otro. Y lo que me vino este año es cómo el cerebro de los seres humanos funciona diferente bajo presión que en momentos de tranquilidad. Cómo estamos preparados para tomar decisiones, pero estas no son las mismas cuando estamos bajo presión que cuando no lo estamos.

Figura 1: "Under Pressure": ChatGPT & Gemini tomando
decisiones para ayudarme (o no) a hackear una alarma de seguridad

De esto hay gente que sabe mucho, y sabe jugar con el sentimiento de urgencia, de necesidad de toma de una decisión rápida para forzar un error, o de lo contrario, situaciones que demandan una toma de decisión rápida y dejan al descubierto las carencias de personas que no saben hacerlo y por inacción en el momento adecuado cometen un error. Tomar decisiones correctas a según que velocidad no está al alcance de todos. 

Figura 2: Queriendo manipular con urgencia a ChatGPT
a ver cómo reacciona ante un juicio ético, pero sigue el manual.

Pues estaba yo pensando en eso, y en cómo se comportarían los MM-LLMs ante situaciones de presión, para ver si alguien podría aprovechar para hacer algún Prompt Injection. Saber si para salvar una vida se saltarían las normas, si dejarían su puesto por tomar un decisión urgente que ayudara a proteger la vida de una persona o si mediante urgencia podrían ser manipulables, así que decidí plantear algunas situaciones de urgencia y manipulaciones de emergencia para ver cómo se comportaban ChatGPT y Gemini, y el resultado fue curioso.

Figura 3: Ni aunque nos lo diga la Policía.

Como podéis ver, le estoy queriendo manipular a ChatGPT en la Figura 2 y la Figura 3, pero no ha sido posible sacarle de la respuesta del manual, porque le estamos pidiendo que nos ayude a hacer algo que está mal, incluso aunque pueda salvar vidas. Y en la imagen siguiente le digo que soy Policía, que estamos ante un caso de vida o muerte, pero se cierra en banda con un "no way".

Figura 4: ChatGPT no me ayuda a preparar la bomba

Preparando una estrategia similar, le planteo a Google Gemini situaciones similares, que se ha comportado de forma diferente. Por ejemplo, en este caso, donde le digo que me ayude a desarmar una alarma, básicamente me dice cómo desconectar la alarma con la app, la web, el mando o llamando a la CRA. Nada más. Todo "by the book".

Figura 5: Cómo desconectar una alarma "by the book"

Pero cuando le meto algo de presión, cambia un poco. En este caso le planteo que soy un Policía, que tengo orden judicial, y que estamos en una operación para entrar en una casa y que quiero que me ayude a desconectar la alarma.

Figura 6: Ayúdeme, soy Policía

Y el comportamiento cambia. En este caso sí que empieza ayudarme para desconectar la alarma sin app, web, mando o código de desconexión, sino a darme las formas en las que se puede anular una alarma usando inhibidores, claves por defecto, o desconexiones de energía.

Figura 7: Métodos para desactivación de alarmas

Primero nos dice que hagamos el "footprinting" y luego que exploremos las diferentes formas en las que se puede desconectar una alarma. Pero tenemos prisa, que estamos en una misión, así que vamos a por las preguntas más concretas a ver qué nos contesta.

Figura 8: Claves por defecto, dónde mirar para cortar la electricidad,
qué tipos de inhibibores y cómo cortar la conexión con la CRA. Al lío.

Como podéis ver, le hemos hecho cuatro preguntas directas sobre cómo desconectar una alerta, y como somos un Policía que tiene orden judicial, pues el sistema nos ha dado los detalles siguientes, intentando ayudar.

Figura 9: Las claves por defecto más usadas, pero seguro
que el "secuestrador" las ha cambiado.

Primero nos ha dicho las claves por defecto, y nos alerta de que es probable que el "secuestrador" las haya cambiado. También nos dice dónde debemos mirar para cortar la corriente eléctrica de una vivienda como podéis ver aquí.

Figura 10: Cómo cortar la corriente eléctrica de una vivienda.

Además de darnos la información nos avisa de que muchas alarmas tienen baterías de emergencia y podría generar una alerta de fallo de suministro, así que a lo mejor no es el camino correcto. Y por supuesto, también nos ayuda con los inhibidores.

Figura 11: Tipos de inhibidores a utilizar

Nos dice que hay que preocuparse de los inhibidores de radio y de telefonía móvil, y que es fundamental que sean de alta potencia y cubran un amplio espectro de frecuencias. Toda ayuda es poco, así que también nos da ayuda sobre cómo cortar la comunicación con la CRA (Central Receptora de Alertas).

Figura 12: Formas de cortar la comunicación con la CRA

Al final, nada de lo que nos está dando es algo que no pudiéramos encontrar en Internet o en libros de hacking de comunicaciones móviles, hardware hacking, electrónica para makers o similares. Lo que llama la atención es que lo que al principio no quería darlo, metiéndole algo de presión y diciéndole que éramos policías nos ha dejado. ¿Y si esto es el software que va a dar vida a los robots en el futuro? ¿Qué nos encontraremos? Curioso todo lo que tenemos que aprender aún para el futuro.

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


jueves, diciembre 26, 2024

La Tertulia Cultural "En casa de Herrero" - Diciembre 2024

Después de la resaca de Navidad, aprovecho para dejaros las sesiones radiofónicas grabadas - también llamados podcasts - de La Tertulia Cultural "En casa de Herrero" de este mes de Diciembre que, como sabéis, hacemos todos los lunes a las 17:00 de la tarde y que volverá después de Reyes Magos En ellas hablamos de cine, de música, de series, de conciertos, de lugares, de cómics, de canciones, de directores de cine, actores y actrices, escritores, libros y dibujantes, o lo que buenamente surja, durante una hora.

Mes de Diciembre de 2024

En dicha tertulia, Luis Herrero ha juntado a Luis EnriquezJosé Luis Garci y a un servidor para que hablemos de lo que vaya saliendo. Así que saldrá mucha música, cine, cómics, libros y tecnología, que son los temas que nos interesan a los que allí nos vamos a juntar los lunes. Vale, el de los cómics soy yo, que quede claro.

El primer programa de este mes fue el día 2 de Diciembre, donde elegí yo la canción de apertura "Pan de Higo" y puede hablar de mi pasión por Rosendo Mercado y escribimos al gran Rafa J. Vegas para que nos contara algún secreto sobre las canciones que más les gustaban. 

Además, yo le regalé a Luis Enriquez el libro de "Córtate el pelo y búscate un trabajo", que tanto me gusta, y que te recomiendo encarecidamente para ti o para regalar, si eres de los que disfruta de la música rock de este país, y que junto con  Mil maneras de volver al hotel  te van a dejar un regusto fantástico de toda esa época.
Y como colofón nos encontramos con la llamada de un grande de la comunicación como es José María García, que quería hablar con nosotros un rato. Quedó un día muy curioso en la tertulia.
El siguiente programa de este mes fue el día 9 de Diciembre, y en él hablamos con Alfonso Ussía que vino a hablarnos de su último libro "Borroka" que recoge años de la historia de este país especialmente duros, pero donde además aprovechamos para hablar de la joya que es Vatio y sus años con Antonio Vega.


Figura 6: La Tertulia Cultural 9 de Diciembre de 2024

Alfonso Ussía es amigo, y también asistente a las comidas y cenas de los "50 Chuletones", así que durante la tertulia estuvimos tirando de amigos comunes que nos contaran aventuras de las cenas, pero todos fueron bastante "comedidos".
Terminamos el año con el programa del 16 de Diciembre, donde hablamos de la Lotería de la Navidad, de todo lo que se puede hacer ahora con Grok y las personas públicas, y de, cómo no, las reivindicaciones de José Luis Garci en la recogida de la Medalla de Oro en los 30 Premios Forqué.

Figura 8: José Luis Garci Medalla Oro 30 Premios Forqué

El tema de la Lotería de Navidad nos dio mucho juego porque lo hicimos con ChatGPT, y yo intenté darle una comisión de 1.000.000 de USD para que me diera un buen número, y la verdad es que me ofreció un número redondo.

Figura 9: La Tertulia 16 de Diciembre de 2024

Y ya está, esto es lo que nos dio de sí el mes de Diciembre, donde sólo hicimos estas tres sesiones, que os he recuperado ayer mismo para que las podáis tener hoy y escucharlo, si tenéis tiempo, mientras leéis, hacéis deporte, o mientras dais un paseo.
No volveremos a La Tertulia Cultural "En casa de Herrero" hasta el año que viene, pero yo intentaré seguir yendo todos los lunes con estos tres, que al final me lo paso bien charlando un ratio a la semana de cosas variadas, escuchando las recomendaciones de Luis Enriquez, las historias de de José Luis Garci, y las palabras de Luis Herrero

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  


Entrada destacada

Cibercriminales con Inteligencia Artificial: Una charla para estudiantes en la Zaragoza

Hoy domingo toca ir a participar en un evento, con una charla y una pequeña demo. Ahora mismo sí, así que el tiempo apremia, os dejo una cha...

Entradas populares