domingo, diciembre 31, 2023
sábado, diciembre 30, 2023
Phi-2: La apuesta de Microsoft por los Small Language Models (SLMs)
Recientemente Microsoft Research ha lanzado el modelo Phi-2, con 2.7B de parámetros, el cual ha sido capaz de mejorar en casos a modelos 25 veces más grandes, encontrándose disponible en Azure AI Studio para experimentar con él, y también en HuggingFace. Esto supone un hito en la investigación de generación de modelos más manejables y accesibles sin perder rendimiento frente a modelos más grandes.
Innovaciones clave
¿Cómo puede un modelo más pequeño competir con gigantes que tienen decenas de miles de millones de parámetros? Una de las claves reside en la calidad de los datos de entrenamiento. Se ha llevado a cabo un enfoque muy riguroso en cuanto a la selección de los datos, incluyendo conjuntos de datos sintéticos creados específicamente para enseñar razonamiento de sentido común y conocimiento general, siguiendo los pasos de su anterior trabajo "Textbooks are all you need".
El resultado de estas innovaciones es un modelo que no solo iguala, sino que en casos supera a modelos mucho más grandes. En pruebas complejas, Phi-2 ha demostrado igualar o superar el desempeño de modelos hasta 25 veces su tamaño. Esto incluye tareas que van desde razonamiento y comprensión del lenguaje hasta matemáticas y programación, desafiando la percepción tradicional del papel del tamaño en la eficacia de los modelos de lenguaje.
Rendimiento
Cuando se lanza un nuevo modelo de lenguaje, su evaluación rigurosa con diferentes métricas y la preocupación por la seguridad y la imparcialidad son aspectos cruciales en cualquiera de estos. En términos de rendimiento, Phi-2 ha sido evaluado en una amplia gama de benchmarks académicos, donde ha demostrado ser muy competente. Con solo 2.7B de parámetros, ha superado a modelos como Mistral y Llama-2, que cuentan con 7B y 13B de parámetros, respectivamente. Esto es particularmente notable en tareas que implican razonamiento de múltiples pasos, como matemáticas y programación.
En cuanto a la seguridad y la reducción de sesgos, aunque este modelo no ha sido sometido a alineación a través del Aprendizaje Por Refuerzo con Intervención Humana (se explica cómo funciona este tipo de aprendizaje cuando hablamos sobre la creación de ChatGPT) ni ha sido entrenado con derechos constitucionales humanos como hizo Anthropic con Claude, el modelo ha mostrado un comportamiento desarrollado en términos de toxicidad y sesgo en comparación con modelos de código abierto que sí han pasado por estos procesos, aunque es cierto que estos problemas siguen estando presentes.
Este resultado es producto del enfoque cuidadoso y considerado del equipo en la curación de datos y en las prácticas de entrenamiento. En realidad, esta fue siempre una máxima en el mundo de la Inteligencia Artificial: no se trata de cuantos más datos mejor para entrenar, sino de priorizar la calidad de estos, y lo hemos podido ver en la creación de Phi-2.
Conclusiones
La llegada de los modelos Phi por parte de Microsoft no solo desafía la noción de que los modelos más grandes son inherentemente superiores, sino que también abre un nuevo camino hacia la eficiencia y la accesibilidad en la Inteligencia Artificial. No es simplemente un logro técnico, es un paso hacia modelos de lenguaje más prácticos y accesibles para una gama más amplia de usuarios y aplicaciones.
Publicado por Chema Alonso a las 6:01 a. m. 0 comentarios
Etiquetas: AI, Amazon, AWS, Azure, Bard, ChatGPT, Gemini, GenAI, Generative-AI, GenerativeAI, Google, IA, Inteligencia Artificial, Llama, LLM, Microsoft, OpenAI, SLM
viernes, diciembre 29, 2023
Sh3llCON "Security Hell Conference": Charlas, Talleres de Hacking y un CTF en la ciudad de Reinosa el 26 y 27 de Enero de 2024
Figura 7: Buzón Público de Sh3llCON en MyPublicInbox |
La idea nació en 2014, tras mi regreso a Cantabria de estar trabajando en Madrid. Allí había descubierto el mundo de la ciberseguridad y los congresos, y al regresar a mi tierra vi que aquí no había nada de eso. Así que me lié la manta a la cabeza, lié a un par de amigos, Carlos y Tomy, y nos montamos nuestro propio congreso. De hecho, en nuestra página web hemos colgado un pequeño artículo sobre cómo surgió y qué es Sh3llCON.
La verdad es que estamos muy contentos con la evolución que ha tenido, puesto que con el tiempo y mucho esfuerzo hemos conseguido que colabore mucha gente. No hemos crecido especialmente en tamaño, puesto que siempre hemos sido una CON “pequeñita”, familiar. Estamos contentos de haber juntado en la misma sala a gente con los mismos intereses: estudiantes, profesionales, entusiastas, Fuerzas y Cuerpos de seguridad del Estado, Gobierno, empresas… Ya no solo de Cantabria, sino que toda España, es muy gratificante (con la responsabilidad que eso conlleva) que venga gente de Galicia, de Barcelona, de Madrid, de Alicante o de Málaga por ejemplo, que sus horas de viaje y su dinero les lleva.
Por lo tanto, las actividades tienen que estar a la altura. Empezamos con algo sencillo, charlas, talleres, y un CTF muy muy básico. Pero estos últimos años nos hemos centrado mucho en el entorno empresarial, quizás por la tendencia a buscar los tan valorados patrocinios, y al final ya sabes el dicho, quien mucho abarca poco aprieta.
2. El nombre es cuanto menos curioso y además sabemos que tiene “sobrenombre” ¿Qué significa "Sh3llCON" y cómo refleja la esencia o los valores del encuentro?.
Realmente es un juego de palabras pero tiene su historia. Recuerdo estar en la primera RootedCON viendo una charla de Rubén Santamarta. Yo todavía estaba en pañales en lo que se refiere a ciberseguridad y ordenadores, pero aún así intenté seguir el hilo hasta que no pude mas (risas). En ese momento pensé “joder, esta charla del infierno me está matando”.
Así que uní los puntos: Seguridad + infierno (hell) + congreso = shellcon. Además, shell en inglés es consola, así que me vino de perlas para reflejar exactamente lo que quería transmitir con el nombre. Y ese también es uno de los motivos por los que intentamos que algunas charlas sean muy técnicas, para que no se aburra nadie.
3. Contadnos algunos de los hitos más significativos o momentos que se os han quedado grabados en la historia de Sh3llCON.
Un momento que nunca se me olvidará y que recuerdo con mucho cariño es cuando empezó a llegar la gente en la primera edición, fue como darse cuenta de que eso era de verdad. Luego hay muchas anécdotas que se pueden contar a medias… Por ejemplo, creo que en uno de los ascensores del hotel donde se han realizado todas las ediciones hasta ahora todavía hay una pegatina de la primera edición. También ese año “amanecieron” las pantallas de los ordenadores del hotel con noticias de hackers como fondo de pantalla. O por ejemplo, que alguien hizo una “auditoría gratuita” a la red del hotel.
Otra de las cosas que nos han sucedido es que en casi todas las ediciones alguien acababa desgraciadamente en el hospital y queremos quitarnos esa losa de encima. Pero sin duda alguna, lo que más nos sigue reconfortando es que la gente se apunte, pague la entrada y participe en las actividades. Porque es por eso mismo por lo que hicimos esto, para la gente.
4. ¿Qué aspectos de Sh3llCON de este año creéis que lo diferencian o lo hacen especial en comparación con citas anteriores?. ¿Qué destacamos de la agenda 2024?.
Sin duda el lugar, Reinosa, y en pleno invierno. Tenemos la suerte de poder hacerlo en el Teatro Principal y en La Casona, ambos sitios emblemáticos de allí y creo que eso le va a dar el toque familiar que nos caracteriza.
Y otra novedad que hemos querido hacer otros años y no se ha podido, es que en el CTF habrá pruebas en las que los participantes tengan que moverse por las calles, tipo escape room pero de hacking, y en la calle. ¡Así que ya puede venir la gente abrigada! Además habrá una pequeña sorpresa en las reglas, no la voy a desvelar, pero los participantes tendrán que vigilar sus espaldas.
5. ¿Cómo hacéis para seleccionar las/os ponentes y los temas de las charlas y talleres? .
Los primeros años abríamos un Call For Papers, pensábamos que era buena idea para dar la oportunidad a todo el mundo de presentar su charla. Después valorábamos muchas cosas, el nivel técnico, la temática, la variedad, que no se hubiera dado en otras CONs ya, etcétera. Pero eso al final daba mucho trabajo y no siempre salía el congreso que querías. Así que decidimos cambiar, y ya que somos un congreso familiar, llamamos nosotros mismos a la gente para ver si se anima a pasar un fin de semana divertido, y de paso se marca una charla.¡Eso no quiere decir que no estemos abiertos a nuevas ideas! Siempre escuchamos a todo el mundo y estamos encantados de recibir propuestas.
6. ¿Cómo percibís el impacto y el retorno de Sh3llCON en la comunidad de ciberseguridad y en el público general?
Creo que a la gente le ha gustado que regresemos, quizá esperaban que se hiciera en Santander ya que siempre es más cómodo hacerlo en las capitales de provincia, pero aún así creo que es algo positivo para la comunidad en general y para Cantabria y el norte en particular en lo que respecta a ciberseguridad, puesto que es un aspecto (la ciberseguridad) que nos involucra a todos cada día mas y desde más jóvenes, de modo que todo lo que podamos hacer merecerá la pena. De hecho, creo que debemos apoyarnos entre las CONs y colaborar haciendo cosas juntos, por ejemplo una macro CON donde colaboren todas, creo que sería algo bonito y, quien sabe, puede marcar un hito en la historia de las CONs españolas.
7. Hablemos un poquito de futuro ya que el presente de la edición 2024 está tan cerca. ¿Cómo veis el futuro de Sh3llCON? ¿Hay planes para expandir, cambiar o introducir nuevos elementos en las próximas ediciones?
Por supuesto, la idea con la que empezamos todo esto es que todo el mundo tenga un espacio para mostrar sus proyectos, que puedan hacer networking en un espacio cómodo, que haya charlas de todos los niveles, competiciones, etc. Pero para eso tienes que calar en la gente, tienes que ofrecer algo que no ofrezca nadie o estar en un sitio geográfico privilegiado, y eso es muy difícil. Por otro lado, intentar llegar a más gente, que el término “ciberseguridad” no le suene a rayos a la gente de la calle.
De hecho, una de las cosas que me frustran mucho es cuando vas a un colegio a presentar el congreso y ofrecerles ir a una charla para chavales, y te dicen “no, si aquí ya viene la Guardia Civil a dar charlas”. Que está muy bien y lo digo con todo el respeto del mundo, pero no se acaba ahí todo. Además de pasarlo bien en las CONs (que lo hacemos), es nuestro deber como expertos el ponérselo fácil a los demás, porque “los malos” no van a distinguir a quién atacan.
Publicado por Chema Alonso a las 6:01 a. m. 0 comentarios
Etiquetas: CON, conferencias, Eventos, formación, hackers, Hacking, Reto Hacking
jueves, diciembre 28, 2023
El Humano Digital de Chema Alonso dará charlas por vídeoconferencia a partir de 2024.
Publicado por Chema Alonso a las 6:01 a. m. 3 comentarios
Etiquetas: AI, Artificial Intelligence, bots, chatbot, ChatGPT, Cognitive Services, foolish, GenAI, Generative-AI, GenerativeAI, Humanos Digitales, IA, Inteligencia Artificial, LLM, MyPublicInbox
miércoles, diciembre 27, 2023
MLX o ML Explore: El framework de Apple para Inteligencia Artificial
El diseño de MLX está inspirado en frameworks existentes como PyTorch o JAX, pero a diferencia de estos, ofrece un soporte para un modelo de memoria unificada, lo que significa que los arrays pueden vivir en memoria compartida y las operaciones pueden realizarse en cualquier tipo de dispositivo (CPU o GPU) sin tener que hacerse copias de datos, no como en otros frameworks donde por ejemplo es necesario mover estructuras de datos un dispositivo a otro.
Figura 2: Libro de Machine Learning aplicado a Ciberseguridad de Carmen Torrano, Fran Ramírez, Paloma Recuero, José Torres y Santiago Hernández |
Figura 4: Libros de Python para Pentesters y Hacking con Python de Daniel Echeverri publicados en 0xWord. |
import mlx.core as mxY ya podemos proceder a la creación del array:a = mx.array([1, 2, 3, 4])b = mx.array((9, 8, 7, 6))
Cuando creamos un array en MLX no hay que especificar su localización, ambos viven en memoria unificada. Como ya se ha comentado, a diferencia de otros frameworks, no es que los arrays se muevan a dispositivos (como a la GPU), sino que simplemente se especifica el dispositivo a utilizarse cuando ejecutas la operación deseada que hace uso de estos arrays:
mx.add(a, b, stream=mx.cpu)mx.add(a, b, stream=mx.gpu)
Si no existen dependencias entre las operaciones estas se ejecutarán en paralelo. En caso de existir alguna, MLX gestionará automáticamente que se ejecute la operación dependiente al finalizar la independiente. En el repositorio oficial de MLX puedes ver ejemplos para generar imágenes con Stable Diffusion, generar texto con un modelo de lenguaje y transcribir audios con Whisper, entre otros.
Acercando la IA avanzada al iPhone
El pasado 12 de Diciembre de este año, Apple ha publicado el artículo "LLM in a flash: Efficient Large Language Model Inference with Limited Memory", destacando un posible avance significativo en el campo del procesamiento de lenguaje natural. Los LLMs se están convirtiendo en algo esencial como asistentes en nuestra vida cotidiana, pero su alta demanda de recursos computacionales y de memoria representa un desafío, especialmente en dispositivos con DRAM limitada. El artículo aborda esta problemática mediante un enfoque que consiste en almacenar los parámetros de los LLMs en memoria flash, transfiriéndolos a DRAM según sea necesario. Este método no solo mejora la eficiencia, sino que también permite la ejecución de modelos que exceden la capacidad de memoria DRAM disponible.
En el documento, se introducen dos técnicas principales para optimizar este proceso. La primera, conocida como Windowing, reduce la transferencia de datos mediante la reutilización de neuronas ya activadas. La segunda técnica, Row-Column Bundling, se adapta a las fortalezas de acceso secuencial de la memoria flash, permitiendo leer datos en bloques más grandes. Estas innovaciones colectivas posibilitan la ejecución de modelos hasta dos veces más grandes que la capacidad de DRAM disponible, logrando un aumento notable en la velocidad de inferencia, que varía entre 4 y 25 veces más rápido que los métodos de carga convencionales.
Figura 7: Libro de Hacking iOS:iPhone & iPad (2ª Edicón) en 0xWord de Chema Alonso, Ioseba Palop, Pablo Gonzáleez y Alejandro Ramos entre otros. |
Conclusiones
Aunque Apple ha mantenido un perfil relativamente bajo en el escenario de la IA Generativa hasta ahora, el lanzamiento de MLX podría ser un indicativo de futuras iniciativas y desarrollos. Es una declaración de intenciones, a través de ML Explore y las nuevas investigaciones Apple está facilitando un terreno fértil para la innovación y el desarrollo en IA, lo que podría tener implicaciones significativas para el futuro de la tecnología y su integración en nuestra vida cotidiana.
Publicado por Chema Alonso a las 4:48 a. m. 0 comentarios
Etiquetas: AI, Apple, Artificial Intelligence, GenAI, Generative-AI, GenerativeAI, IA, Inteligencia Artificial, iOS, Iphone, LLM, LLMs, Machine Learning, macOS, OpenSource, Python
martes, diciembre 26, 2023
Todas las Codetalks de 2023 del equipo de Ideas Locas: Aprende IA, Web3, Pentesting, Hacking o Machine Learning
Tienes todos los CodeTalks en esta web, desde los últimos publicados este año hasta el acceso a las cinco temporadas anteriores, pero vamos a comentar uno a uno todos los que hemos publicado este año para que sepas un poco mejor el contenido de estos:
Episodio T06x04: Deep Fake Detector, detectando deepfakes
En este primer capítulo de la temporada, Fran Ramírez habla en profundidad de nuestra aplicación Deep Fake Detector o DFD. Este programa creado en Python y en Windows, está diseñado para integrar modelos que puedan detectar deepfakes pero siempre enfocado al a detección en tiempo real.
Episodio T06x05: Web3 Evolution
El segundo capítulo de esta temporada habla de la Web3. En él, Chema Garabito hace una introducción desde cero a la Web3, pasando por su evolución hasta el día de hoy. También nos cuenta los requisitos y herramientas más utilizadas dentro del mundo del Web3 para que puedas iniciarte en caso de no estar familiarizado con esta tecnología.
Episodio T06x06: LevelUp. Juega y descubre las vulnerabilidades.
Pablo González nos habla de nuevo de Web3 pero esta vez con un enfoque distinto. Pablo nos cuenta en este CodeTalk una plataforma desarrollada por Ideas Locas llamada LevelUp! La cual nos ofrece un reto muy interesante, un “captura la bandera” o “capture the flag” (CFP) para aprender practicando, sobre la seguridad de la Web3 y en concreto de los SmartContracts.
Figura 6: Vídeo Codetalk sobre Level_Up!
Episodio T06x07: Tkinter a PySide: Explorando Interfaces Gráficas en Python
Python es sin duda el lenguaje de programación de moda a día de hoy, principalmente por el auge de la Inteligencia Artificial, donde tiene una posición dominante. Pero en este CodeTalk, Álvaro Núñez-Romero nos habla de un tema muy interesante: cómo crear interfaces gráficas en Python. Esto es importante a la hora de hacer llegar a más gente nuestra aplicación, creando un entorno amigable, efectivo y visualmente atractivo para utilizar nuestro programa.
Figura 7: Vídeo de Tkinter a PySide, Explorando Interfaces Gráficas en Python
Viendo lo sencillo que es hoy día clonar una voz, es importante comenzar a desarrollar aplicaciones que puedan detectarlas y así evitar todo tipo de engaños. Javier del Pino () no explica en este CodeTalk cómo podemos detectar voces clonadas.
Episodio T06x09: Cómo crear tu propia aplicación de IA con Python
Figura 9: Libros de Python para Pentesters y Hacking con Python de Daniel Echeverri publicados en 0xWord. |
Episodio T06x10: Explorando las vulnerabilidades en SmartContracts
Ya hablamos de Level_Up! en otro CodeTalk pero esta vez Álvaro Núñez-Romero nos va a hablar específicamente de los SmartContracts y cómo utilizar la plataforma de level_up! para aprender sobre la seguridad de este elemento tan importante en la BlockChain.
Episodio T06x11: Interactuar con la Inteligencia: Langchain en la intersección del lenguaje y la IA
En la Inteligencia Artificial, estamos presenciando una revolución en la que las barreras entre la comunicación humana y la máquina se están desvaneciendo, abriendo un mundo de posibilidades en cuanto a la interacción hombre-máquina. Y Héctor Cordobés de la Calle nos lo explica hablando de la importancia de LangChain y cómo utilizarlo.
Temas y Proyectos de Ideas Locas
Pues estos son los CodeTalks que hemos publicado en 2023. El año que viene seguiremos publicando un episodio de estos CodeTalks cada mes para mantenerte al día en estos temas tan importantes dentro de la tecnología, y encantados de que nos propongáis ideas locas, proyectos o temas que tocar.
Contactar con Fran Ramírez en MyPublicInbox |
Publicado por Chema Alonso a las 6:01 a. m. 0 comentarios
Etiquetas: charlas, conferencias, Eventos, formación, Hacking, IA, pentest, pentesting, Telefónica, Web3
Entrada destacada
Tu Latch "Hack Your Innovation Contest": Haz un PoC & Hack por 1.000 €
El pasado Telefónica Innovation Day 2024 lanzamos oficialmente el " Tu Latch Hack Your Innovation Contest " en el que repartimos ...
Entradas populares
-
Ayer publiqué un post que tiene ver con las opciones de privacidad de Facebook asociadas a los correos electrónicos , y mañana sacaré la se...
-
La app de mensajería instantánea Telegram tiene muchos fans por el atributo de seguridad que ha querido potenciar desde el principio, per...
-
Hoy lunes os voy a traer una curiosidad de esas que se me pasa por la cabeza cuando menos lo busco. Y en este caso tiene que ver con Star Wa...
-
Conseguir la contraseña de Facebook de una cuenta es una de las peticiones más usuales que se suele recibir de la gente que busca solucion...
-
Ya hace tiempo que dediqué un artículo a los problemas que Facebook estaba teniendo con la indexación en Google . Uno de los lectores (grac...
-
Que el mundo del Tokenomics , las Criptomonedas , y los Tokens para desarrollar plataformas digitales Web3 con arquitecturas DApps basada...
-
Quizás recuerdes, ya hace algunos años, una PoC que hicimos sobre cómo proteger WordPress en modo paranoico donde, además de proteger el l...
-
Ya llevamos unos días en NOVIEMBRE encarando el final del año, y hoy aprovecho para dejaros la lista de formaciones y cursos online que pu...
-
Mi paso por la Ekoparty 2024 fue corto pero intenso para mí. Viajé el lunes por la noche, llegué el martes para preparar la charla, me fui ...
-
Si no lo sabes, en WhatsApp se pueden enviar mensajes de vídeo en las últimas versiones. Si no lo sabías, ya has aprendido algo. Y no te pr...