Custom Search Engines para hacer Google Hacking "Like a Boss"
Desde hace tiempo Google permite crear lo que se llaman "Custom Search Engines", o lo que es lo mismo, vistas de lo que es el motor de búsquedas completo de Google. Por definición no es que amplíen para nada el contenido que hay en el buscador principal, pero a los usuarios menos diestros en el uso de los parámetros y modificadores de búsqueda, les puede venir que se les ofrezca un Custom Search Engine o CSE pre-cocinado.
La idea es bastante simple. Supongamos que una persona sin conocimientos avanzados de las opciones de búsqueda tiene que buscar, para su trabajo, documentos de un determinado tipo, y siempre acaba perdida en dominios que tienen otros documentos similares, o que por medio de técnicas de SEO se han posicionado mejor.
Esto puede generar un auténtico quebradero de cabeza a la organización, ya que estos usuarios que se "pierden" con las búsquedas, son carne de cañón de las técnicas de BlackSEO para hacer ataques de malware, phishing o cualquier otra amenaza que se pueda colar en el buscador.
Figura 3: Introducción a Google Custom Search Engine
Para evitar eso, un administrador de una empresa puede filtrar con un CSE dónde van a poder buscar esas personas y listo. Así, se puede forzar a que un CSE que va a utilizar un administrativo solo pueda hacer búsquedas de un determinado tipo de documento y en un determinado conjunto de dominios.
Es decir, un Google "pre-configurado" que puede darse a un usuario, o directamente el dueño de la web puede instalar dentro de su propio sitio. El vídeo de la Figura 2 lo explica bastante bien. Por supuesto, si eres un amante del Hacking con Buscadores, puedes pre-configurarte tus propios CSE para realizar búsquedas de Google Hacking de una manera más cómoda. Y eso es lo que he hecho yo.
Robots.txt y Sitemap.xml
Si lleváis un tiempo en esto del mundo del Hacking de Web Technologies, sabéis que una buena fuente para hacer dorking - es decir, buscar objetivos de forma masiva - es utilizar las técnicas de Google Hacking. Cuando un atacante descubre una vulnerabilidad que afecta a una versión de software concreto, o una debilidad que se puede explotar en muchas webs, como el caso de portales de impresoras, o módulos de estadísticas vulnerables, hacer dorking y localizar objetivos afectados es el camino habitual.
Y como bien se explica en el libro de Hacking Web Technologies, o hemos podido leer en muchas ocasiones por este blog, buscar en los archivos de configuración de los buscadores es una forma muy cómoda de hacer dorking. Es decir, buscar en los ficheros Robots.txt o en los ficheros Sitemaps.xml nombres de ficheros que el propio administrador del sitio ha dicho que no quiere que aparezcan en el buscador.
Podéis leer el artículo de Chema Alonso del año 2013 en el que hablaba exactamente de esto, de cómo buscar en los sitios webs aquellos archivos que estaban prohibo ser encontrados por el buscador, lo cual es un poco contrasentido, ya que es verdad que el fichero en sí no queda - a priori - indexado, pero el nombre de fichero sí porque Google indexa los ficheros robots.txt y sitemap.xml.
Visto esto, quise hacerme un par de CSE para poder buscar directamente en ficheros Robots.txt y Sitemap.xml. Si ven la consulta de la Figura 5, es fácil personalizar CSEs para que hagan vistas de Google que busquen solo dentro de ficheros Robots.txt de los dominios que nos interesen. Los que yo cree y que pueden usar son para jugar con ellos son:
- Google Custom Search Engine para Robots.txt
- Google Custom Search Engine para Sitemap.xml
A partir de ese momento buscar en estas ubicaciones es muy sencillo. Por ejemplo, buscar rutas de bases de datos como buscaba Chema Alonso en el 2013 dentro de ficheros robots.txt sería algo como usar el CSE de Robots.txt y teclear solo bbdd.
Por supuesto se puede buscar lo que se desee. Cosas como private, privado, bkp, tar, zip, rar, bd, mdb, etcétera, etcétera. Si eres amante del Hacking con Buscadores, seguro que conoces los "juicy files" de las tecnologías web de esos que busca la FOCA.
Y lo mismo sucede si utilizamos el CSE de Sitemap.xml, que nos permite de forma cómoda buscar cualquier tipo de URL que pueda estar en uno de estos archivos, como por ejemplo rutas a documentos en Dropbox.com.
Al final, usar este tipo de Google Custom Search Engines puede ser bueno no solo para evitar riesgos de que usuarios se "pierdan", sino para hacer "dorking like a boss" sobre algún tipo de debilidad concreta o alguna tecnología específica.
Autor: Gustavo a.k.a Rootkit Pentester freelance e-mail:rootkit.redbird@gmail.com
Figura 1: Custom Search Engines para hacer Google Hacking "Like a Boss" |
La idea es bastante simple. Supongamos que una persona sin conocimientos avanzados de las opciones de búsqueda tiene que buscar, para su trabajo, documentos de un determinado tipo, y siempre acaba perdida en dominios que tienen otros documentos similares, o que por medio de técnicas de SEO se han posicionado mejor.
Esto puede generar un auténtico quebradero de cabeza a la organización, ya que estos usuarios que se "pierden" con las búsquedas, son carne de cañón de las técnicas de BlackSEO para hacer ataques de malware, phishing o cualquier otra amenaza que se pueda colar en el buscador.
Figura 3: Introducción a Google Custom Search Engine
Para evitar eso, un administrador de una empresa puede filtrar con un CSE dónde van a poder buscar esas personas y listo. Así, se puede forzar a que un CSE que va a utilizar un administrativo solo pueda hacer búsquedas de un determinado tipo de documento y en un determinado conjunto de dominios.
Figura 3: Libro de Hacking con Buscadores 3ª Edición |
Es decir, un Google "pre-configurado" que puede darse a un usuario, o directamente el dueño de la web puede instalar dentro de su propio sitio. El vídeo de la Figura 2 lo explica bastante bien. Por supuesto, si eres un amante del Hacking con Buscadores, puedes pre-configurarte tus propios CSE para realizar búsquedas de Google Hacking de una manera más cómoda. Y eso es lo que he hecho yo.
Robots.txt y Sitemap.xml
Si lleváis un tiempo en esto del mundo del Hacking de Web Technologies, sabéis que una buena fuente para hacer dorking - es decir, buscar objetivos de forma masiva - es utilizar las técnicas de Google Hacking. Cuando un atacante descubre una vulnerabilidad que afecta a una versión de software concreto, o una debilidad que se puede explotar en muchas webs, como el caso de portales de impresoras, o módulos de estadísticas vulnerables, hacer dorking y localizar objetivos afectados es el camino habitual.
Figura 4: Libro de Hacking Web Technologies de Chema Alonso, Pablo González, Amador Aparicio, Enrique Rando y Ricardo Martín. |
Y como bien se explica en el libro de Hacking Web Technologies, o hemos podido leer en muchas ocasiones por este blog, buscar en los archivos de configuración de los buscadores es una forma muy cómoda de hacer dorking. Es decir, buscar en los ficheros Robots.txt o en los ficheros Sitemaps.xml nombres de ficheros que el propio administrador del sitio ha dicho que no quiere que aparezcan en el buscador.
Podéis leer el artículo de Chema Alonso del año 2013 en el que hablaba exactamente de esto, de cómo buscar en los sitios webs aquellos archivos que estaban prohibo ser encontrados por el buscador, lo cual es un poco contrasentido, ya que es verdad que el fichero en sí no queda - a priori - indexado, pero el nombre de fichero sí porque Google indexa los ficheros robots.txt y sitemap.xml.
Figura 5: Búsqueda en Google para localizar robots.txt indexados |
Visto esto, quise hacerme un par de CSE para poder buscar directamente en ficheros Robots.txt y Sitemap.xml. Si ven la consulta de la Figura 5, es fácil personalizar CSEs para que hagan vistas de Google que busquen solo dentro de ficheros Robots.txt de los dominios que nos interesen. Los que yo cree y que pueden usar son para jugar con ellos son:
- Google Custom Search Engine para Robots.txt
- Google Custom Search Engine para Sitemap.xml
A partir de ese momento buscar en estas ubicaciones es muy sencillo. Por ejemplo, buscar rutas de bases de datos como buscaba Chema Alonso en el 2013 dentro de ficheros robots.txt sería algo como usar el CSE de Robots.txt y teclear solo bbdd.
Figura 6: Búsqueda de bbdd en robots.txt usando el CSE de robots.txt |
Por supuesto se puede buscar lo que se desee. Cosas como private, privado, bkp, tar, zip, rar, bd, mdb, etcétera, etcétera. Si eres amante del Hacking con Buscadores, seguro que conoces los "juicy files" de las tecnologías web de esos que busca la FOCA.
Y lo mismo sucede si utilizamos el CSE de Sitemap.xml, que nos permite de forma cómoda buscar cualquier tipo de URL que pueda estar en uno de estos archivos, como por ejemplo rutas a documentos en Dropbox.com.
Figura 7: Resultados en el CSE de sitemap.xml |
Al final, usar este tipo de Google Custom Search Engines puede ser bueno no solo para evitar riesgos de que usuarios se "pierdan", sino para hacer "dorking like a boss" sobre algún tipo de debilidad concreta o alguna tecnología específica.
Autor: Gustavo a.k.a Rootkit Pentester freelance e-mail:rootkit.redbird@gmail.com
1 comentario:
Her mo so
Publicar un comentario