martes, 15 de enero de 2013

Protocolo de exclusion de robots

Hoy navegando por internet, visite algunos sitios de los diversos ministerios de Guatemala, en los cuales se ven con fallos garrafales y el mas interesante de todos ha sido la falta de conocimiento en la aplicacion del protocolo de exclusion de robots o el robots.txt.
 
Este protocolo es una tecnica utilizada para evitar que los bots o robots de los diversos motores de busqueda que existen, indexen en los resultados de busqueda acceso a directorios publicos o privados, asi como informacion confidencial que resida en un servidor. Un mal uso o falta de este protocolo tiene como resultado dejar con acceso publico  informacion privada o confidencial.
 
Y eso es un ejemplo claro de ello, al navegar por el sitio del Ministerio de Ambiente y Recursos Naturales de Guatemala, llegue al siguiente directorio
 
Captura directorio privado marn.gob.gt
 
 
Hasta aqui aparece todo muy bonito, pareciera que el administrador ha hecho bien su trabajo. Pero al navegar un poco mas dentro de los directorios privados del servidor se puede encontrar diversa informacion, entre las cuales la estructura del sistema de convenio de pagos.
 
 
Captura de documento privado en marn.gob.gt
 
Y no pueden faltar los script de la base de datos, para el sistema de convenio de pagos
 
Captura documento privado en marn.gob.gt
 
Tambien se encuentra informacion del Sistema de Contabilidad Integrada Gubernamental.
 
Captura de Sistema de Contabilidad Integrada Gubernamental
 
 
Hay mucha informacion desde doscumentos confidenciales, hasta usuarios con contraseñas de varios sistemas que estan a tiro de query y accesible para cualquier usuario, todo a causa de la falta de aplicacion de este protocolo, asi que es hora de hecharle mano a esto para mantener los directorios y archivos privados, realmente privados al publico en general.
 
Saludos
Lexer Parser
 






No hay comentarios:

Publicar un comentario