pues lo que sucede es que estaba haciendo un script para hacer respaldo completo de un website sin utilizar la shell ni librerias de compresion.
la cosa es que las urls quedan masomenos asi...
http://ejemplo.com/backup.php/home/www/...entonces el archivo php hace un listado por cada directorio donde estemos y los va descargando uno por uno hasta hacer el respaldo completo del sitio web tan solo con un archivo php utilizando una descarga recursiva.
el problema está que cuando llega a un directorio te crea por defecto un index.html con el contenido del indice de los archivos, luego cuando el respaldo está completo te das cuenta de que en cada directorio que supuestamente no tenía un index.html ahora si lo tiene con el indice de cada descarga y eso es un problema.
no puedo omitir los index.html porque a veces los servidores tienen un index.html pero quiero que se creen solo las carpetas y listo.
Lo que se me ocurre es hacer un unico indice gigante y que las rutas de las carpetas esten dentro del mismo indice principal, el problema es que lo enviaría via peticion get y me llenaría el directorio con archivos tipo index.php?dir=... , lo otro sería finalizar con un rm -rf index.php*
Lo que estoy intentando hacer es un respaldador de sitios webs hackeados, no todos tienen zip lib instalados y no todos tienen la shell habilitada para poder utilizar el comando tar y tampoco me tinca utilizar gz, por eso se me ocurrió hacer este script que te hace las backups con un wget recursivo a si mismo