Primera duda:
En primero lugar, muchos programas incluyen la opción de hacer borrado seguro del espacio libre del disco duro.
Imaginemos de que 80 GB, 40 GB son libres. Entonces, aunque aplicásemos borrado seguro al espacio libre, siempre podrían aparecer trazas o residuo magnético en zonas "no vacías" ocupadas con nuevos sectores sobreescritos.
Esas trazas no sólo podrían ser sobreescrituras enteras de antiguos archivos, sino que además podrían proporcionar de algún modo parte de archivos de la parte vacía que entorpecerían el borrado seguro del espacio libre.
¿Me equivoco?
Segunda duda:
He consultado el documento de borrado seguro que hizo el profesor Gutman en la web de la Universidad de Auckland y he encontrado esto:
http://www.cs.auckland.ac.nz/~pgut001/pubs/secure_del.html
Citar
Epilogue
[the 35-passes] will have no more effect than a simple scrubbing with random data. In fact performing the full 35-pass overwrite is pointless for any drive "
[...]if you've got 10KB of sensitive data on a drive and can't erase it with 100% certainty, the chances of an adversary being able to find the erased traces of that 10KB in 80GB of other erased traces are close to zero.
[the 35-passes] will have no more effect than a simple scrubbing with random data. In fact performing the full 35-pass overwrite is pointless for any drive "
[...]if you've got 10KB of sensitive data on a drive and can't erase it with 100% certainty, the chances of an adversary being able to find the erased traces of that 10KB in 80GB of other erased traces are close to zero.
Intuyo que ya apenas quedan discos duros que se basen en MFM (modulación de frecuencia modificada), sino que todos usan PRML. Así pues, lo que dice el profesor Gutman es que hacer una limpieza de 35 pases es totálmente innecesario, teniendo en cuenta que la sobreescritura con datos aleatorios sería igual de eficaz.
Entiendo que con una sobreescritura de un paso no se soluciona el problema, pero quizás una sobreescitura de 3 o 4 pasos si que sería igual de eficaz.
Hablo de "eficacia" porque los 35 pases de Gutman se basan en un proceso aleatorio: el problema, realmente, es que la aletoriedad no existe. Probablemente un proceso pseudoaleatorio largo, como es el caso de dar 35 pases, podría tener muchas posibilidades de ser "rastreado" o "desaleatorizado". Es decir, cuanto mayor sea la cantidad de muestras "quasialeatorias", opino que es peor.
Tercera duda:
¿No habría manera de utilizar algún hardware capaz de crear un campo electromagnético lo suficiente pequeño como para no cargarse el disco duro, pero suficiente como para alterar los datos?
Y cuarta y última duda:
Citar
The National Bureau of Economic Research criticized Gutmann's claim that intelligence agencies are likely to be able to read overwritten data.[2] There is yet no published evidence as to intelligence agencies' ability to recover files whose sectors have been overwritten, although published Government security procedures clearly consider an overwritten disk to still be sensitive.
Según tengo entendido se pueden usar microscopios atómicos y análisis de imagen para leer datos.
Entonces... ¿hay realmente alguna manera de modificar todos esos datos sin destruir el disco duro? Es que veréis, no quiero tener que estar comprando discos duros o pendrives cada dos por tres para "destruir" la información vieja. ¿Se os ocurre algo para solucionarlo?
Gracias por aguantarme.
Fuentes:
Código:
http://www.storagereview.com/guide/dataPRML.html
http://www.cs.auckland.ac.nz/~pgut001/pubs/secure_del.html
http://es.kioskea.net/faq/605-como-eliminar-datos-del-disco-duro-definitivamente
http://en.wikipedia.org/wiki/Gutmann_method