elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Sigue las noticias más importantes de seguridad informática en el Twitter! de elhacker.NET


+  Foro de elhacker.net
|-+  Sistemas Operativos
| |-+  Windows (Moderador: Randomize)
| | |-+  Detectar archivos no repetidos.
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] Ir Abajo Respuesta Imprimir
Autor Tema: Detectar archivos no repetidos.  (Leído 9,451 veces)
Tachikomaia


Desconectado Desconectado

Mensajes: 1.460


Hackentifiko!


Ver Perfil
Detectar archivos no repetidos.
« en: 24 Noviembre 2023, 12:13 pm »

Tengo una carpeta en que clasifico cosas por fecha (en subcarpetas) y otra por tipo de tema (también). Por ejemplo:
Cosas por fecha/2001-01: Contiene archivos de esa fecha.
Cosas por fecha/2001-02: Contiene archivos de esa fecha.
etc
Cosas por tema/Mis dibujos: Contiene mis dibujos.
Cosas por tema/Mis partidas: Contiene mis partidas.

Algunas cosas no quiero tenerlas en ambas carpetas, pero bueno: Quiero saber qué archivos están en una carpeta y no en la otra. ¿Alguien sabe una buena manera?


En línea

MCKSys Argentina
Moderador Global
***
Desconectado Desconectado

Mensajes: 5.524


Diviértete crackeando, que para eso estamos!


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #1 en: 24 Noviembre 2023, 13:07 pm »

Hola!

Te dejo lo que me arrojó el segundo resultado de Google:

https://www.cisdem.com/resource/powershell-find-duplicate-files-in-folders.html

También lista software que hace lo mismo sin usar porwershell; pero no me fiaría de software de terceros tán facilmente...

Saludos!


En línea

MCKSys Argentina

"Si piensas que algo está bien sólo porque todo el mundo lo cree, no estás pensando."

Danielㅤ


Desconectado Desconectado

Mensajes: 1.853


🔵🔵🔵🔵🔵🔵🔵


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #2 en: 24 Noviembre 2023, 14:45 pm »

Hola, lo que se podría hacer es crear un programa en Python por consola y cuando lo ejecutes que la consola se abra para especificar/escribir separadas por algún caractere delimitador, todas las rutas en el que el programa deberá hacer la búsqueda de archivos, si encuentra archivos repetidos que están en otra o mas carpetas entonces los elimina para que sólo quede un archivo y luego cuando termine el proceso, se informe por ejemplo la cantidad de archivos borrados/repetidos, los nombres de esos archivos, el tamaño/peso total de todos esos archivos borrados, etc.

Pero claro para que eso funcione hay que estar seguro de hacer la comprobación correctamente para que no vaya a eliminar un archivo que no está repetido, es decir que el programa no tendría que tener falla alguna por ninguna razón por ejemplo por error en el nombre de algún archivo que pueda tener acentos y generar un inconveniente con la codificación, para todo eso se tienen que hacer pruebas con archivos sin importancia.


Saludos
« Última modificación: 24 Noviembre 2023, 14:47 pm por Danielㅤ » En línea

Machacador


Desconectado Desconectado

Mensajes: 5.029


El original...


Ver Perfil WWW
Re: Detectar archivos no repetidos.
« Respuesta #3 en: 24 Noviembre 2023, 17:50 pm »

Tengo una carpeta en que clasifico cosas por fecha (en subcarpetas) y otra por tipo de tema (también). Por ejemplo:
Cosas por fecha/2001-01: Contiene archivos de esa fecha.
Cosas por fecha/2001-02: Contiene archivos de esa fecha.
etc
Cosas por tema/Mis dibujos: Contiene mis dibujos.
Cosas por tema/Mis partidas: Contiene mis partidas.

Algunas cosas no quiero tenerlas en ambas carpetas, pero bueno: Quiero saber qué archivos están en una carpeta y no en la otra. ¿Alguien sabe una buena manera?

Existen muchos programas que buscan archivos repetidos, pero tu quieres uno que te busque los NO repetidos... de estos últimos no conozco ninguno aunque debe haberlos... de todas maneras con uno que busque archivos repetidos podas saber cuales son los no repetidos porque no te aparecerán en la lista...

Suerte.

 :rolleyes: :o :rolleyes:
En línea

"Solo tu perro puede admirarte mas de lo que tu te admiras a ti mismo"
Danielㅤ


Desconectado Desconectado

Mensajes: 1.853


🔵🔵🔵🔵🔵🔵🔵


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #4 en: 24 Noviembre 2023, 22:50 pm »

Bien, ahora leyendo la respuesta de Machacador he vuelto a leer el tema, vos queres lo contrario es decir que el programa busque, encuentre y te diga cuáles son los archivos que no están repetidos, si se puede hacer aunque casi siempre los usuarios quieren lo inverso o sea encontrar los repetidos, pero en tu caso es posible hacerlo con un programa por ejemplo en Python, básicamente es lo que he comentado en mi mensaje anterior pero aplicando tu forma funcionaría al revés.
En línea

Serapis
Colaborador
***
Desconectado Desconectado

Mensajes: 3.391


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #5 en: 25 Noviembre 2023, 00:27 am »

La mejor forma es 'hashear' *, todos los archivos. Luego ordenar los hashes, los que están repetidos aparecerán juntos.

Ahora bien, dado que tu quieres enfrentar ambas carpetas, sería preferible hashear cada carpeta aparte y luego comparar ambas listas.

Hay programas que buscan repetidos, pero solo el nombre del fichero, lo que no significa que el contenido sea el mismo.


* Por hashear, se entiende crear un fichero de texto que contiene la lista de nombres, tamaño y hashes de cada fichero en una carpeta.
Esto puede tardar en función del tamaño de los ficheros de las carpetas...

Nota: que 2 ficheros son iguales, solo si su contenido es el mismo (y por tanto el tamaño), sin importar el nombre que tenga cada uno. Es decir arrojan el mismo hash (para descubrir que no haya colisiones de hashes, suele ser útil comparar también el tamaño).
« Última modificación: 25 Noviembre 2023, 00:30 am por Serapis » En línea

Tachikomaia


Desconectado Desconectado

Mensajes: 1.460


Hackentifiko!


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #6 en: 26 Noviembre 2023, 05:28 am »

MCKSys Argentina:
No googlé porque no creí que alguien más hubiera querido lo mismo xD

Pero incluso lo que has buscado no sería lo que busco, sería
"windows" find not duplicated files in directories hash
o
"windows" find uniques files in directories hash

¿Lo de hash para qué es?

Luego buscaré por mi cuenta.

Hallar los archivos repetidos no me sirve, la lista sería muy larga, no sé cuales son los que no están repetidos. ¿Que no debería tener repetidos? Si clasificarlos es difícil así, imaginate lo que sería A o B:
A- Clasificarlos por fecha, luego crear accesos directos, luego enviar esos a distintas carpetas según el tipo de contenido.
B- Clasificarlos por tipo, luego crear accesos directos, luego enviar esos a distintas carpetas según la fecha.
¿Hay otra mejor manera?

Por ahora lo que se me ocurre es clasificarlos por contenido, luego hacer una búsqueda *.*, ordenarlos por fecha, y entonces irlos copiando a las carpetas correspondientes. El problema es que tengo algunas carpetas "por fecha" que sin embargo tienen archivos de otras fechas, porque así los copié a un dvd, y porque dan cierto contexto, y yo no me voy a poner a borrar esos que ya están bien. Pero bueno, ya que esos están más o menos bien clasificados o en cierto órden, probablemente no serán un problema.
En línea

EdePC
Moderador Global
***
Conectado Conectado

Mensajes: 2.176



Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #7 en: 26 Noviembre 2023, 17:59 pm »

Ya te había recomendado antes Everything para hacer búsquedas instantáneas en el Sistema de Archivos NTFS, por defecto desde Windows XP se usa NTFS para los Discos, Memorias USB suelen usar FAT32 o ExtFat, revisar esto antes

Si vas a buscar duplicados recomiendo la versión alpha: https://www.voidtools.com/forum/viewtopic.php?f=12&t=9787#download

Citar
Tengo una carpeta en que clasifico cosas por fecha (en subcarpetas) y otra por tipo de tema (también). Por ejemplo:
Cosas por fecha/2001-01: Contiene archivos de esa fecha.
Cosas por fecha/2001-02: Contiene archivos de esa fecha.

Primero debes tener en cuenta las formas de clasificar cosas para distinguir duplicados, por ejemplo está la Fecha de Creación (cambia si copias/pegas/mueves un archivo), Fecha de Modificación (cambia si editas el contenido del archivo), Fecha de Acceso (cambia si abres el archivo), Tamaño de archivo y Nombre de Archivo.

Suponiendo que todo eso lo tienes en una carpeta "D:\todas mis cosas" y quieres ver todo lo que se modificó en el 2001-01 te basta con (dm: => fecha de modificación)

"D:\todas mis cosas" dm:2001-01

Tienes dc: para fecha de creación y da: para fecha de acceso, la fecha se escribe así: 2001 para solo año, 2001-01 para año y mes, y 2001-01-26 para año, mes y día.

Si por el contrario quieres ver todo lo que no se modificó el 2001-01 basta con ponerle un signo de admiración invertido delante para decir NO como en los lenguajes de programación

"D:\todas mis cosas" !dm:2001-01

Para archivos duplicados igualmente hay que tener en cuenta la manera de distinguir esa duplicidad, ya sea por el nombre, tamaño, fecha de modificación, creación, acceso, o hash.

Por ejemplo si quiere ver todos los duplicados que tengan el mismo nombre y tamaño

"D:\todas mis cosas" dupe:name;size

Pero si quisieras que se te muestre lo contrario (no duplicados por nombre y tamaño) simplemente le pones un signo de interrogación invertido al inicio de dupe

"D:\todas mis cosas" !dupe:name;size

Citar
¿Lo de hash para qué es?

Luego buscaré por mi cuenta.

Para este caso y siendo muy simples: un HASH es un cálculo que se le hace a un archivo para obtener un identificador único para dicho archivo, si dos archivos tienen el mismo HASH se dice que son idénticos en contenido aunque sus nombres, fechas sean diferentes

Para hacer comprobaciones HASH (demoran porque deben leer y hacer cálculos con el contenido de los archivos) agregas el método de hash que quieres usar, por ejemplo de los más rápidos es crc32 que lo usan programas como WinRAR, por ejemplo para que me muestre todos los archivos con hash crc32 iguales y así determinar que son exactamente los mismos en contenido

"D:\todas mis cosas" dupe:crc32

Hay otros métodos de hash como sha1, sha512 que son más pesaditos pero se supone más precisos. No vayas a colgar tu PC estos cálculos pueden tardar unas buenas horas si le das muuuuchos archivos o son pesados, primero asegúrate de realizarlo sobre una lista pequeña que archivos

---
Para finalizar, si no quieres utilizar Everything otro programa más sencillo como SearhMyFiles de Nirsoft: https://www.nirsoft.net/utils/searchmyfiles.zip este te muestra un bonito menú desplegable para que busques duplicados y también los no-duplicados que quieres, tarda mucho más pero la comparación entre archivos es muy precisa

En línea

Tachikomaia


Desconectado Desconectado

Mensajes: 1.460


Hackentifiko!


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #8 en: 27 Noviembre 2023, 08:10 am »

Machacador:
La lista sería muy larga, no sabría cuales faltan.

Daniel:
Lo entendiste en tu 2ndo post, entenderás también que no me voy a poner a aprender Python para esto...

Serapis:
Interesante, buscaré cómo hashear.
En cuanto a ficheros iguales, no sé si te confundiste o qué. Lo normal es que si tienen el mismo nombre y tamaño sean iguales, sólo porque tengan el mismo tamaño no asegura que sean iguales... Lo mismo con el nombre.

EdePC:
Sería según modificación. Se ve bonito el 2ndo, lo pruebo.
En línea

D3s0rd3n

Desconectado Desconectado

Mensajes: 97


Tu Mente es mi arma. Entregame tu mente


Ver Perfil
Re: Detectar archivos no repetidos.
« Respuesta #9 en: 29 Noviembre 2023, 04:27 am »

https://www.snapfiles.com/get/ausdupe.html

Este programa no te arroja los que no son duplicados pero los que si. Lo que Veo de tu post es practicamente lo mismo.
En línea

Gobiernos del Mundo Industrial, ustedes, cansados gigantes de carne y acero
vengo del Ciberespacio, el nuevo hogar de la Mente. En nombre del futuro, les
pido en el pasado  que nos dejen en paz.  No son  bienvenidos entre nosotros.
No tienen ninguna soberania sobre el lugar donde nos reunimos.
Páginas: [1] Ir Arriba Respuesta Imprimir 

Ir a:  

WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines