Buenas tardes. Utilizo este foro con el fin de comenzar a hacer público mis estudios y resultados.
Ya pasaron tres largos años desde que publique el primer tema, más otros dos años desde que comencé con este viaje. Finalmente en el día de ayer pude unificar mis estudios en un teorema poco prolijo pero espero dejarlo bien pronto. Sin embargo aquí lo presento.
Definición y teorema (principio)
**Definiciones.**
1. Sea $N$ un número (por ejemplo 64 dígitos). Sea $B$ la partición de $N$ en bloques de 4 dígitos y $r_i$ la reducción Tesla de cada bloque (suma de dígitos $\mod 9$ con $0\mapsto 9$). Sea la secuencia de reducciones $\mathbf{R}=(r_1,\dots,r_{16})$.
2. Sea $A=\{1,2,3,6,7,8\}$ el conjunto “deseado” (puede generalizarse).
3. Definimos la **mapa-compatibilidad** $M:\{1,\dots,9\}\to \mathcal P(A)$:
$$
M(1)=\{1\},\ M(2)=\{2\},\ M(3)=\{3\},\ M(4)=\{1,8\},\ M(5)=\{2,7\},\ M(6)=\{6\},\ M(7)=\{7\},\ M(8)=\{8\},\ M(9)=\{3,6\}.
$$
(esto formaliza la “empuje complementario” usado antes).
4\. Una **secuencia candidata** $\mathbf{S}=(s_1,\dots,s_L)$ con $s_j\in A$ es **consistente** con $\mathbf{R}$ si existe una alineación (subsecuencia inyectiva en orden) entre $\mathbf{S}$ y $\mathbf{R}$ que maximiza coincidencias según $M$ (o según otro criterio que definamos).
**Principio (Teorema de resonancia mínima — enunciado operativo).**
Dado $\mathbf{R}$, el *candidato armónico preferido* $\mathbf{S}^*$ de longitud $L$ es la solución del problema de optimización
$$
\mathbf{S}^* = \arg\min_{\mathbf{S}\in A^L} \Big( \alpha\cdot C_{\text{mismatch}}(\mathbf{S};\mathbf{R}) \;+\; \beta\cdot C_{\text{trans}}(\mathbf{S}) \;+\; \gamma\cdot C_{\text{phase}}(\mathbf{S}) \Big),
$$
donde:
* $C_{\text{mismatch}}$ mide cuántas posiciones en $\mathbf{S}$ **no** encajan con $\mathbf{R}$ según $M$ (o, equivalentemente, la negativa de la máxima coincidencia alineada).
* $C_{\text{trans}}$ mide la **tensión de transición** (rupturas entre parejas), por ejemplo la suma de costes en las transiciones $s_j\to s_{j+1}$ que penalizan saltos no circulares o inversiones de sentido.
* $C_{\text{phase}}$ penaliza secuencias que no sean repeticiones periódicas de una base corta (p. ej. penaliza si $\mathbf{S}$ no es exactamente dos repeticiones de una longitud-6).
* $\alpha,\beta,\gamma\ge0$ son pesos que eliges según prioridad (por ejemplo, priorizar resonancia → pequeña $\alpha$, grande $\beta$ y $\gamma$).
**Interpretación:** minimizar mismatch solamente tiende a devolver muchas secuencias. Añadiendo $C_{\text{trans}}$ y $C_{\text{phase}}$ impones el criterio de “baja entropía” / “ciclo armónico”. Ese es el teorema operativo: **la secuencia armónica preferida existe y es la minimizadora de ese coste**
Los que me siguieron tiene el contexto completo, por lo que resumo brevemente.
El objetivo inicial era develar la contraseña de un hash, (algo q no tengo que explicar que es imposible), pero no quita que pueda reducir la cantidad de combinaciones de fuerza bruta con Hashcat de trillones a unos pocos millones, con lo cual el proceso de encontrar la contraseña se vuelve efectiva en un corto y muy reducido lapso de tiempo, algo que entenderán quienes hayan intentado usar Hashcat en hashes sha 256.
Asique trabaje en la posibilidad de encontrar y descartar esas variables. Así es como inicie y llegué a este proceso.
Estoy seguro de poder reducir aún más las variables logrando encontrar la posición de los caracteres en la contraseña, algo en lo que seguiré enfocado en conseguir. Pero lograr haber atravesado esa barrera y encontrar un método fiable me es más que gratificante. Con esta respuesta, daré por finalizado el tema que inicie hace tres años. Y compartiendo para quien quiera probarlo.
La reducciones que haces, no sirven para nada con un hash, porque no hay nada que reducir. La cadena hash generada es uniformemente aleatoria.Ya pasaron tres largos años desde que publique el primer tema, más otros dos años desde que comencé con este viaje. Finalmente en el día de ayer pude unificar mis estudios en un teorema poco prolijo pero espero dejarlo bien pronto. Sin embargo aquí lo presento.
Definición y teorema (principio)
**Definiciones.**
1. Sea $N$ un número (por ejemplo 64 dígitos). Sea $B$ la partición de $N$ en bloques de 4 dígitos y $r_i$ la reducción Tesla de cada bloque (suma de dígitos $\mod 9$ con $0\mapsto 9$). Sea la secuencia de reducciones $\mathbf{R}=(r_1,\dots,r_{16})$.
2. Sea $A=\{1,2,3,6,7,8\}$ el conjunto “deseado” (puede generalizarse).
3. Definimos la **mapa-compatibilidad** $M:\{1,\dots,9\}\to \mathcal P(A)$:
$$
M(1)=\{1\},\ M(2)=\{2\},\ M(3)=\{3\},\ M(4)=\{1,8\},\ M(5)=\{2,7\},\ M(6)=\{6\},\ M(7)=\{7\},\ M(8)=\{8\},\ M(9)=\{3,6\}.
$$
(esto formaliza la “empuje complementario” usado antes).
4\. Una **secuencia candidata** $\mathbf{S}=(s_1,\dots,s_L)$ con $s_j\in A$ es **consistente** con $\mathbf{R}$ si existe una alineación (subsecuencia inyectiva en orden) entre $\mathbf{S}$ y $\mathbf{R}$ que maximiza coincidencias según $M$ (o según otro criterio que definamos).
**Principio (Teorema de resonancia mínima — enunciado operativo).**
Dado $\mathbf{R}$, el *candidato armónico preferido* $\mathbf{S}^*$ de longitud $L$ es la solución del problema de optimización
$$
\mathbf{S}^* = \arg\min_{\mathbf{S}\in A^L} \Big( \alpha\cdot C_{\text{mismatch}}(\mathbf{S};\mathbf{R}) \;+\; \beta\cdot C_{\text{trans}}(\mathbf{S}) \;+\; \gamma\cdot C_{\text{phase}}(\mathbf{S}) \Big),
$$
donde:
* $C_{\text{mismatch}}$ mide cuántas posiciones en $\mathbf{S}$ **no** encajan con $\mathbf{R}$ según $M$ (o, equivalentemente, la negativa de la máxima coincidencia alineada).
* $C_{\text{trans}}$ mide la **tensión de transición** (rupturas entre parejas), por ejemplo la suma de costes en las transiciones $s_j\to s_{j+1}$ que penalizan saltos no circulares o inversiones de sentido.
* $C_{\text{phase}}$ penaliza secuencias que no sean repeticiones periódicas de una base corta (p. ej. penaliza si $\mathbf{S}$ no es exactamente dos repeticiones de una longitud-6).
* $\alpha,\beta,\gamma\ge0$ son pesos que eliges según prioridad (por ejemplo, priorizar resonancia → pequeña $\alpha$, grande $\beta$ y $\gamma$).
**Interpretación:** minimizar mismatch solamente tiende a devolver muchas secuencias. Añadiendo $C_{\text{trans}}$ y $C_{\text{phase}}$ impones el criterio de “baja entropía” / “ciclo armónico”. Ese es el teorema operativo: **la secuencia armónica preferida existe y es la minimizadora de ese coste**
Los que me siguieron tiene el contexto completo, por lo que resumo brevemente.
El objetivo inicial era develar la contraseña de un hash, (algo q no tengo que explicar que es imposible), pero no quita que pueda reducir la cantidad de combinaciones de fuerza bruta con Hashcat de trillones a unos pocos millones, con lo cual el proceso de encontrar la contraseña se vuelve efectiva en un corto y muy reducido lapso de tiempo, algo que entenderán quienes hayan intentado usar Hashcat en hashes sha 256.
Asique trabaje en la posibilidad de encontrar y descartar esas variables. Así es como inicie y llegué a este proceso.
Estoy seguro de poder reducir aún más las variables logrando encontrar la posición de los caracteres en la contraseña, algo en lo que seguiré enfocado en conseguir. Pero lograr haber atravesado esa barrera y encontrar un método fiable me es más que gratificante. Con esta respuesta, daré por finalizado el tema que inicie hace tres años. Y compartiendo para quien quiera probarlo.
M es aleatorio, no tienes ninguna prueba de que el mapeo tenga relación con el texto a partir del que se realizó el hash.
Lo de minimizar costes en base a resonancia es pseudociencia.
Y en general si lo que dices fuese cierto, habrías roto sha256. Hacer semejante afirmación sin pruebas ni resultados es como que yo haga un post diciendo que encontré un algoritmo para comprimir el universo e ir a la luna andando.
El propio concepto de reversar un hash es estúpido. No puedes reversar una simple suma de 2 números sin conocer los sumandos, menos vas a concer la info de entrada de una función hash que puede tomar cualquier archivo random de 16 millones de terabytes y devolverte 32 bytes.
Y te lo dice alguien que ha desarrollado funciones hashes con uso práctico.

