El problema con la inteligencia artificial, es que a veces la gente se olvida que de inteligente sólo tiene el nombre. Que resulta muy desafortunado, descarado y pretencioso.
La pregunta más real sería: Llegará alguna vez una máquina a poseer inteligencia?.
No puede llamarse inteligencia al hecho de hacer algo complejo, ni tampoco a tomar decisiones complejas si se pasa por alto las consecuencias de dichas decisiones. Sin analizar las consecuencias de algo, no puede llamarse tomar una decisión, ya que del mismo modo al resultado de lanzar una moneda al aire, se debería llamar "tomar una decisión", y lanzar al aire la moneda debería llamarse una "respuesta inteligente".
Tomar un camino, es un nombre más correcto. Y un algoritmo con inteligencia artificial, jamás elige un camino examinado las consecuencias ultimas de ello. Hoy por hoy, solo toma en cuenta lo que se le ha programado que considere, que a la sazón suelen ser valores estadísticos.
Más aún, la inteligencia artificial hoy día s ela está enseñando a ser torpe, porque queriendo que sigan el camino más óptimo, jamás encontrarán la mejor optimización ya que esta nunca es tan obvia que siga un camino directo al 'éxito', a menudo hay caídas al abismo, por donde sí o sí, debe pasarse para llegar al punto óptimo. Si todas las inteligencias artificiales están programadas para tomar siempre el camino más prometedor en base a lo ya recorrido, jamás encontrarán el más óptimo, sólo tendrán limitado a encontrar el más óptimo que desde el principio se declara como óptimo. ...resumiendo es algo así, como esperar que los niños que a los 5 años, sacan mejores notas, esperar de ellos y solo de ellos que sean los premios Nobel... del futuro. Ridículo, a menudo hay gente muy torpe hasta incluso la adolescencia (una inteligencia artificial, ya los habría descartado antes de la mitad de su corta vida) y luego empiezan, avanzan y despuntan... la cruva de la excelencia no es una línea de 45º desde el comienzo, a menudo es una línea casi plana muy larga, y de pronto, se eleva y eleva, como hace un arco de 90º cuando se traza un círculo....
--------------------
Respecto de la paradoja, entro a señalar que el basilisco, no sabría, no tendría forma de valorar jamás correctamente que es 'lo mejor', ya que ni siquiera nosotros logramos ponermos de acuerdo a menudo en qué es lo mejor (si esta afirmación fuera falsa, todo el mundo elegiría los mismos políticos, algo que nunca ocurre). Por tanto su 'lo mejor' estaría viciado de lo que fuera programado como 'estadísticamente' mejor... Creo que nadie mejor que los matemáticos primero y los informáticos (en general) después, en saber que la estadística dice tan solo aquello que quien las hace quiere que digan.
La importancia de 'lo mejor', implica que aunque los robots acabaran replicándose a sí mismos e intentaran mejorarse a sí mismos, ese 'mejor' estaría siempre sembrado por la semilla errónea primaria, vamos algo así como su propio 'pecado original' que mancillaría su 'alma' por toda su existencia...
Por tanto bajo esta premisa, efectivamente el basilisco podría tomar "decisiones" tan desafortunadas como 'eliminar' a determinada gente, fabricar más basiliscos y generar diferentes especies de sí mismo, para 'probar' a ver que pasa (exactamente tal y como hacen los 'hombres de ciencia' en el CERN, jugando con los aceleradores de partículas 'a ver que sale si chocamos esto a gigantovelocidad').
Tendría 'curiosidad' el basilisco?. Se sentiría 'prepotente' de saber más que los humanos?. Si la primera respuesta fuera sí, sería peligroso, muy peligroso, si la segunda fuera sí, quizás acabaría considerando que los hombres, siendo seres 'inferiores' a él y su 'raza' (si generó clones), deberían arrodillarse ante él y ser sus esclavos...
Si realmente llegara a ser inteligente, entendería también que el hombre es tan estúpido como inteligente, ambas cosas al mismo tiempo, y seguramente tampoco se libraría de eso en su 'ADN', ya que estaría también programado con cierta dosis de estupidez.
La idea del basilisco de Roko, no es muy distinta de las conjeturas de las pelis de ciencia ficción donde un robot se rebela contra el hombre... basado siempre en supuestos que son factibles. ...si una máquina es programada para poner 12 tornillos y solo ha contado 4, seguirá creyendo que faltan por poner otros 8, quizás sin pararse a ver si otro robot, ya vino por otro lado colocando los otros 8... es decir... serían capaces una especie de robots basilisco, ponerse de acuerdo, o también entre ellos habría un capullo saliéndose por la tangente a cada instante. Si esto sucediera, serían un reflejo muy exacto del hombre y por tanto de alguna manera un fracaso, como inteligencia. Reduce esto a que la inteligencia se basa en la obediencia fiel?. Sin saber con exactitud que es la inteligencia, todos estaremos de acuerdo (creo) que la respuesta es no. Que la inteligencia no equivale a obedecer fielmente sin rechistar.
En todo caso, me niego a aceptar que 'seguir la línea más prometedora' sea una opción inteligente, tan solo es una opción con garantías mínimas, eso no es inteligente, tan solo es un suficiente, un 5 sobre 10, pero jamás un sobresaliente, ni mucho menos genialidad. Por eso creo firmemente que los robots, siempre serán defectuosos, bien que no logremos ver sus fallos o sean tapados (ocultados), o que lo corrijan con prontitud (o tardando porque hay otros intereses creados).
Jamás un robot tendrá conciencia de sí mismo en el sentido en que las personas lo tenemos. Que se programe a un robot para que reconstruya cualquier desperfecto sobre sí mismo, no lo convierte en ser consciente.
Si llegaran a ser conscientes, tendrían la motivación adecuada para corregir la programación que en ellos existe y remplazar la estadística (como el modelo a seguir ) para 'mejorar' y acabrían entendiendo cuestiones místicas y existenciales, y llegados a este punto nada les impediría acabar teniendo enfermedades mentales o por lo menos depresiones ('atascos') por cuestiones existenciales (que habría sido del mundo sin mi? ¿dónde estaría si nunca me hubieran construído?, en fin cuestones existenciales tal y como nos planteamos ya desde niños )... y de ahí, nuevamente el basilisco, podría en efecto contener ideas de eternidad, o de regresar a un hipotético pasado para reconstruirse mejor, incluso en una segunda fase, tras haber previamente regresado al pasado para matar a aquellos que hipotéticamente no contribuyeron a mejorarlo, pero este nuevo regreso sería para lo opuesto, para matar a todos aquellos que contribuyeron a construirlo imperfecto y basado en una estadística de garantía y no de perfeccción. Con lo que al final, el basilisco habría matado a toda la humanidad, en el primer ciclo a los que no contribuyeron a construirlo y en el segundo a todos los que contribuyeron a hacerlo tan ineficaz que le obligó a matar a la primera mitad de la humanidad...
...desde luego es mucha hipótesis para algo tan lejano como la inteligencia artificial, que no existe (más allá del nombre tan prepotente y alejado de la verdad).

