Hola, llevo tiempo utilizando plataformas, desde el 2008 con el SETI, el cual enviaban cachitos de Arrecibo, (Una antena gigante que recoge señales del espacio), y que mandaban a nuestro ordenadores para procesarlas y enviar el sonido procesado de nuevo, luego mas tarde, se aprocecho la potencia de las targetas graficas en realizar los calculos, ya que las targetas son mas capaces por terner mas nucleos de proceso y coprocesadores integrados que cualquier CPU del mercado.
Del Estandar C99 se liberó Open CL para las targetas ATI, y CUDA para Nvidia (no tan libre o flexible).
Hay muchas plataformas por internet como BOINC, Folding@home con una caterba de proyectos para la medicina y la ciencia en general, etc etc.
Actualmente no me explico como puede haber tal desajuste competencial entre ATI y Nvidia, me explico...
Normalmente, una tarjeta grafica no ha sido diseñada y por tanto pensada para hacer complejos calculos aritmeticologicos de grandes decimales, y portando de doble precision, o como dicen procesos de doble coma flotante, o como dice ATI FP64, y se les otorge mas potencia en simple precision para calculo vectorial, propio de renderizado.
Aqui viene el desajuste...
Es normal que la tarjeta mas potente de Nvidia, por ejemplo la RTX2080Ti tenga mas de 20Teraflops de simple precision , pero no alcance ni 0.5Teraflops en doble precision ni por asomo, y cueste mas de 1000€ en el mercado...? Y en cambio la ATI Raedon VII tenga 3.5Teraflops de doble precision, siendo de precision simple de igual potencia que la RTX2080TI y costando solo 700€???
Dicen que las potencias se compensan porque el lenguaje CUDA es mas eficiente, pero tambien dicen que a la larga si hay que hacer modificaciones Open CL es mas abierto.
Que pensais vosotros? Partiendo de la base, de que los drivers y el lenguaje de programacion implementados para una tarea a realizar cumplan las espectativas entre las dos targetas, es decir, no haya codigo redundante, y sea de eficiente lectura para ambas.
Actualmente utilizo Folding@home con la RTX 570 de la arquitectura Polaris, luego esta la FijiXT, la Vega 10 y finalmente la Vega 20 que salio recientemente
Me apasiona la arquitecura de las targetas graficas, la que mejor considero es la arquitectura de la Vega 20 (puesta en la Raedon VII, y pienso que a la larga para el 2020 haran la dual, como hicieron con la RX295) Dos nucleos.
https://linustechtips.com/main/applications/core/interface/imageproxy/imageproxy.php?img=http://www.legitreviews.com/wp-content/uploads/2015/06/fiji-block-diagram.jpg&key=3e14c817b5360a91aff478fdcc1da2066d32710181ef67e1e5aba69370796b83
https://wccftech.com/amd-radeon-instinct-mi60-first-7nm-vega-20-gpu-official/
Me descarge el libro de programacion en Open CL 2.0 y luego empeze a mirar los bloques de procesamiento de las ATI, por ver si pillaba algo. Es alucinante que aprovechen una GPU aparte de para los juegos.