La inteligencia artificial de Google ayudaría a los moderadores humanos a ser exponencialmente más efectivos a la hora de borrar contenido sexual de niños.
Imagina que tu trabajo consiste en eliminar de internet cualquier contenido que tenga que ver con abuso sexual infantil. Para ello, verificas por la red todo tipo de archivos que te encuentres, deseando no tener que toparte más con el horror que conlleva este tipo de material. Sin embargo, lo haces; y cuando lo eliminas, te das cuenta que se deben estar subiendo en ese momento millones de archivos similares. Pensando en eso, Google desarrolló un software que ayudara a agilizar el proceso de eliminación del material.
El Material de Abuso Sexual Infantil (CSAM) es mucho más común de lo que creemos. Seguramente se encuentra en algún lugar de la deep web, transitando entre las manos de distintos pedófilos. Ante esto, existen organizaciones dedicadas a eliminar este tipo de contenidos como Internet Watch Foundation. No obstante, el esfuerzo se hace realmente difícil por la gran cantidad de material que está allí afuera.
LEER MAS: https://www.fayerwayer.com/2018/09/google-abuso-sexual/