elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Sigue las noticias más importantes de seguridad informática en el Twitter! de elhacker.NET


+  Foro de elhacker.net
|-+  Foros Generales
| |-+  Foro Libre
| | |-+  Noticias (Moderadores: wolfbcn, El_Andaluz)
| | | |-+  Una 'startup' catalana crea un sistema inteligente que detecta fotos inapropiada
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] Ir Abajo Respuesta Imprimir
Autor Tema: Una 'startup' catalana crea un sistema inteligente que detecta fotos inapropiada  (Leído 1,028 veces)
wolfbcn
Moderador
***
Desconectado Desconectado

Mensajes: 53.662



Ver Perfil WWW
Una 'startup' catalana crea un sistema inteligente que detecta fotos inapropiada
« en: 11 Febrero 2016, 21:43 pm »

Una empresa catalana ha desarrollado un sistema inteligente para detectar y bloquear imágenes no autorizadas e inapropiadas en internet que permite filtrar fotos relacionadas con pornografía, niños, drogas, violencia o armas.

La tecnología, basada en redes neuronales, permite entrenar clasificadores que analizan imágenes con precisiones superiores al 90%, según ha informado la startup catalana Restb.ai, que centra su actividad en el deep learning (inteligencia artificial).

El sistema detecta en tiempo real la posible presencia de imágenes con contenidos inapropiados o no autorizados en portales o redes sociales de internet.
Se trata de un clasificador inteligente entrenado que "ve" e interpreta fotos según su contenido, ha explicado Ángel Esteban, CEO y cofundador de Restb.ai.

Según Esteban, Restb.ai dispone de una tecnología con la que monitoriza los contenidos generados por usuarios que suben fotos a espacios online (e-commerce de compra-venta, redes sociales, foros de charlas, portales de dating), de forma que se puede detectar instantáneamente y bloquear la publicación de imágenes inoportunas.

Según la empresa, este clasificador inteligente tiene capacidad para analizar e identificar unos 12 millones de imágenes al día que muestren, por ejemplo, contenido con pornografía o posturas eróticas, escenas violentas, elementos relacionados con drogas, armas, imágenes con niños o personas en bañador.

El sistema de la compañía permite que cada empresa cree y ajuste su propio clasificador a sus necesidades específicas, en este caso, contenido socialmente sensible, de manera que pueda categorizar y descartar al momento aquellas que no correspondan a su modelo de negocio, ha explicado Esteban.

"La tecnología basada en el deep learning y las redes neuronales permite describir lo que vemos en una imagen. Se analiza su contenido con una muy alta precisión y se efectúa una comprensión conceptual o un detalle de los objetos que hay en ella", según el responsable de la empresa.

La compañía ha asegurado que está negociando con varios de los principales portales globales de dating para aplicar su sistema en modalidad SaaS (Software as a Service) y con algunas marcas que buscan evitar la publicación en sus webs de fotos donde sus productos aparezcan en situaciones socialmente no aceptables.

http://www.20minutos.es/noticia/2669749/0/imagenes-inapropiadas-internet/startup-catalana/restb-ai/


En línea

La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.
Páginas: [1] Ir Arriba Respuesta Imprimir 

Ir a:  

WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines