elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado: Guía actualizada para evitar que un ransomware ataque tu empresa


+  Foro de elhacker.net
|-+  Foros Generales
| |-+  Foro Libre
| | |-+  Noticias (Moderadores: wolfbcn, El_Andaluz)
| | | |-+  Cómo tomaremos fotos en el futuro
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] Ir Abajo Respuesta Imprimir
Autor Tema: Cómo tomaremos fotos en el futuro  (Leído 2,059 veces)
Mister12


Desconectado Desconectado

Mensajes: 734



Ver Perfil
Cómo tomaremos fotos en el futuro
« en: 20 Agosto 2013, 21:01 pm »

Imagínese una cámara que le permita ver a través de una multitud para obtener una visión clara de alguien que de otro modo estaría en la sombra, un teléfono inteligente que tome fotos con la calidad de los lentes especializados o una fotografía que le permita cambiar el ángulo después que la haya tomado.

Las ideas pueden sonar descabelladas, pero podrían convertirse en algo común si la fotografía computacional hace honor a su promesa.

A diferencia de la fotografía digital normal -que usa un sensor para capturar una sola imagen bidimensional de una escena- la técnica registra un conjunto más rico de datos para construir sus imágenes.

En lugar de tratar de imitar la forma en la que funciona el ojo humano, le abre las puertas a un nuevo software con posibilidades mejoradas.

Pelican Imaging es una de las firmas líderes en este campo.

La empresa con sede en California está trabajando en una parte del equipo que contiene un conjunto de 16 objetivos, cada uno conectado a un sensor azul, rojo o verde, vinculados a un chip que fusiona los datos que producen.

"Al final uno obtiene una imagen estándar JPEG con un mapa de profundidad de la escena que permite identificar todos los bordes de todos los objetos, hasta de un cabello humano", le explicó el director ejecutivo Christopher Pickett a la BBC.

Una aplicación de la compañía utiliza esta información para que el usuario decida qué partes de su foto deben estar enfocadas aún después de que se toman. Esto incluye la capacidad inusual para elegir múltiples planos focales.

Por ejemplo, una fotógrafa en Nueva York podría optar por hacer los detalles de la cara de su marido y de la Estatua de la Libertad detrás de él, pero que todo lo demás (incluyendo los objetos de entre ellos) quede borroso o fuera de foco.

"Como no tenemos partes móviles también tenemos el primer disparo súper rápido, ya que no tenemos que preocuparnos de enfocar", añade Pickett. "Para lograr la foto perfecta, basta con que no dejar pasar el momento".
Sin que se rompa la imagen

Otra empresa, Lytro, ya ofrece funciones similares en su propia cámara de campo de luz independiente, pero Pelican dice que ofrecer la tecnología a través de un componente tan pequeño que cabe en un teléfono resultará fundamental para su éxito.

Nokia ya invirtió en Pelican, dando lugar a especulaciones de que será uno de los primeros en ofrecer la tecnología en cuanto esté disponible el próximo año.

Entre tanto, para tener una idea de lo que es la fotografía computacional están las imágenes de alto rango dinámico (HDR). Utilizan el poder de la computadora para combinar fotos tomadas con diferentes exposiciones y crear una sola imagen cuyas zonas de luz no son demasiado brillantes y las oscuras no son demasiado sombrías.

Sin embargo, si el sujeto principal no está estático puede haber problemas al tratar de unir las imágenes. A menudo, los usuarios se quejan de que los objetos en movimiento en el fondo se ven como si se estuvieran rompiendo a pedazos.

Una solución -actualmente promovida por el fabricante de chips Nvidia- es aumentar la capacidad de procesamiento para reducir el tiempo entre cada toma.

Pero buscar una técnica alternativa que sólo requiera una sola foto podría ser mejor.

"Imagine que tiene un sensor con píxeles de diferentes niveles de sensibilidad", explica el profesor Shree Nayar, director del Laboratorio de Visión por Computador de la Universidad de Columbia.

"Algunos podrían ser buenos para medir las cosas con poca luz y sus vecinos pueden medir bien cosas muy brillantes.

"Se tendría que aplicar un algoritmo para decodificar la imagen producida, pero una vez que se haga, se podría obtener una imagen con una enorme variedad en términos de brillo y color, mucho más de los que el ojo humano puede ver".

Aún si las técnicas de HDR actuales pasan de moda, la fotografía computacional ofrece otros usos para imágenes multitoma.

El año pasado, investigadores estadounidenses mostraron un proceso que consiste en mover una cámara compacta alrededor de un objeto o persona para tomar cientos de imágenes en el lapso de un minuto más o menos (ver video arriba).

Los datos resultantes se utilizan para crear lo que se llama un mapa del campo de luz en una computadora portátil.

El software usa esto para representar las vistas de la escena, permitiéndole al usuario elegir el ángulo exacto que quiere mucho después de que el evento finalice.

Otra técnica consiste en el análisis de dos fotos tomadas en rápida sucesión, una con flash y la otra sin él.

"Se puede utilizar para saber qué parte de la imagen son sombras", explica el doctor Martin Turner, experto en visión artificial en la Universidad de Manchester (ver abajo).

Microsoft solicitó una patente para esta idea diciendo que la información podría ser utilizada para hacer que las fotografías con flash se vean menos "chirriantes", mejorando automáticamente su equilibrio de color, eliminando las feas sombras proyectadas por la luz brillante y evitando los ojos rojos.

Al final, se tiene lo que parece ser una imagen muy detallada y sin ruido.
Ver a través

Algunos de los usos más exóticos de la fotografía computacional se han llevado a cabo en la Universidad de Stanford, donde los investigadores idearon una manera de "ver a través" del follaje denso y las multitudes.

Posicionando decenas de cámaras en diferentes ángulos y procesando los datos resultantes fueron capaces de crear un efecto de poca profundidad de foco que dejó al sujeto deseado bien definido pero los objetos que lo obstruyen tan borrosos que parecían transparentes (ver video abajo).

Su trabajo de investigación propone como un posible uso de esta tecnología la vigilancia de objetivos.

"Se gastaron US$2 millones para construir este gran conjunto de cámaras y se necesitó un equipo de estudiantes de postgrado dedicados a ejecutar el experimento", dijo el profesor Jack Tumblin, un experto en fotografía computacional en la Universidad de Northwestern, cerca de Chicago.

"Fue una máquina de laboratorio maravillosa, pero no es muy práctica".

El profesor Tumblin está tratando de desarrollar una versión económica del efecto usando una sola cámara.

Su teoría es que haciendo varios disparos desde diferentes posiciones, con la ubicación exacta de la lente registrada para cada uno, debería ser posible usar el software para eliminar un objeto no deseado de la fotografía final. Lo único es que el objeto en cuestión debe estar estático.

o tan complicado

Tal vez el mayor beneficio potencial de la fotografía computacional no son nuevos efectos rebuscados, si no más bien la capacidad de captar la mejor imagen en dos dimensiones que sea posible.

Un área de investigación es la creación de una imagen de alta calidad, que actualmente requiere tomarse con un objetivo pesado hecho de varios elementos de cristal pulido de precisión, pero con uno más barato, más pequeño y menos complejo.

La idea es dejar que pasen las imperfecciones en la imagen por el sensor y arreglarlas luego con el software.

Otra técnica consiste en hacer disparos en rápida sucesión, moviendo el sensor tan sólo medio píxel entre cada uno, para después combinar la información y crear una imagen con "súper resolución".

El manufacturero sueco de equipos fotográficos Hasselbad ya utiliza esto en una de sus cámaras de lujo para que sus sensores de 50 megapíxeles creen fotos de 200MP.

Y también está la idea de construir un dispositivo híbrido que pueda tomar al mismo tiempo tanto imágenes fijas como vídeo de alta velocidad para resolver el problema de la vibración de la cámara.

"El propósito es poder medir cómo la foto salió borrosa", explica Tumblin.

"Si la parte de la cámara de vídeo se centra en algún punto brillante en la distancia, puede ser usado para calcular la trayectoria. Eso permite que el desenfoque causado por el temblor de la mano sea reversible".
Imágenes tomadas con cámara híbrida

Una cámara híbrida puede recopilar datos de vídeo para ayudar a ajustar el desenfoque causado por el movimiento de la cámara en las imágenes fijas.


http://www.bbc.co.uk/mundo/noticias/2013/08/130808_tecnologia_fotografia_computacional_finde_jrg.shtml


En línea

From some where at the other side of the universe
Páginas: [1] Ir Arriba Respuesta Imprimir 

Ir a:  

Mensajes similares
Asunto Iniciado por Respuestas Vistas Último mensaje
Facebook reconoce caras en las fotos o urga las fotos? « 1 2 »
Foro Libre
EvilGoblin 10 10,612 Último mensaje 6 Agosto 2010, 21:49 pm
por Draklit
Fotos reales de marte? alguien tiene? [ no fotos falsas ]
Foro Libre
XXXXXX 6 6,356 Último mensaje 5 Agosto 2010, 01:23 am
por Castiblanco
¿Cómo será Internet en el futuro?
Noticias
wolfbcn 3 3,754 Último mensaje 18 Junio 2011, 23:40 pm
por chillinfart
Mark Shuttleworth habla sobre el futuro de Ubuntu como un único sistema para ...
Noticias
wolfbcn 0 1,378 Último mensaje 11 Diciembre 2012, 22:58 pm
por wolfbcn
[Futuro] ¿Veis posible un futuro de PC's ARM? « 1 2 »
Foro Libre
WaAYa HaCK 12 7,850 Último mensaje 5 Enero 2013, 19:39 pm
por Oblivi0n
WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines