jueves, 21 de junio de 2012

Las Universidades de Arizona, California y Duke construyen una cámara de 50 Gigapíxeles


Entendemos por resolución de una imagen como el nivel de detalle que podemos observar en una fotografía, es decir, una medida de la calidad de la imagen y la capacidad que tendremos de profundizar en la misma o hacer zoom (aunque series como CSI y algunas películas hayan “inventado” los zooms infinitos). En el caso de la fotografía de alta resolución, como la imagen que vimos ayer (que había sido publicada la NASA), las fotografías tienen un gran nivel de detalle en las que cada píxel equivale a superficies cada vez más pequeñas. Las imágenes a alta resolución habitualmente proceden de la combinación de múltiples fotografías de alta calidad (y por tanto resolución)

que se superponen para montar la imagen final, una senda que las Universidades de Arizona, California-San Diego y Duke (con la financiación de DARPA) se han propuesto llevar al máximo nivel al fabricar una cámara de 50 Gigapíxeles de resolución.


Esta “súper-cámara” procede de la combinación de 98 cámaras de alta resolución que se han unido en un único dispositivo capaz de captar imágenes con un enorme nivel de detalle (que hasta ahora no se había conseguido alcanzar). Unir 98 cámaras, lógicamente, ha dado como resultado un prototipo de grandes dimensiones que los responsables del proyecto esperan poder “aligerar” en unos 5 años gracias a la propia evolución en el tamaño de los componentes utilizados y la paulatina eliminación de los sistemas de refrigeración de la cámara.
A pesar del tamaño, la cámara ofrece una resolución de 50 Gigapíxeles que, según los investigadores (que han publicado sus resultados en el número de hoy de la revista Nature), es una resolución equivalente a multiplicar por 5 la capacidad de una visión 20/20 según la Tabla de Snellen (una agudeza visual perfecta).
¿Y cómo funciona? Tal y como hemos comentado, esta cámara es el resultado de la combinación de 98 cámaras y, por tanto, un software se encarga de realizar la combinación de las imágenes captadas por cada una de las cámaras que forman el sistema. Cada cámara se encarga de captar una imagen dentro de un área específica dentro del campo de visión del sistema y, mediante un procesamiento en paralelo, se realiza la combinación de cada conjunto de píxeles captados.
El procesamiento hace que toda la información se condense en una única imagen de gran detalle. En muchos casos, la cámara puede captar imágenes de cosas que el propio fotógrafo no ha sido capaz de ver pero que podría detectar tras observar la imagen resultante
Teniendo en cuenta las capacidades de este dispositivo y su tamaño, sorprende conocer queapenas un 3% de los elementos que la conforman son de carácter óptico (lentes, por ejemplo) y, por tanto, en su gran mayoría está formada por dispositivos electrónicos.
Imágenes: Next Big Future y Physorg

0 comentarios:

Publicar un comentario