Se trata de la tecnología llamada “sensor de imágenes multi-apertura”, que ve las cosas de una manera diferente a como la ven los detectores de luz que utilizan las cámaras digitales convencionales. En vez de ver una gran representación de la imagen, este sensor rompe la escena en muchos cuadrados de 16×16 píxeles. Cada cuadradito tiene su propia lente de visión, lo que se llama “multi-apertura”.
Después de tomar la foto, el software de la cámara analiza las diferencias de localización de los distintos elementos que aparecen en los cuadrados. Las diferencias entre un cuadrado y otro permiten a la cámara deducir la distancia entre por ejemplo la camiseta y la pared que aparecen en la imagen.
El resultado es un “mapa de profundidades” que no sólo describe cada componente con píxeles rojo, azul y verde, sino también la distancia a la que está el píxel. Las tres dimensiones. Por el momento, el equipo de trabajo de Stanford no tiene ningún formato específico para almacenar la información, pero la relativa a la profundidad se podría adjuntar a un JPEG, como metadato.
Las aplicaciones de la tecnología en tres dimensiones a la fotografía son inmensas y supondría una revolución en cuanto a calidad y posibilidades. Adobe Systems está ya también trabajando en este campo.
vINQulos
CNet News
Sin las medidas de protección necesarias, un almacén puede convertirse en el eslabón más débil…
Adyen publica los resultados de su estudio "Estrategias para reducir el coste total de pagos",…
Del porcentaje global del 21 % se baja a un 18 % en el caso…
Entrevistamos a John Shier, CTO Field de Sophos, que hace repaso de las principales amenazas…
Desde fibratel comparten una serie de pautas para orientar la construcción de centros de datos…
Dell Technologies compara estos ámbitos y habla de "purificar la materia original", "combinar elementos", una…