Se trata de la tecnología llamada “sensor de imágenes multi-apertura”, que ve las cosas de una manera diferente a como la ven los detectores de luz que utilizan las cámaras digitales convencionales. En vez de ver una gran representación de la imagen, este sensor rompe la escena en muchos cuadrados de 16×16 píxeles. Cada cuadradito tiene su propia lente de visión, lo que se llama “multi-apertura”.
Después de tomar la foto, el software de la cámara analiza las diferencias de localización de los distintos elementos que aparecen en los cuadrados. Las diferencias entre un cuadrado y otro permiten a la cámara deducir la distancia entre por ejemplo la camiseta y la pared que aparecen en la imagen.
El resultado es un “mapa de profundidades” que no sólo describe cada componente con píxeles rojo, azul y verde, sino también la distancia a la que está el píxel. Las tres dimensiones. Por el momento, el equipo de trabajo de Stanford no tiene ningún formato específico para almacenar la información, pero la relativa a la profundidad se podría adjuntar a un JPEG, como metadato.
Las aplicaciones de la tecnología en tres dimensiones a la fotografía son inmensas y supondría una revolución en cuanto a calidad y posibilidades. Adobe Systems está ya también trabajando en este campo.
vINQulos
CNet News
Un grupo de investigadores de la UOC ha diseñado LangBiTe, una herramienta que detecta posibles…
SaveFamily está especializada en smartwatches para la monitorización y comunicación con niños y mayores.
Zoho ofrece sus recomendaciones para encarar con éxito los riesgos de 2025.
La tecnología de inteligencia artificial abre una vía adicional para lanzar campañas más personalizadas y…
AVOS Tech también espera que el sector avance el año que viene hacia modelos más…
Qlik detalla las ventajas de las soluciones que están basadas en la inteligencia artificial predictiva…