Les informations sont ensuite transmises, via USB, à un ordinateur, puis traitées au moyen d'un logiciel chargé de supprimer les ombres et de corriger les distorsions. Les différences infimes observées au niveau de la position des objets servent ensuite à calculer leur distance, ainsi que leur couleur et leur forme, ces informations permettant au final de produire une image en trois dimensions.
Même si le principe n'est pas nouveau, le degré de miniaturisation auquel l'équipe est parvenue permet d'envisager de nouveaux types d'utilisation : dans les téléphones portables, dans un parking pour une vidéosurveillance discrète, etc. Il n'en reste pas moins que si les perspectives sont nombreuses, la faible résolution du dispositif (1,1 million de pixels), le rend encore impropre à des applications dans des secteurs plus exigeants, tels que le secteur militaire. A quand des appareils 3D haute définition ?