Pour ce faire, les chercheurs ont employé divers caméras et projecteurs produisant un environnement en 3 dimensions au sein duquel les interactions de l'utilisateur sont interprétées et transformées en actions. Ainsi, pour transférer un fichier d'un écran à l'autre il suffira de toucher celui-ci d'une main et de poser l'autre main sur la seconde machine. Dans la mesure où l'humain fait pleinement parti de cet environnement, ce dernier peut être repéré puis identifié. Il est alors possible de faire glisser un fichier puis de le porter dans le creux de sa main, voire le passer à une autre personne au sein de la pièce.
Dans cette vidéo de présentation en anglais, nous retrouvons aussi la projection d'un menu au sein duquel l'utilisateur peut naviguer d'un geste de la main. Globalement Microsoft LightSpace se trouve donc à mi-chemin entre la table Surface et la technologie de Kinect développée pour Xbox Live disposant de deux caméras capables de situer un joueur dans un espace.