C'était l'une des grandes nouveautés des iPhone 11 et 11 Pro, et pourtant elle ne sera rendue disponible que plus tard. Deep Fusion, la technologie de « computational photography » des derniers iPhone va néanmoins faire une apparition prochaine sur la Developers Beta d'iOS 13.
Autrement dit : son lancement officiel ne saurait trop tarder. Après tout, Apple avait annoncé pendant sa conférence que la fonctionnalité ne se ferait attendre qu'au cours de l'automne.
Améliorer drastiquement les photos en intérieur
Qu'est-ce que Deep Fusion au juste ? Derrière ce nom pompeux dont Apple a le secret se cache une recette bien huilée, mélangeant photographie traditionnelle et machine learning. L'objectif ? Rendre les clichés en moyenne lumière (en intérieur donc) bien plus nets et détaillés.Pour ce faire, les iPhone 11 et iPhone 11 Pro se livrent à une chorégraphie étonnante.
Premièrement, et avant même que vous ne déclenchiez l'appareil photo, l'iPhone aura déjà pris quatre clichés de la scène à un temps de pose très court. L'idée est de figer la scène pour que les algorithmes commencent à travailler.
L'obturateur enfin déclenché, l'iPhone prendra une pose longue de la scène afin d'en saisir tous les détails. Ces premiers clichés sont ensuite passés à la moulinette de Deep Fusion, qui va en quelques sortes évaluer le niveau de détails de chaque cliché pour les inclure au sein d'une photographie finale, qui sera de fait parfaitement exposée et très détaillée.
Apple précise néanmoins que Deep Fusion n'a rien à voir avec le Smart HDR qui avait été inauguré l'an passé avec les iPhone XS. Ici, les algorithmes ne se contentent pas d'empiler les prises de vue à des expositions différentes. Ils effectuent un vrai travail de récupération minutieux des détails.
Deep Fusion sera activé en permanence, et sollicité selon les situations
Contrairement au mode photo de nuit des iPhone 11 et 11 Pro — qui peut être désactivé manuellement —, Deep Fusion n'est pas un « mode » de prise de vue. Il s'agit d'une technologie travaillant en arrière-plan, ne laissant aucune marge de manœuvre à l'utilisateur.L'idée, explique Apple à The Verge, est de ne pas donner à l'utilisateur l'impression qu'il peut obtenir une meilleure photo en activant tel ou tel mode. Il doit simplement se contenter de prendre une photo, et l'iPhone s'occupera du reste.
L'utilisateur, lui, ne devrait pas constater d'immense différence en termes de temps de traitement pour que sa photo apparaisse dans la galerie. D'après Apple, l'intégralité du processus Deep Fusion prend moins d'une seconde.
La prochaine Developers Beta d'iOS 13 devrait être rendue disponible aujourd'hui ou demain aux personnes inscrites au programme.
Source : The Verge