Samsung tricherait-il avec son IA pour ajouter des détails que les modules photo et le zoom de ses derniers Galaxy S sont en réalité incapables de percevoir ? Si l'on en croit l'expérience menée par un utilisateur de Reddit, la réponse est oui.
« Les photos de la lune sont fausses », c'est ce qu'avance avec certitude l'utilisateur « u/ibreakphotos » dans un post partagé sur Reddit. Preuve à l'appui, l'intéressé tend effectivement à démontrer que les photos de la lune prises par exemple à l'aide du zoom x100 d'un Galaxy S23 Ultra sont uniquement possibles par une magouille logicielle permise par la technologie AI Super Resolution de Samsung.
Des arguments plutôt convaincants
Pour démontrer à quel point la technologie d'amélioration d'image mise au point par la firme est agressive et trompeuse, l'utilisateur a procédé à une expérience assez probante : il a téléchargé une image en haute résolution de la lune, l'a réduite à une définition de de 170 x 170 pixels, et y a ensuite appliqué un flou gaussien afin d'effacer les derniers détails de sa surface.
Cette « réplique » floue de la lune , en basse résolution, a alors été affichée en plein écran sur un moniteur, tandis qu'un cliché de ce résultat était pris, à l'autre bout de la pièce, avec le zoom d'un Galaxy S20. Le résultat ? À partir de cette source tronquée, volontairement très floue, l'algorithme de Samsung a créé des détails que les capteurs étaient matériellement dans l'impossibilité de saisir sur l'image d'origine… pour aboutir à une belle lune rousse relativement bien détaillée.
D'après u/ibreakphotos, Samsung « tire parti d'un modèle d'intelligence artificielle pour ajouter des cratères et d'autres détails à des endroits qui n'étaient que du flou ». En l'occurrence, ce traitement serait « spécifique à la lune » et ne tirerait pas partie de la capture de multiples images pour agglomérer un maximum de détails pouvant ensuite être recompilés en une seule photo finale. « Il ne s'agit pas du même type de traitement que lorsque vous zoomez sur quelque chose d'autre, lorsque les expositions multiples et les données différentes de chaque image comptent pour quelque chose », assure l'utilisateur de Reddit.
L'IA ferait tout le boulot… et pas les capteurs
Selon lui, l'IA de Samsung serait plutôt « entraînée à partir d'un ensemble d'images de la lune, afin de reconnaître la lune et d'y appliquer la texture de la lune ». En d'autres termes, sur certains éléments spécifiques et facilement identifiables comme la lune, l'algorithme de Samsung se contenterait de texturer ce que les modules photo de l'appareil utilisé n'ont pas été en mesure de capturer. « Il est très facile d'entraîner votre modèle sur d'autres images de la lune et d'appliquer cette texture lorsqu'un objet ressemblant à la lune est détecté », poursuit l'intéressé ajoutant que l'IA fait alors « le gros du travail, pas les optiques ».
Samsung, de son côté, se défend de tricher en entraînant son IA de la sorte. Faisant allusion à une « enquête » similaire partagée en 2021, la firme rappelle que la partie photo de ses derniers Galaxy S utilise jusqu'à 20 images photographiées en série pour aboutir, à l'aide de son IA, à un cliché final. Une technique que la plupart des marques concurrentes utilisent également, dont Apple, et qui parvient à satisfaire l'essentiel des utilisateurs. Reste que, sur smartphone, l'IA prend de plus en plus le pas sur l'optique à proprement parler. Un problème éventuel pour les photographes recherchant avant tout l'authenticité pour leurs clichés.
Source : AppleInsider