Le radio-télescope chinois FAST produit tellement de données qu’il faut les dégrader

Eric Bottlaender
Par Eric Bottlaender, Spécialiste espace.
Publié le 15 novembre 2019 à 14h00
télescope FAST
Le radiotélescope FAST


Le radio-télescope chinois FAST (Five-hundred-meter Aperture Spherical radio Telescope) vient de démarrer ses opérations. Mais pour scanner le ciel à la recherche de pulsars, il génère tellement de données qu'il faut les dégrader pour les analyser sur le long terme.

Dans un article scientifique récent, les Dr Yue et Li expliquent que le radiotélescope FAST a un souci de « Big Data ». Mais contrairement à d'autres et leurs milliers de points d'entrée, leurs données viennent toutes d'une seule source : le réseau de 19 détecteurs en bande L de leur instrument FLAN, qui est utilisé pour scanner le ciel à la recherche de nouveaux pulsars. Ces événements astronomiques émettent à intervalles réguliers, parfois aussi faibles que 0,1ms, et leur signaux sont régulièrement enfouis au sein d'un important bruit de mesure : il faut utiliser des procédés mathématiques (les étudiants universitaires reconnaîtront les transformées de Fourier) pour les isoler. Mais tout cela nécessite du temps de calcul, sur d'importants sets de données.

La loi de Moore ne pardonne pas

Le radio-télescope Parkes, utilisé pour scanner le ciel depuis août 1997, produit des données au rythme de 0.64 Mo/s, et ses jeux de données sur une année atteignent 4 To, ce qui est « trivial » à analyser pour un ordinateur moderne selon les chercheurs chinois. Leur télescope cependant, entré en opérations en septembre 2019, ne joue plus dans la même catégorie : il enregistre les signaux radio sur 38 canaux, un milliard de fois par seconde. Soit 38 Go/s de données qu'il faut ensuite transformer pour analyse ! Impossible de les stocker sans investir dans un impressionnant système dédié uniquement au transfert des données, et impossible à traiter sans un super-ordinateur de premier plan.

Pulsar set
Voici à quoi ressemble la recherche d'un pulsar (qui pour l'exemple ressort assez bien en jaune)


Pulsars, haut débit

Selon les auteurs, il y avait deux méthodes à portée de main : développer un système d'IA capable d'analyser les données à la recherche de pulsars « à la source », ou bien dégrader les données pour les enregistrer et se laisser une chance de les analyser plusieurs fois avec la communauté nationale et internationale. Ils ont choisi cette seconde option. D'abord en réduisant les capacités de la prise d'échantillons (aucun pulsar ne nécessite un milliard de données par seconde pour être détecté), ensuite en dégradant la résolution des données. En deux temps, leurs travaux ont d'abord réduit le jeu de données à « seulement » 200 Pétaoctets/an, avant de faire d'autres concessions sur les données et d'obtenir un volume honorable de 12 Pétaoctets/an.
La recherche sur les pulsars, qui devrait profiter de FAST pour faire un important bond en avant, garde donc une grosse réserve de performance liée... A son système de données.

Source : Arxiv.org.
Eric Bottlaender
Par Eric Bottlaender
Spécialiste espace

Je suis un "space writer" ! Ingénieur et spécialisé espace, j'écris et je partage ma passion de l'exploration spatiale depuis 2014 (articles, presse papier, CNES, bouquins). N'hésitez pas à me poser vos questions !

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
batmat

Ils ont tout copié le design sur la MAP de BF4 :smiley:

soixante

Il est temps de se préparer à la rencontre avec les trisolariens dans 400 ans…

carinae

Bizarre que ce genre de petit détail n’ai pas été vu lors de la phase projet… Devoir dégrader des datas afin de pouvoir les exploiter … c’est moyen

philippesnbrd

Ca me rappelle

(Radiotelescope d’Arecibo)

Koin-Koin

Il faut garder à l’esprit que ce genre de matériel n’est pas remplacé tout les 6 mois mais est prévu pour fonctionner des décennies et est donc surdimensionné à sa mise en fonction.
Il est donc préférable d’appliquer la méthode du « qui peut le plus, peut le moins » et ne pas profiter de la capacité de mesure à son plein potentiel pour le moment et pouvoir le faire plus tard quand 1-ce sera possible 2-ça servira à quelque chose.
D’autant qu’il est toujours possible d’utiliser à plein rendement sur des durées courtes pour observer un événement en particulier et de se « contenter » de moins lorsque ce n’est pas nécessaire.

ebottlaender

C’est exactement ça !

max_971

Il faudra s’y mettre aux ordis quantiques.

ebottlaender

Je ne vois pas trop en quoi j’ai interprété, tout ce qui est dans mon article est dans leur publi. J’aimerais bien que vous pointiez une de ces « interprétations » avec son contrepoint chez eux…

Leur commentaire final ouvre simplement le débat en expliquant que d’ici que les capacités de calcul (suivant la loi de Moore) puissent faire suffisamment d’opérations pour chercher des pulsars, les récepteurs auront évolué à leur tour pour devenir plus complexes et fournir encore plus de données, nécessitant de nouvelles méthodes.

tvb

et non raté sur bf4 c’est le « Radiotélescope d’Arecibo »

après pour faire un radiotélescope sur terre et de cette taille y a pas 36 design

papyscha

Merci de ce propos et du lien de publication.

Sur le fond, réduire les données est la définition même de ce que l’on nomme Intelligence Artificielle !!!

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles