IBM publie aujourd'hui les caractéristiques d'une nouvelle architecture de stockage, le General Parallel File System-Shared Nothing Cluster (GPFS-SNC). Il a pour but de convertir les terabytes de données utilisés dans le calcul haute-performance en objets utilisables deux fois plus rapidement que dans les systèmes précédents.
Derrière cette innovation, on peut voir la stratégie d'IBM sur les données, dévoilée avec le rachat de Clarity Systems. L'architecture se base sur l'unité et l'indépendance de chaque nœud, avec une approche distribuée. Cette dernière permet d'éliminer les goulets d'étranglement dans les réseaux de stockage, selon IBM.
Le nouveau système de fichiers serait donc parfaitement adapté au cloud computing, selon Big Blue, qui le dédie en tous cas aux travaux nécessitant une bonne flexibilité pour les montées en charge. La vidéo en ligne, le data mining ou les analytics utilisés dans la finance seraient autant de débouchés.
Prenant en compte l'importance croissante des applications d'analytics sur les larges volumes de données, IBM veut répondre à une demande du marché assez simple à appréhender : le besoin d'avoir un retour pertinent sur les données stockées dans le cadre du cloud computing, par exemple, le seul à même de pallier le manque de datacenters privés, selon Big Blue. Avec la dispersion des données et leur réplication dans différents centres en cloud, IBM pense pouvoir apporter une solution plus pertinente, pour éviter aux entreprises de se retrouver démunies.