grid-computing et gestion massive de données

34
Grid-Computing et gestion massive de données Yves Denneulin Laboratoire ID, Grenoble Jean-François Méhaut Laboratoire GRIMAAG, Pointe-à-Pitre et Schoelcher Les travaux du projet DataGrid

Upload: kara

Post on 05-Jan-2016

34 views

Category:

Documents


2 download

DESCRIPTION

Grid-Computing et gestion massive de données. Les travaux du projet DataGrid. Yves Denneulin Laboratoire ID, Grenoble Jean-François Méhaut Laboratoire GRIMAAG, Pointe-à-Pitre et Schoelcher. The Beginning of DataGRID. The DataGRID project evolved from the conjunction of - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Grid-Computing et gestion massive de données

Grid-Computing et gestion massive de données

Yves DenneulinLaboratoire ID, Grenoble

Jean-François MéhautLaboratoire GRIMAAG, Pointe-à-Pitre et Schoelcher

Les travaux du projet DataGrid

Page 2: Grid-Computing et gestion massive de données

The Beginning of DataGRID

The DataGRID project evolved from the conjunction of

the search for a practical solution to building the computing system for CERN’s next accelerator – the Large Hadron Collider (LHC)

and the appearance of Ian Foster and Carl Kesselman’s book – The GRID – Blueprint for a New Computing Infrastructure

Page 3: Grid-Computing et gestion massive de données

Enabling Worldwide Scientific

Collaboration

Page 4: Grid-Computing et gestion massive de données

Considérations techniques…

Applications à gros volumes de données

Enormes besoins de calcul

Utilisateurs répartis sur les différents continents

Page 5: Grid-Computing et gestion massive de données

The Large Hadron Collider Project

4 detectors CMSATLAS

LHCb

Capacité de stockage – Raw recording rate 0.1 – 1 GBytes/sec

Accumulating at 5-8 PetaBytes/year

10 PetaBytes of disk

Puissance de calcul – 200,000 of today’s fastest PCs

CERN

Page 6: Grid-Computing et gestion massive de données

Utilisateurs du CERN

Europe: 267 institutes, 4603 usersElsewhere: 208 institutes, 1632 users

Page 7: Grid-Computing et gestion massive de données

Observation de la terre

Satellite data

ENVISAT for Ozone Monitoring

Etc.

Page 8: Grid-Computing et gestion massive de données

Biology Applications

Grid-aware bio-informatic platform

Large Scale Comparative Sequence Analysis

Medical imaging

Etc.

Page 9: Grid-Computing et gestion massive de données

DataGrid: objectifs

Partager de grandes quantités de données en utilisant les réseaux actuellement disponibles

Construire une architecture logicielle utilisable

Tester sur des applications réelles Physique des hautes énergies Biol-sciences Observation et étude de la terre

Page 10: Grid-Computing et gestion massive de données

The Data Grid Project - Summary European dimension

EC funding 3 years, ~10M Euro Closely coupled to several national initiatives

Multi-science Technology leverage –

Globus, Condor, HEP farming Rapid deployment of working prototypes - production

quality Collaboration with other European and US projects

Status – Started 1 January 2001

Open – Open-source and communication Global GRID Forum Industry and Research Forum

Page 11: Grid-Computing et gestion massive de données

DataGRID Partners (1)

Managing partnersUK PPARC Italy INFNFrance CNRS Holland NIKHEFItaly ESA/ESRINCERN proj.mgt. - Fabrizio Gagliardi

Industry IBM (UK), Communications & Systems (F), Datamat (I)

Page 12: Grid-Computing et gestion massive de données

DataGRID Partners (2)

Associate partners

Finland- Helsinki Institute of Physics & CSC,

Swedish Natural Science Research Council (Parallelldatorcentrum–KTH, Karolinska Institute),

Istituto Trentino di Cultura,

Zuse Institut Berlin,

University of Heidelberg,CEA/DAPNIA (F),IFAE Barcelona,CNR (I),CESNET (CZ),KNMI (NL),SARA (NL),SZTAKI (HU)

Page 13: Grid-Computing et gestion massive de données

Projet Datagrid : les Work Packages

Page 14: Grid-Computing et gestion massive de données

DataGrid Work Packages

WP8-10Applications

Grid Services GRAM

Grid FabricCondor PBS Internet Linux

Application Toolkits MPICH-G2Condor-G

GridFTPMDS

SUN

WP1& 8-10 sw

WP2,3,5,(7)

WP4,7

Page 15: Grid-Computing et gestion massive de données

Architecture Globus

Applications

Core ServicesMetacomputing

Directory Service

GRAMGlobus

Security Interface

Heartbeat Monitor

Nexus

Gloperf

Local Services

LSF

Condor MPI

NQEEasy

TCP

SolarisIrixAIX

UDP

High-level Services and Tools

DUROC globusrunMPI Nimrod/GMPI-IO CC++

GlobusView Testbed Status

GASS

Page 16: Grid-Computing et gestion massive de données

Construction du testbed DataGrid

Basé sur Globus Utilise et étend les services Globus

standards Processus d’intégration, validation et

déploiement Architectures en couches à 2 niveaux

Niveau Fabric : composants pour le middleware seulement, non accessibles par les applications

Niveau « Grid » : composants du middlewareGrid Services GRAM

Grid FabricCondor PBS Internet Linux

GridFTPMDS

SUN

Page 17: Grid-Computing et gestion massive de données

Installation du testbed

Installation automatisée et gestion des nœuds Serveur de configuration et d’installation (local à

chaque site)

Séquence d’installation Boot + DHCP Montage (par NFS) d’un filesystem root distant Installation à partir de ce FS

Page 18: Grid-Computing et gestion massive de données

Testbed Sites

Dubna

Moscow

RAL

Lund

Lisboa

Santander

Madrid

Valencia

Barcelona

Paris

Berlin

LyonGrenoble

Marseille

BrnoPrague

Torino

Milano

BO-CNAFPD-LNL

Pisa

Roma

Catania

ESRIN

CERN

HEP sites

ESA sites

IPSL

Estec KNMI

(>40)

[email protected] - [email protected]

Page 19: Grid-Computing et gestion massive de données

Groupe middleware

5 work packages

Gestion de la charge de travail Gestion des données Monitoring de la grille Stockage massif des données Gestion de la structure

Page 20: Grid-Computing et gestion massive de données

Gestion de la charge de travail

Contexte de la grille Charge de travail non prévisible Chaotique

Un grand nombre d’utilisateurs indépendants

Thème d’étude Ordonnancement distribué Allocation de ressources

Eléments de solution Disponibilité des données, charge CPU, réseaux Co-allocation

Page 21: Grid-Computing et gestion massive de données

Solutions mises en oeuvre

Allocation des ressources (CERN) Gestionnaires de batchs Scripts de jobs Système d’informations

Gestion de configuration (CERN) Stocke toutes les informations de configuration

(au sens « système» du terme) Tout est exprimé en XML Configuration automatique des machines

Page 22: Grid-Computing et gestion massive de données

Ordonnanceur de grilles

Responsable des choix de placement et d’exploitation des ressources (INFN, Italie)

Deux éléments clés : Resource broker : choisit un élément (nœud de

stockage, de calcul, réseau pour communiquer, etc.) répondant à une requête

Job submission service : exécute (soumission, annulation, surveillance) les décisions prises par le resource broker

Page 23: Grid-Computing et gestion massive de données

Ordonnanceur de grilles (2)

Communication par le biais de : Job Description Language (JDL) décrit les jobs

Même langage pour la description des besoins (clients) et des ressources (serveur)

Langage ClassAds (issue du projet Condor)

Services d’enregistrement (logging) et bookkeeping (persistance) des jobs et de leur status

Resource Broker Développement interne à DataGrid Fonctionne en distribué

Un resource broker par siteCoopération entre les brokers

Page 24: Grid-Computing et gestion massive de données

Gestion des données

Granularité Unité de partage: fichiers Bientôt : collection de fichiers

Dispositif de réplication Améliorer l’efficacité des accès Transparent pour les utilisateurs

Types de fichiers Physiques Logiques (un ou plusieurs fichiers physiques,…)

Métadonnées Statistiques d’accès, monitoring,…

Page 25: Grid-Computing et gestion massive de données

Réplication des fichiers

Deux types de fichiers Fichier maître (original) créé par le propriétaire Fichier réplicat (copies) créés par le middleware

Gestionnaire de réplicats et catalogue de réplicats

Service de consistence des réplicats Répercuter les mises-à-jour sur les réplicats

Mécanisme de synchronisation Destruction du maître et des réplicats

Page 26: Grid-Computing et gestion massive de données

Système de Gestion des Replicats

Décide de la politique de replication des ensembles de fichiers

Utilise : Catalogue des replicats Transfert de fichiers des GSE pour performances

Inclut un module d’optimisation pour minimiser les mouvements de données Estimation des coûts de duplication, bande

passante

Prévue pour la prochaine version, l’outil actuellement utilisée pour cela est manuel : GDMP

Page 27: Grid-Computing et gestion massive de données

Catalogue des réplicats (UK)

Fonctionnement Fait la correspondance entre un nom logique et

un (ou un ensemble) de fichiers physiques Gère également des métadonnées (taille, heure

de modification, propriétaire, …) S’appuie sur un annuaire LDAP

SQL Composant d’interface avec des SGDR

Page 28: Grid-Computing et gestion massive de données

Système de gestion du stockage

Gestion du stockage (CERN, RAL/UK) Interface entre les services grid et les systèmes

de stockage sous-jacent Utilisation des outils globus

GSI pour authentification Globus-url-copy GridFTP

Monitoring En cours de développement

Page 29: Grid-Computing et gestion massive de données

GridFTP

Universal high-performance file transfer Extends the FTP protocol with:

Single sign-on (GSI, GSSAPI, RFC2228) Parallel streams for speed-up Striped access (ftp from multiple sites to be

faster)

Clients: gsincftp, globus-url-copy.

Page 30: Grid-Computing et gestion massive de données

Service de stockage (CERN)

Fonctionnement Gère les GSE (Grid Storage Element) : tout

composant permettant de stocker des données Produit : GDMP (Grid Data Mirroring Package)

Développement spécifique à Datagrid Mirroring automatique entre GSE Existence d’un catalogue local pouvant être recopié Commandes :

- Put_local, get_local : mise de fichiers dans la base locale- Publish_catalog, get_catalog : exportation, importation

de base locale- Replicate_get, replicate_put : push/pull de fichiers

vers/de un hôte distant

Page 31: Grid-Computing et gestion massive de données

Service commun d’interfaçage

Fonctionnement: Permet de communiquer avec n’importe quel

composant de niveau structure Exemples :

Soumission de jobs

Utilise les composants globus : Gatekeeper Job manager

Page 32: Grid-Computing et gestion massive de données

Autres services

Authentification et accounting (CERN) Utilisation complète du GSI Quelques mécanismes d’automatisation ont été

ajoutésOutil de configuration LDAPRegénération périodique des listes d’autorisationOutils visuels de manipulation d’arborescence

Index des services Découverte automatique des services fournis

par la grille Pas encore développé, fera partie du prochain

testbed

Page 33: Grid-Computing et gestion massive de données

Autres services (2)

Information et monitoring Gère toute la connaissance de l’architecture

distribuée Gestion répartie 3 implantations coexistent

MDS de Globus Ftree R-GMA implantation du GMA (Grid Monitoring

Architecture) proposé par le Global Grid Forum

Page 34: Grid-Computing et gestion massive de données

Conclusion

Expérience en vraie grandeur d’une infrastructure pour le stockage distribué de grandes quantités de données

Ça marche! Plateforme de test avec plus de 30 sites Tout n’est pas fini mais des expériences

tournent

RPM d’installation/intégration disponible Supporte RH 6.2 seulement Validation par le CERN