Évaluation et optimisation de performance énergétique des ...georges.da-costa/hdr_slides.pdf ·...
Post on 11-Jun-2019
218 Views
Preview:
TRANSCRIPT
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Évaluation et optimisation de performanceénergétique des centres de calcul
Georges Da Costa
Habilitation à diriger les recherches
12 novembre 2015
Action IC0804www.cost804.org
1/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Impact des centres de calculs
Centre de calcul récent 40000 serveurs, 500000 services (machines virtuelles).Google, Facebook > 1million serveursLes centres de calculs consomment beaucoup
2000 : 70 TWh2007 : 330 TWh, 2% productionmondiale de CO2
2011 : 6eme pays consommateurd'électricité au monde2020 : 1000 TWh
En augmentation2014 : 8.5% des centres de calculsconsidérés comme su�sants audelà de 2015
2/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Des centres de calcul soutenables
Actions à plusieurs niveaux orthogonauxMatériel: changer les serveurs ou l'infrastructure derefroidissementApplicatif: réécrire les applications en changeant deparadigme∗ou de bibliothèqueIntergiciel: gère l'état des serveurs et des services/applications
Intergiciel: coût minimal, impact maximalOpenStack : 30% de part de marché en 2014Solutions OpenSource : 43% (+72% en 2 ans)
∗ Georges et al. Exascale machines require new programming paradigms and runtimes, SFI journal, 2015
3/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Principes de fonctionnement d'unintergiciel
Deux buts :Gérer (besoins, erreurs, fautes,surchau�es)Optimiser (énergie, performance)
Leviers/E�ecteursAllumage, extinction, DVFSMigration (x86/ARM)∗, réduction deressources, suspension
MéthodesSouvent dans la réalité : Humain ourèglesEn recherche : Boucle autonomique
Boucle MAPE-K c©IBM
∗ Violaine et al., Big, Medium, Little : Reaching Energy Proportionality with Heterogeneous Computing Scheduler, Parallel Processing
Letters, journal, 2015.
4/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan : Comment gérer e�cacement uncentre de calcul ?
E�cacement ?Il faut pouvoir comparer (modèles & métriques)
Gérer veut dire déciderOutils de mesure
Outils d'évaluation : expérimentation, simulationApproches exactes et heuristiques pour la décision
L'évolution des centres de calcul
5/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan
1 Modèles et Métriques
2 Mesures
3 Outils d'évaluation
4 Décision
5 Évolution
6/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modéliser un système
Pour gérer un système il faut :
Connaître toutes les actions possibles
Savoir quelle est la(/les) plus adaptée
Ce qui se traduit par :
Modéliser l'impact et la modalité (temps, énergie, ...) de ces actions
Être capable de comparer deux scenarii
7/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modélisation multi-échelles du monde réel
Plusieurs modèles décrivant la puissance consommée par un serveur :
Classique : a�ne (erreur E∼10-15%)
Plus �n : Voltage/fréquence processeur (E∼5-9%)
Encore plus �n: Température processeur (E∼4-7%)
Ne pas oublier les biais : alimentation électrique
E∼2-3%, refroidissement, ...
Méthodes par apprentissage (réseaux de neurones,E∼2%) ∗
Power = Pmin + Load × (Pmax − Pmin)
8/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modélisation multi-échelles du monde réel
Plusieurs modèles décrivant la puissance consommée par un serveur :
Classique : a�ne (erreur E∼10-15%)
Plus �n : Voltage/fréquence processeur (E∼5-9%)
Encore plus �n: Température processeur (E∼4-7%)
Ne pas oublier les biais : alimentation électrique
E∼2-3%, refroidissement, ...
Méthodes par apprentissage (réseaux de neurones,E∼2%) ∗
Power = Pmin + Load × αVoltage2Frequency
8/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modélisation multi-échelles du monde réel
Plusieurs modèles décrivant la puissance consommée par un serveur :
Classique : a�ne (erreur E∼10-15%)
Plus �n : Voltage/fréquence processeur (E∼5-9%)
Encore plus �n: Température processeur (E∼4-7%)
Ne pas oublier les biais : alimentation électrique
E∼2-3%, refroidissement, ...
Méthodes par apprentissage (réseaux de neurones,E∼2%) ∗
Power = Pmin+Load×αVoltage2Frequency+λTemperature
8/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modélisation multi-échelles du monde réel
Plusieurs modèles décrivant la puissance consommée par un serveur :
Classique : a�ne (erreur E∼10-15%)
Plus �n : Voltage/fréquence processeur (E∼5-9%)
Encore plus �n: Température processeur (E∼4-7%)
Ne pas oublier les biais : alimentation électrique
E∼2-3%, refroidissement, ...
Méthodes par apprentissage (réseaux de neurones,E∼2%) ∗
PowerDC = ω0 + ω1PowerAC + ω2Power3AC
8/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modélisation multi-échelles du monde réel
Plusieurs modèles décrivant la puissance consommée par un serveur :
Classique : a�ne (erreur E∼10-15%)
Plus �n : Voltage/fréquence processeur (E∼5-9%)
Encore plus �n: Température processeur (E∼4-7%)
Ne pas oublier les biais : alimentation électrique
E∼2-3%, refroidissement, ...
Méthodes par apprentissage (réseaux de neurones,E∼2%) ∗
∗ Leandro et al., Towards a generic power estimator, CSRD journal, 2015
...
inpu
t lay
er
...
outp
ut la
yer
hidden layers
8/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modéliser un centre de calcul
Un grand nombre de types d'élémentsApplications
ServeursInfrastructure
Et leurs interactionsThermiques (D-Matrix)∗
Entre applications
9/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modéliser un centre de calcul
Un grand nombre de types d'élémentsApplicationsServeurs
Infrastructure
Et leurs interactionsThermiques (D-Matrix)∗
Entre applications
9/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modéliser un centre de calcul
Un grand nombre de types d'élémentsApplicationsServeursInfrastructure
Et leurs interactionsThermiques (D-Matrix)∗
Entre applications
9/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Modéliser un centre de calcul
Un grand nombre de types d'élémentsApplicationsServeursInfrastructure
Et leurs interactionsThermiques (D-Matrix)∗
Entre applications
∗ Hong Yang et al.,Energy-e�cient and thermal-aware resource management for heterogeneous datacenters, SUSCOM journal, 2014.
9/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Interactions simples d'applications
Deux types d'applications mono-thread
Application 1 : Cpu-IntensiveLimitée par le processeurApplication 2 : Mem-IntensiveLimitée par la mémoire
Exécution sur un quadri-c÷urApplications 1 : IndépendantesApplications 2 : Impact croisé fort
0
0.5
1
1.5
2
2.5
3
Expérience 1
Expérience 2
Expérience 3
Expérience 4
Expérience 5
Rale
nti
ssem
ent
Cpu-IntensiveMem-Intensive
10/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Métriques
Valeurs directes :Charge processeur et mémoire, puissance, Température, ...Objectif : Ça marche bien ? Comparer deux centres, intergiciels, logiciels,...
40000 serveurs, 500000 services → Besoin de métriques simplesConsommation et performance
Di�cile à standardiser, surtout la performanceDépend du service, de l'implémentation, ...
Métrique classique : PUE
Georges et al. Data Centres Sustainability Cluster Activities Task 3. Rapport de recherche 3. European Commission, 2014
11/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
PUE : Power Usage E�ectiveness
Ratio électricité totale/électricité IT
En moyenne 1.7 en 2014
Standardisation initiée par GreenGridOù s'arrête la partie IT
Alimentation ? Ventilateur sur lacarte mère ? Processeur ?
Ne sert que dans un cadre très précis
12/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
PUE : Power Usage E�ectiveness
Ratio électricité totale/électricité IT
En moyenne 1.7 en 2014
Standardisation initiée par GreenGridOù s'arrête la partie IT
Alimentation ? Ventilateur sur lacarte mère ? Processeur ?
Ne sert que dans un cadre très précis
Surcoût constant (100), partieIT 100 à 200 suivant la chargePour un même service rendudeux logiciels
1 Charge moyenne 75%PUE = 275/175 = 1.57
2 Charge moyenne 100%PUE = 300/200 = 1.5
12/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Problème du multi-objectif
Impossible à dé�nir dans l'absolu,besoin d'un contexte, d'un but
Formaliser les métriques simples∗ :Dynamisme, Énergie, Performance,RésiliencePlusieurs méthodes classiques
Optimisation sous contrainte
Pondération d'objectifPondération �oue† (contrainte parrelâchement de l'optimal)
∗ Tom et al., Quality of Service Modeling for Green Scheduling in
Clouds, SUSCOM journal, 2014.
13/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Problème du multi-objectif
Impossible à dé�nir dans l'absolu,besoin d'un contexte, d'un but
Formaliser les métriques simples∗ :Dynamisme, Énergie, Performance,RésiliencePlusieurs méthodes classiques
Optimisation sous contraintePondération d'objectif
Pondération �oue† (contrainte parrelâchement de l'optimal)
∗ Tom et al., Quality of Service Modeling for Green Scheduling in
Clouds, SUSCOM journal, 2014.
13/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Problème du multi-objectif
Impossible à dé�nir dans l'absolu,besoin d'un contexte, d'un but
Formaliser les métriques simples∗ :Dynamisme, Énergie, Performance,RésiliencePlusieurs méthodes classiques
Optimisation sous contraintePondération d'objectifPondération �oue† (contrainte parrelâchement de l'optimal)
† Hong Yang et al. Energy-e�cient and thermal-aware resource
management for heterogeneous datacenters, SUSCOM journal,
2014.
13/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Suite de tests
Deux grande catégoriesSuites dédiées (services Web, base de données, HPC,...)Suites génériques
Scienti�que, Gestionnaire d'infrastructure : Applications boîtes noires
Le système doit être le meilleur dans tous les casSuite de tests avec couverture maximale
Mêmes ressources/Puissances di�érentesRessources di�érentes/Puissances identiques
Georges et al., Energy- and Heat-aware HPC Benchmarks, EuroEcoDc workshop, 2013
14/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Conclusion
Étude d'un système
Pour quel usage ?Trois notions sont liées pour utiliser la réponse :
Équilibre du front de précision de la modélisation∗
Objectifs utilisés pour choisir la méthode de comparaisonScenarii pour réaliser la comparaison
∗ Georges et al., Modèles �uides pour l'économie d'énergie dans les grilles par migration : une première approche, RenPar conférence,
2009
15/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan
1 Modèles et Métriques
2 Mesures
3 Outils d'évaluation
4 Décision
5 Évolution
16/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Infrastructure de mesure
Base pour pour prendre la décisionBase pour évaluer les métriques
Infrastructure classique (nagios, ganglia, ...)Problème du passage à l'échelle
Des valeurs inutilisées ou agrégées tardivement
Des mesures (processeur, mémoire), pas de la connaissanceBesoin de mesures haut niveauUne (phase d') applicationLa puissance électrique consommée par une application
17/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Quelle (phase d') application s'exécute
Une phase : comportement localementrégulier
Équivaut à consommation deressource constanteMesures systèmes constantes
Détection puis identi�cationSignature d'une phasePhase équivalente ∼ impactéquivalent
Landry et al., Exploiting performance counters to predict and
improve energy performance of HPC systems, FGCS journal, 2014.
Temps (s)
Tem
ps
(s)
Dis
tance
norm
alis
ée
{{
{{
4 phasesidentiques
Phaseen courssemblable
{
Matrice de similitude des mesures systèmes (WRF :
Weather Research and Forecasting)
18/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Détection externe d'application
Récupérer les valeurs systèmes estintrusif
Diminuer le nombre de valeurs
Récupérer des valeurs externes(puissance, réseau)
S'autoriser les outils statistiques
Étudier le comportement au cours dutemps
Georges et al., Characterizing applications from power
consumption : A case study for HPC benchmarks, ICT-GLOW
Symposium, 2011
19/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Détection externe d'application
Récupérer les valeurs systèmes estintrusif
Diminuer le nombre de valeurs
Récupérer des valeurs externes(puissance, réseau)
S'autoriser les outils statistiques
Étudier le comportement au cours dutemps
Georges et al., Characterizing applications from power
consumption : A case study for HPC benchmarks, ICT-GLOW
Symposium, 2011
0
2e+07
4e+07
6e+07
8e+07
1e+08
1.2e+08
0 10 20 30 40 50 60 70 80
Num
ber
of byte
s s
ent per
second
time (s)
benchmark CG (NPB)
19/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Détection externe d'application
Récupérer les valeurs systèmes estintrusif
Diminuer le nombre de valeurs
Récupérer des valeurs externes(puissance, réseau)
S'autoriser les outils statistiques
Étudier le comportement au cours dutemps
Georges et al., Characterizing applications from power
consumption : A case study for HPC benchmarks, ICT-GLOW
Symposium, 2011
0
2e+07
4e+07
6e+07
8e+07
1e+08
1.2e+08
0 50 100 150 200 250 300 350
Num
ber
of byte
s s
ent per
second
time (s)
benchmark SP (NPB)
19/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Détection externe d'application
Récupérer les valeurs systèmes estintrusif
Diminuer le nombre de valeurs
Récupérer des valeurs externes(puissance, réseau)
S'autoriser les outils statistiques
Étudier le comportement au cours dutemps
Georges et al., Characterizing applications from power
consumption : A case study for HPC benchmarks, ICT-GLOW
Symposium, 2011
19/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Puissance des serveurs et applications
Wattmètres pas toujours disponibles (niveau application)Modèle liant mesures systèmes à la puissanceMéthode par apprentissage
Bonne couverture de la base d'apprentissage et faible impact de la mesure
Charge synthétique générique, 220 valeurs mesurées (4% augmentation puissance), 8 gardées
Leandro Modeling the power consumption of computing systems and applications through Machine Learning techniques, 2015
20/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Puissance des serveurs et applications
Wattmètres pas toujours disponibles (niveau application)Modèle liant mesures systèmes à la puissanceMéthode par apprentissage
Bonne couverture de la base d'apprentissage et faible impact de la mesure
20% des valeurs prises par des jeux de tests HPC ne sont pas atteintes
Leandro Modeling the power consumption of computing systems and applications through Machine Learning techniques, 2015
20/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Puissance des serveurs et applications
Wattmètres pas toujours disponibles (niveau application)Modèle liant mesures systèmes à la puissanceMéthode par apprentissage
Bonne couverture de la base d'apprentissage et faible impact de la mesure
Erreur de deux modèles : Aggregated (régression linéaire sur somme des sous-modèles) et ANN (réseau de neurones)
Leandro Modeling the power consumption of computing systems and applications through Machine Learning techniques, 2015
20/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Conclusion
Approches actuelles nécessitent une vue globalePassage à l'échelleProblème de latenceBeaucoup de décisions sont locales (DVFS, échange de charge,...)
Contributions au niveau des capteursProblèmes ouverts
Granularité de la mesure adaptative et multi-échelleIndépendance temporelle et spatialeGénération suite synthétique avec couverture maximale
21/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan
1 Modèles et Métriques
2 Mesures
3 Outils d'évaluation
4 Décision
5 Évolution
22/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Outils d'évaluation: expérimentation,simulation
Pour améliorer il faut comparerTrois grandes méthodes
Modèles mathématiquesSimulationExpérimentation
23/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Programmation linéaire
Expliciter toutes les contraintes par deséquations linéaires
Exprimer l'objectif sous forme d'unefonction à minimiser
Formalise les leviers et leur impact
Approximation du monde réel(phénomènes quadratiques)
Résolution exacte possible pour lespetits cas
Exemple : Un service est sur unserveur unique
Soit ejh la présence du service jsur le serveur h
ejh = 1 ssi le service j est sur leserveur h
∀j , h ejh ∈ {0, 1},∀j
∑h ejh = 1
Damien et al., Energy-Aware Service Allocation, FGCS journal, 2011
24/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Programmation linéaire
Expliciter toutes les contraintes par deséquations linéaires
Exprimer l'objectif sous forme d'unefonction à minimiser
Formalise les leviers et leur impact
Approximation du monde réel(phénomènes quadratiques)
Résolution exacte possible pour lespetits cas
Exemple : Minimiser la puissancetotale consommée
Pstath et Pdyn
h : puissancesstatique et dynamique duserveur h (modèle a�ne)
Soit αjh la fraction de ressourcesprocesseur du service j sur leserveur h
min∑
h (Pstath +
∑j αjhP
dynh )
Damien et al., Energy-Aware Service Allocation, FGCS journal, 2011
24/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Programmation linéaire
Expliciter toutes les contraintes par deséquations linéaires
Exprimer l'objectif sous forme d'unefonction à minimiser
Formalise les leviers et leur impact
Approximation du monde réel(phénomènes quadratiques)
Résolution exacte possible pour lespetits cas
Contraintes :∀h ph ∈ {0, 1}
∀j∑
h ejh = 1, ∀j, h ejh ∈ {0, 1}, αjh ≤ ejh,mjh ≤ ejh∀j vj ∈ {0, 1}, ∀h
∑j αjh ≤ vj ,
∑j mjh ≤ vj
∀j, h ph ≤ (1− ejh) + vj∀j, h vj ≤ (1− ejh) + ph
∀h∑
j αjh/rj ≤ vj∀j
∑h mjh ≤ vj
Réduire la puissance sous contrainte de performance :∀j
∑h αjh/rj > Seuil
min(∑
h (Pminh +
∑j αjh × (Pmax
h − Pminh ))
Damien et al., Energy-Aware Service Allocation, FGCS journal, 2011
24/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Passage à l'échelle (programmation linéaire)
Méthode exacte: Temps de résolution exponentiel en fonction des variablesentières
6 serveurs, 16 services : 3 minutes (GLPK)
Méthode des variables constantes (collaboration LAAS)
Fixe certaines variables, résout, change de variables, itèreMoins bon que l'optimal, mais peut être très rapide
Relaxation de la contrainte entière
Meilleur que l'optimal (un service à moitié sur une machine et à moitié sur une autre)
Avec les deux on peut donner un intervalle
25/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Passage à l'échelle (programmation linéaire)
Méthode exacte: Temps de résolution exponentiel en fonction des variablesentières
6 serveurs, 16 services : 3 minutes (GLPK)
Méthode des variables constantes (collaboration LAAS)Fixe certaines variables, résout, change de variables, itèreMoins bon que l'optimal, mais peut être très rapide
Relaxation de la contrainte entière
Meilleur que l'optimal (un service à moitié sur une machine et à moitié sur une autre)
Avec les deux on peut donner un intervalle
25/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Passage à l'échelle (programmation linéaire)
Méthode exacte: Temps de résolution exponentiel en fonction des variablesentières
6 serveurs, 16 services : 3 minutes (GLPK)
Méthode des variables constantes (collaboration LAAS)Fixe certaines variables, résout, change de variables, itèreMoins bon que l'optimal, mais peut être très rapide
Relaxation de la contrainte entièreMeilleur que l'optimal (un service à moitié sur une machine et à moitié sur une autre)
Avec les deux on peut donner un intervalle
25/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Passage à l'échelle (programmation linéaire)
Méthode exacte: Temps de résolution exponentiel en fonction des variablesentières
6 serveurs, 16 services : 3 minutes (GLPK)
Méthode des variables constantes (collaboration LAAS)Fixe certaines variables, résout, change de variables, itèreMoins bon que l'optimal, mais peut être très rapide
Relaxation de la contrainte entièreMeilleur que l'optimal (un service à moitié sur une machine et à moitié sur une autre)
Avec les deux on peut donner un intervalle
25/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Simulation
Grand nombre de simulateurs existent : SimGrid, DCWorms, CloudSim, ...En 2009, simulateurs incomplets
Modèle de cloud (migration, sur-allocation de ressources, fédération†)Gestion du DVFSPuissance électriqueTempérature
Collaboration avec les équipes développant les simulateursDVFS et gestion �ne du cloud dans CloudSimThermique dans DCWorms∗
∗ Wojtek et al., Energy and thermal models for simulation of workload and resource management in computing systems, SMPT
journal, 2015. †Thiam et al., Cooperative Scheduling Anti-load balancing Algorithm for Cloud, CCTS workshop, 2013
26/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Ajout du DVFS dans CloudSim
Simulateurs du monde des Grilles decalcul
Grande stabilité dans le tempsRessources utilisées à 100%
DVFS provoque décalage d'événements
Gestion temporelle �ne (1/10 s)
Tom et al., Energy-aware simulation with DVFS, SMPT journal,
2013
27/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Des simulateurs ad-hoc : Réinventer laroue ?
Des simulateurs simplistes
Permet de tester une idée à moindre coûtNécessaire de s'arrêter au bon niveau de complexité
Simulateur d'architectures hétérogènes∗
Pas de simulation du réseauA permis de prouver l'utilité de l'hétérogénéité pour atteindre un systèmeproportionnel
Hydrasim, RenewSim
∗ Georges, Heterogeneity: The Key to Achieve Power-Proportional Computing, CCGrid conférence, 2013.
28/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Expérimentation
Un modèle est toujours approché
Validation �nale par expérimentationCompliqué par la nécessité d'avoir des informations électriques
Avec Lyon, parmi les premier à expérimenter la capture de puissance à grandeéchelle (GreenNet)
Problème des mesures distribuées, conversions électriques, impact de la mesure(compteurs de performance)
Problème de la reproductibilité
29/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Reproductibilité d'une expérience
Expérimentation simple deTransformée de Fourier (NPB)
100 expériences sur les mêmesmachines (Grid'5000)Grande variation
Temps: 12s, 7% (Std. Dev. 3.2s)Énergie: 9.3kJ, 5.5% (3kJ)
Pour un même temps, 167s, di�érencede 4kJ
Temps 6= Énergie
162
164
166
168
170
172
174
164 166 168 170 172 174 176
Tem
ps
(s)
Energie (kJ)
Transformée de fourrier
30/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Conclusion
Tous les outils sont limitésModélisation: Approximatif ou optimal inatteignableSimulation: ApproximatifExpérimentation: Reproductibilité et très sensible
Investissement très fort nécessaire
Simulation : Bon rapport qualité/temps
Di�culté de tester In-Vivo
31/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan
1 Modèles et Métriques
2 Mesures
3 Outils d'évaluation
4 Décision
5 Évolution
32/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Approches exactes et heuristiques
Deux problèmesPlacementTemporalité
Les heuristiques classiques du placementGloutons Best Fit, First FitVector Packing (Glouton gourmet)Algorithmes Génétiques
33/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Les algorithmes gloutons classiques
CaractéristiquesMémoireProcesseur
Tri des services
Tri des machines
Pas de remise encause
3 3
2 2
4
4
1
1
10% 60% 50% 50% 20% 20% 80% 10%
CPU RAM
Tâches
First-Fit et Best-Fitmémoire
1
13
3
2 2
4
4
1
1 2 23 3
4
4
Round Robin
2 2
3 3
1
1
4
4
Vector Packing
2 2
4
4
3
3
First-Fit et Best-Fitprocesseur
1
1
CPU RAMServeur 1
CPU RAMServeur 2
CPU RAMServeur 3
CPU RAM CPU RAM CPU RAM
CPU RAMServeur 1
CPU RAMServeur 2
CPU RAMServeur 3
CPU RAMServeur 1
CPU RAMServeur 2
CPU RAMServeur 3
CPU RAMServeur 1
CPU RAMServeur 2
CPU RAMServeur 3
34/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Notre vector packing gourmet
4 objectifs dans la fonction de triServeur est énergétiquement attractifRajouter la tâche ne surcharge pasServeur alluméLa tâche rétablit l'équilibre dans lesressources
Temps �seulement�en O(J × H ln(H))
Mais la solution du gourmet estdi�cile à quali�er
Damien et al., Energy-Aware Service Allocation, FGCS journal, 2012.
35/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Algorithmes Génétiques
Chromosome = Allocation
Génération aléatoire initialeÀ chaque génération :
Croisements et mutationTri sur la métrique d'objectifGarder les meilleurs
Tom et al., Quality of Service Modeling for Green
Scheduling in Clouds, SUSCOM journal, 2014
36/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Métriques pour Algorithmes Génétique
Contrairement aux gloutons on peut optimiser une métrique directement
Exemples de métriques
Énergie, Performance, Résilience, Dynamisme
Nom GACoe�cients appliqués aux métriques
ÉnergieTemps
Robustesse Dynamismede réponse
GA_All 1 1 1 1GA_Energy 1 0 0 0GA_RespT 0 1 0 0GA_Rob 0 0 1 0GA_Dyn 0 0 0 1
37/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Résultats de l'algorithme génétique
Chaque algorithme estmeilleur dans sondomaine (Énergie)
GA_All très bon partout
400 services sur 110machines, environ 40s
Tenir compte d'unemétrique est déjà trèsimportant
38/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Glouton Flou
Avantage du G.A. : viser un objectifMéthode similaire pour glouton
Famille de gloutonGarde le meilleur
Multi-objectif : �ou
Optimal sur E relaché
Famille de Gloutons
Nouvel optimal
Hong Yang et al., Multi-Objective Scheduling for Heterogeneous Server Systems with Machine Placement, CCGRID conférence, 2014
39/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Ce qui rend la puissance/énergie unique
Le coté temporelInertie liée à la températureAllumage et extinction deserveurs
Sur- ou Sous-réservation
Les cycles sont parfois bon
Les non linéaritésÉquation de puissance
Les boucles de rétroactionSystème de refroidissement Violaine et al., Thermal-aware cloud middleware to reduce cooling needs,
WETICE workshop, 2014
40/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Plan
1 Modèles et Métriques
2 Mesures
3 Outils d'évaluation
4 Décision
5 Évolution
41/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Vers le futur
Un plus grand nombre de centres de calculBeaucoup de plus petits (gestion hybride)
La connaissance : ressource critique
Un grand nombre de tailles diversesQuelques plus grands (2016 : 6 300 000m2)
De manière globale des centres de calcul plus intégrés dans leur environnementAspects électriquesAspects thermiques
42/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
À l'échelle de la fédération de clouds
Opérateur loue les ressources de ses concurrents(itinérance télécom)
Méthode semblable au super-peers
Distribué ou centralisé, mêmes performances
Thiam et al., Cooperative Scheduling
Anti-load balancing Algorithm for Cloud
: CSAAC, CCTS workshop, 2013
43/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
À l'échelle du Data center in the box
Échelle du Rack
Peu de services : Forte variabilité
Adaptation parfaite à la chargeActuellement couteux : Surcoût initial
ClimatisationTout ce qui est négatif dans le PUE
Architecture proportionnelle
Violaine et al., Big, Medium, Little : Reaching Energy Proportionality with Heterogeneous Computing Scheduler, Parallel Processing
Letters, journal, 2015.44/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
À l'échelle du Data center in the box
Échelle du Rack
Peu de services : Forte variabilité
Adaptation parfaite à la chargeActuellement couteux : Surcoût initial
ClimatisationTout ce qui est négatif dans le PUE
Architecture proportionnelle
Violaine et al., Big, Medium, Little : Reaching Energy Proportionality with Heterogeneous Computing Scheduler, Parallel Processing
Letters, journal, 2015.44/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
À l'échelle du n÷ud
Trois temporalitésGros grain (minute) : Fréquence optimale en fonction du graphe de tâches∗
13% d'économie d'énergie
Moyen Grain (seconde) : Détection de phase†
20% d'économie d'énergie, 3% augmentation du temps
Grain �n (1/10s) : Politique noyau de gestion de fréquence‡
25% d'économie d'énergie, 1% réduction du temps
Pas de coordination entre les trois temporalités, pas d'objectif
∗ Tom et al., Energy-aware simulation with DVFS, SMPT journal, 2013 †Landry et al., Exploiting performance counters to predict and
improve energy performance of HPC systems, SUSCOM journal, 2014 ‡Georges et al., DVFS governor for HPC: Higher, Faster,
Greener, PDP conférence, 2015
45/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Le chaînon manquant entre les échelles
Une activité �artisanale�Un grand nombre d'intergiciels indépendantsDes manipulations humaines
Vers une coopération décentralisée
46/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Coopération entre les échelles dedécision
1 Situation initiale à l'équilibre
2 Baisse de la production solaire
3 Tâche non critique : DVFS agressif
3 Tâche critique : dynamisme indisponible
4 Tâche critique cherche position adéquate
5 Extinction d'une machine
6 DVFS moins agressif
VM1
VM2
47/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Coopération entre les échelles dedécision
1 Situation initiale à l'équilibre
2 Baisse de la production solaire
3 Tâche non critique : DVFS agressif
3 Tâche critique : dynamisme indisponible
4 Tâche critique cherche position adéquate
5 Extinction d'une machine
6 DVFS moins agressif
VM1
VM2
47/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Coopération entre les échelles dedécision
1 Situation initiale à l'équilibre
2 Baisse de la production solaire
3 Tâche non critique : DVFS agressif
3 Tâche critique : dynamisme indisponible
4 Tâche critique cherche position adéquate
5 Extinction d'une machine
6 DVFS moins agressif
VM1
VM2
47/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Coopération entre les échelles dedécision
1 Situation initiale à l'équilibre
2 Baisse de la production solaire
3 Tâche non critique : DVFS agressif
3 Tâche critique : dynamisme indisponible
4 Tâche critique cherche position adéquate
5 Extinction d'une machine
6 DVFS moins agressif
VM2
VM1
47/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Coopération entre les échelles dedécision
1 Situation initiale à l'équilibre
2 Baisse de la production solaire
3 Tâche non critique : DVFS agressif
3 Tâche critique : dynamisme indisponible
4 Tâche critique cherche position adéquate
5 Extinction d'une machine
6 DVFS moins agressif VM2
VM1
47/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
Projets de recherche
Un grand nombre de projets de rechercheNiveau système : Interaction entre applications, et entre applications et matérielNiveau apprentissage : Couverture maximale automatiqueNiveau métrique : Tenir compte de l'environnementNiveau décision : Optimiser en tenant compte des interactions
Une grande direction
Coopération distribuée multi-échelle des
centres de calculs
48/49
Modèles et Métriques Mesures Outils d'évaluation Décision Évolution
DC Georges In A Box
Pair à Pair, Grilles, puis Cloud et maintenant Campus intelligents
Implication dans 8 thèses (Damien, Thiam, Tom, Leandro, Landry, Violaine, Inès,Zong Yi) dont 5 soutenues. Co-encadrées avec Laurent, Jean-Marc, Patricia,Thierry, Daniela, Yann, de l'IRIT, du LAAS et du LIP.Implication internationale :
Responsable d'un WP de projet européen (CoolEmAll), de deux WG d'Actions Costet des responsabilités dans plusieurs autres projetsÉditeur invité de deux journaux, organisateur d'une conférence et d'une journéescienti�que (mêlant académiques et industriels)13 journaux, 11 chapitres, 36 conférences/Workshops, 16 rapports techniques
Et locale :Conseil de laboratoire, Collège Scienti�que, Enseignement, comité directeur deneOCampus, Moniteur d'escalade, Jeux de Société
49/49
Journaux 2015
Violaine Villebonnet, Georges Da Costa, Laurent Lefèvre, Jean-Marc Pierson, Patricia Stolf. "Big,Medium, Little": Reaching Energy Proportionality with Heterogeneous Computing Scheduler.Parallel Processing Letters
Georges Da Costa, Thomas Fahringer, Juan-Antonio Rico-Gallego, Ivan Grasso, Atanas Hristov, Helen D.
Karatza, Alexey Lastovetsky, Fabrizio Marozzo, Dana Petcu, Georgios L. Stavrinides, Domenico Talia,
Paolo Tru�o, Hrachya Astsatryan. Exascale machines require new programming paradigms andruntimes. Supercomputing Frontiers and Innovations
Wojciech Pi¡Tek, Ariel Oleksiak, Georges Da Costa. Energy and thermal models for simulation ofworkload and resource management in computing systems. Simulation Modelling Practice and Theory
Leandro Fontoura Cupertino, Georges Da Costa, Ariel Oleksiak, Wojciech Pi¡Tek, Jean-Marc Pierson,
Jaume Salom, Laura Siso, Patricia Stolf, Hongyang Sun, Thomas Zilio. Energy-E�cient,Thermal-Aware Modeling and Simulation of Datacenters: The CoolEmAll Approach and EvaluationResults. Ad Hoc Networks Journal
Journaux 2014
Hongyang Sun, Patricia Stolf, Jean-Marc Pierson, Georges Da Costa. Energy-e�cient andthermal-aware resource management for heterogeneous datacenters. Sustainable Computing:
Informatics and Systems, 2014.
Leandro Fontoura Cupertino, Georges Da Costa, Jean-Marc Pierson. Towards a generic powerestimator. Computer Science - Research and Development, 2014.
Tom Guerout, Samir Medjiah, Georges Da Costa, Thierry Monteil. Quality of Service Modeling forGreen Scheduling in Clouds. Sustainable Computing, 2014.
Ghislain Landry Tsafack Chetsa, Laurent Lefèvre, Jean-Marc Pierson, Patricia Stolf, Georges Da Costa.
Exploiting performance counters to predict and improve energy performance of HPC systems.Future Generation Computer Systems, 2014.
Journaux 2009-2013
Tom Guerout, Georges Da Costa, Thierry Monteil, Rodrigo Neves Calheiros, Rajkumar Buyya, Mihai
Alexandru. Energy-aware simulation with DVFS. Simulation Modelling Practice and Theory, 2013
Leandro Fontoura Cupertino, Georges Da Costa, Amal Sayah, Jean-Marc Pierson. Valgreen: anApplication's Energy Pro�ler. International Journal of Soft Computing and Software Engineering, 2013.
Mehdi Diouri, Ghislain Landry Tsafack Chetsa, Olivier Gluck, Laurent Lefèvre, Jean-Marc Pierson,
Patricia Stolf, Georges Da Costa. Energy e�ciency in HPC: with or without knowledge onapplications and services. International Journal of High Performance Computing Applications, 2013
Damien Borgetto, Henri Casanova, Georges Da Costa, Jean-Marc Pierson. Energy-Aware ServiceAllocation. Future Generation Computer Systems, 2012.
Georges Da Costa, Olivier Richard. Impact of Realistic Workload in Peer-to-Peer Systems a CaseStudy: Freenet. Scalable Computing: Practice and Experience, 2005.
top related