You are on page 1of 222

Université de Technologie de Troyes

École doctorale Sciences pour l’Ingénieur (ED 361 SPI)


Unité de recherche ICD-LASMIS UMR 6281

Thèse présentée par Van-Tuan Dang


Soutenue le ⟨date de la soutenance⟩
En vue de l’obtention du grade de docteur de l’Université de Technologie de Troyes

Discipline Science pour ingénieur


Spécialité Matériaux, Mécanique, Optique et Nanotechnologie

Titre de la thèse

Optimisation des procédés de mise en


forme par couplage de métamodèles
adaptatifs et de réduction
dimensionnelle.

Thèse dirigée par M. Pascal Lafon directeur


M. Carl Labergère co-directeur

Composition du jury
Rapporteurs Mme. Nathalie Boudeau Professeur à l’ENSMM Lab.
FEMTO-ST
M. Piotr Breikopf Ingénieur de Recherche - CNRS -
HDR - à l’UTC Lab. Roberval
Examinateurs M. Francisco Chinesta Professeur à l’ENSAM ParisTech
M. Jean-Louis Duval Docteur - ESI Group
Directeurs de thèse M. Pascal Lafon Professeur à l’UTT
M. Carl Labergère Professeur à l’UTT
L’Université de Technologie de Troyes n’entend donner aucune approbation ni im-
probation aux opinions émises dans les thèses : ces opinions devront être considérées
comme propres à leurs auteurs.
Résumé v

Optimisation des procédés de mise en forme par couplage de métamodèles adaptatifs et de


réduction dimensionnelle.
Résumé
Les procédés de mise en forme sont largement utilisés dans l’industrie automobile et aéronau-
tique. Cependant, la simulation de mise en forme haute-fidélité est coûteuse en temps de calculs.
Cela limite l’usage les méthodes d’optimisations dans le développement et la mise au point
des procédés de mise en forme. Dans ces phases de développement, l’obtention d’un optimum
global joue un rôle clé mais nécessite de nombreuses itérations de l’algorithme d’optimisation.
Cette thèse propose une stratégie permettant l’utilisation de simulations de procédé de mise
en forme à coûts élevés pour l’optimisation globale des procédés de mise en forme. Un méta-
modèle spatial est d’abord construit par couplage de techniques de réduction dimensionnelle
et de méta-modélisation traditionnelle. Ce méta-modèle remplace le modèle haute-fidélité de
simulation du procédé et permettra d’utiliser des approximations beaucoup moins coûteuses
dans la procédure d’optimisation. Ce méta-modèle est construit sur la base d’un plan expérience
numérique initial du modèle haute-fidélité et est ensuite enrichi au cours de l’optimisation par
l’ajout contrôlé d’une ou plusieurs simulations hautes-fidélités. Cette technique d’optimisation
a montré son efficacité sur trois cas de procédés de mise forme : deux emboutissages dont un
exemple industriel d’aile de voiture et un procédé d’hydroformage de tube en Y.
Mots clés : travail de la tôle, simulation par ordinateur, optimisation mathématique, proper
orthogonal decomposition

ICD-LASMIS UMR 6281



vi Résumé
Sommaire

Résumé v

Sommaire vii

Liste des tableaux ix

Table des figures xi

1 Introduction 1

2 Méthodes d’optimisation : état de l’art 11

3 Construction d’un métamodèle 31

4 Stratégies d’optimisation basées sur l’utilisation de métamodèle 61

5 Applications à l’optimisation de procédés de mise en forme 105

Conclusion et perspectives 165

Bibliographie 169

A Annexes 185

Table des matières 203

vii
viii Sommaire
Liste des tableaux

3.1 Quelques fonctions de base radiale . . . . . . . . . . . . . . . . . . . . . . 34


3.2 Quelques fonctions de corrélation . . . . . . . . . . . . . . . . . . . . . . . 42

4.1 Tableau des variables et valeurs optimaux pour les 10 DOE initiaux. . . . 73
4.2 Tableau de comparaison des variables et valeurs optimales entre l’algo-
rithme 2 et 3 pour 10 DOE initiaux différents de l’exemple 4.2.5. . . . . . 86
4.3 Tableau de comparaison des variables et valeurs optimaux entre l’algo-
rithme 2 et 3 pour 10 cas de DOE initiaux de l’exemple 4.18. . . . . . . . 88

5.1 Dimensions des outils d’emboutissage (poinçon et matrice). . . . . . . . . 108


5.2 Constante matérielle pour le critère anisotrope de Hill 48 [161] . . . . . . 110
5.3 Données du matériaux DP780 [161]. . . . . . . . . . . . . . . . . . . . . . 111
5.4 Tableau de comparaison des variables et valeurs optimales entre la straté-
gie séquentielle direct basée sur le métamodèle de krigeage et le métamo-
dèle spatial, Ns désigne le nombre de simulation EF exigée pour atteindre
une valeur optimale de la fonction objectif. . . . . . . . . . . . . . . . . . 117
5.5 Tableau de comparaison des variables et valeurs optimales entre la straté-
gie basée sur l’EGO du métamodèle de krigeage et du métamodèle spatial
en utilisant au totale 50 évaluations du modèle haute-fidélité. . . . . . . . 118
5.6 Paramètres géométriques de la forme en Y . . . . . . . . . . . . . . . . . . 126
5.7 Paramètres du modèle pour l’acier SS304 utilisés dans la simulation
numérique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.8 Les données d’acier XES donné par Renault . . . . . . . . . . . . . . . . . 154
5.9 Résultat issus du processus d’optimisation basée sur trois critères de
remplissage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

A.1 Données et inconnues du problème de l’AI. . . . . . . . . . . . . . . . . . 194

ix
x Liste des tableaux
Table des figures

1.1 Un exemple de composant de mise en forme présents dans une voiture


Audi RS 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Emboutissage d’aile voiture : (a) expérience, (b) simulation numérique . . 4
1.3 Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF) . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1 Un exemple des pièges de l’optimisation locale compte tenu de la fonction


Forrester multimodale, f (x) = 0.5(6x − 2)2 sin(12x − 4) + 10(x − 0.5) − 5 où
x ∈ [0, 1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Concepts du problème d’optimisation multi-objectifs. . . . . . . . . . . . 23
2.3 Front de Pareto pour cas non-convexe et cas convexe . . . . . . . . . . . . 24
2.4 Organigramme de l’approche traditionnelle du métamodèle pour l’opti-
misation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 Quatre métamodèles différents correspondent à huit points d’échantillon-
nage ò la fonction Forrester modifiée, (a) 4th ordre polynôme, (b) Réseau
de neurones artificiels, (c) Fonctions de base radiales, (d) Krigeage. . . . 27
2.6 Les méthode d’optimisation différente . . . . . . . . . . . . . . . . . . . . 29

3.1 Exemples de fonctions de base radiale pour 3 valeurs du paramètre ϵ =


0.1, 1, 2.5, Exponentiel (en haut à gauche), Gaussienne (en haut à droit),
Multiquadratique (en bas à droite), Multiquadratique inverse(en bas à
gauche) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Approximations du métamodèle de krigeage et intervalles de confiance . 40
3.3 Exemples de fonctions de corrélation unidimensionnelles. . . . . . . . . 41
3.4 La corrélation de Matérn unidimensionnelle fonctionne avec des para-
mètres variables θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6 POD comme un changement de système de coordonnées . . . . . . . . . . 50
3.7 32 instances d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.8 Valeurs propres pour les images . . . . . . . . . . . . . . . . . . . . . . . . 52
3.9 Champ de moyen et les modes . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.10 Reconstruction de premier l’image à partir de 7 base POD . . . . . . . . . 53
3.11 Reconstruction pour 7 mode POD . . . . . . . . . . . . . . . . . . . . . . . 53
3.12 Plan d’expérience factorielle pour trois variables de conception . . . . . . 57

xi
xii Table des figures

3.13 Échantillonnage par LHS et LCVT de deux variables . . . . . . . . . . . . 58


3.14 Échantillonnage par LHS et LCVT pour 100 échantillons de trois variable 58

4.1 Graphique de la fonction analytique (a) 4.12 utilisé comme fonction


"cible" et fonction du modèle (b). . . . . . . . . . . . . . . . . . . . . . . . 68
4.2 La réponse de surface de la fonction objectif du modèle 4.14 et ses courbes
de niveaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Les échantillons initiaux pour 10 DOE initiaux différents en utilisant la
technique LCVT. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Les valeurs propres et les erreurs de troncature. . . . . . . . . . . . . . . . 70
4.5 Évolution des minimums de la fonction objectif pour 10 DOE initiaux
différents. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.6 Les courbes de niveau de la fonction objectif du métamodèle spatial
pour 10 DOE initiaux différents avec les points noirs représentant les
échantillons initiaux, les points rouges désignent le point remplissage, et
le minimum global s’est trouvé au point vert. . . . . . . . . . . . . . . . . 71
4.7 Fonction de Forrester 4.17 [54] et son type modifié 4.18. . . . . . . . . . . 72
4.8 La réponse de surface de la fonction objectif du modèle 4.18 et ses courbes
de niveaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.9 Évolution de la fonction objectif pour 10 DOE initiaux. . . . . . . . . . . . 73
4.10 Les courbes de niveau de la fonction objectif du métamodèle spatial pour
10 DOE initiaux : les points noirs représentant les échantillons initiaux,
les points rouges désignent les nouveaux points rajoutés cycle par cycle,
et le minimum global en vert. . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.11 L’espérance de l’amélioration du métamodèle. . . . . . . . . . . . . . . . . 76
4.12 La progression d’une recherche du minimum de la fonction de 2.1. La
figure de gauche représente les prédictions de la fonction en pointillés
rouges (métamodèle de krigeage) et fonction originale en noir. La figure
de droite représente le critère EI(x) en vert. . . . . . . . . . . . . . . . . . 77
4.13 Fonction de Branin (a) et ses courbes de niveau (b). Les trois points noir
sont les optima globaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.14 La réponse de surface du métamodèle de krigeage de la fonction de
Branin (a) et ses courbes de niveau (b) avec les points noirs représentent
les échantillons initiaux, les points vers désignent le point de remplissage
et le minimum global s’est trouvé au point magenta. . . . . . . . . . . . . 79
4.15 Évolution de la valeur de la fonction objectif (a) et évolution du meilleur
minimum à chaque cycle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.16 La progression de l’enrichissement des 5 premiers cycles. Les figures re-
présentent le métamodèle itératif à gauche. Les points noirs représentent
les échantillons initiaux. Les points verts désignent :l’enrichissement à
gauche, et le global maximum de la fonction d’espérance de l’amélioration
à droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Table des figures xiii

4.17 Évolution de la fonction d’espérance de l’amélioration basée sur le méta-


modèle de krigeage (à gauche) et le métamodèle spatial (POD+krigeage)
(à droite). Les points noirs représentent les échantillons initiaux, le point
vert désigne le maximum global de l’espérance de l’amélioration EI(x) à
chaque cycle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.18 Évolution de minimum actuel de deux l’algorithme pour 10 cas différents
avec 10 DOE initiaux de l’exemple 4.2.5. . . . . . . . . . . . . . . . . . . . 85
4.19 Évolution de minimum actuel de deux algorithmes pour 10 cas différent
de DOE initiaux de l’exemple 4.2.5. . . . . . . . . . . . . . . . . . . . . . . 87
4.20 Courbes de niveaux de la fonction de Branin modifiée (a) et courbes de
niveau de la fonction Branin modifiée contrainte (b). . . . . . . . . . . . . 90
4.21 Courbes de niveau du métamodèle de krigeage de la fonction de Bra-
nin avec 10 échantillons initiaux, la ligne magenta désigne le frontière
de l’intersection de la fonction objectif et de la fonction contrainte (a) ;
l’espérance de l’amélioration non-contrainte EI (x) (b) ; la probabilité de
rencontrer la contrainte et l’espérance de l’amélioration contrainte E[I (x)]
(c) et l’optimum global est marqué par le point vert (d). . . . . . . . . . . 91
4.22 Les valeurs de la fonction objectif pour chaque point d’échantillonnage
(avec 10 points initiaux et 20 points de remplissage), les points marqués
d’une étoile désignent les points qui ne respectent pas la contrainte (a) et
les courbes de niveau de métamodèle de krigeage de la fonction Branin
modifiée avec contrainte, les points noirs représentent les échantillons
initiaux, les points verts désignent les points de remplissage et point
magenta le minimum global (b). . . . . . . . . . . . . . . . . . . . . . . . . 92
4.23 Un exemple de problème d’optimisation bi-objectif. . . . . . . . . . . . . 94
4.24 Un exemple d’amélioration d’hypervolume pour un problème bi-objectif. 96
4.25 L’exemple d’espérance de l’amélioration bi-objectifs. . . . . . . . . . . . . 98
4.26 Croquis du problème du poutre de Nowacki. . . . . . . . . . . . . . . . . 100
4.27 Les fonction objectifs du problème de conception de poutre Nowacki. . . 102
4.28 Le front de Pareto pour le problème de conception de poutre de Nowacki. 102
4.29 Les échantillons sélectionnés pour le problème du poutre de Nowacki. Le
point noir représente les échantillons initiaux, le point vert désigne les
échantillons de remplissage. . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5.1 Effet du retour élastique sur l’emboutissage d’une tôle en U. . . . . . . . . 106


5.2 Schéma du procédé de l’emboutissage d’une pièce en U. . . . . . . . . . . 107
5.3 Modèle des éléments finis d’emboutissage en U . . . . . . . . . . . . . . . 108
5.4 Comparaison entre nos résultats de simulation EF et des mesures expéri-
mentales de Numisheet 2011[161]. . . . . . . . . . . . . . . . . . . . . . . 111
5.5 Méthode d’évaluation de la forme après retour élastique : (a) Exemple de
forme en U après retour élastique, (b) Les distances à partir des nœuds
sur la surface de l’outillage. . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.6 Organigramme de la procédure d’optimisation . . . . . . . . . . . . . . . 114
xiv Table des figures

5.7 Les valeurs propres et les erreurs de troncature pour la POD de l’ensemble
des simulations EF initiales. . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.8 La convergence de la fonction objectif basée sur le métamodèle : Évolution
des valeurs objectives avec les points rouges désignent les 10 valeurs
objectif initiales (a) et trajectoire de convergence de la fonction objectif (b)115
5.9 Évolution de forme de la tôle en U après retour élastique . . . . . . . . . . 116
5.10 Évolution de profil-2D de la tôle en U après retour élastique . . . . . . . . 117
5.11 Evolution de meilleure conception à chaque cycle . . . . . . . . . . . . . . 119
5.12 Un acier inoxydable (SS 304) en forme de Y hydroformé au SPS(Siempelkamp
Pressen Systeme, Germany) . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.13 Schéma de l’outillage d’hydroformage et les dimensions détaillées de la
pièce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.14 Procédure du procédé d’hydroformage en forme de Y (SPS, Allemange). . 123
5.15 Procédure du procédé d’hydroformage en forme de Y (SPS, Allemange) . 124
5.16 Paramètres géométriques de la forme en Y [77] . . . . . . . . . . . . . . . 125
5.17 Modèle éléments finis d’un tube de forme en Y . . . . . . . . . . . . . . . 128
5.18 Les composants d’essai (a) et la procédure d’essai de gonflement hydrau-
lique (b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.19 La hauteur de gonflement par rapport à la pression interne . . . . . . . . 132
5.20 La pression par rapport à la hauteur du gonflement mesurée à partir
des expériences de gonflement de SS304 et la simulation EF pour les
paramètres du modèle dans tableau 5.7 (avec 50 mm de diamètre et
t0 =1.5 mm d’épaisseur). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.21 Courbe de déformation effective-efficace en contrainte, SS304 avec OD =
50 mm, t0 = 1.5 mm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.22 Contrôle des paramètres du procédé d’hydroformage en forme de Y. . . . 135
5.23 La simulation EF du procédé d’hydroformage d’un tube en forme de Y. . 136
5.24 Les résultats de distribution d’épaisseur et d’endomagement. . . . . . . . 137
5.25 Comparaison des distributions d’épaisseurs de la forme en Y SS304 de
simulation EF et des expériences le long de la direction longitudinale. . . 137
5.26 Exemple pour une évolution dans la procédure du contrôle optimal . . . 140
5.27 Plan d’expériences pour trois paramètres en normalisé . . . . . . . . . . . 140
5.28 Évolution du tube en Y au cours de contrôle du procédé d’hydroformage 142
5.29 Comparaison de l’évolution du déplacement du piston à droite (a) et à
gauche (b) et la pression interne (c) et l’effort du contre-piston (d) donnée
par l’algorithme de contrôle et obtenue de façon empirique pour la forme
en Y. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.30 Représentation de l’évolution de l’approximation à l’étape 2 avec p(normalisé)=0.25 :
l’approximation de la fonction objectif (a), la région faisable (b), la proba-
bilité faisable (c), l’approximation de la fonction objectif avec les contraintes
(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Table des figures xv

5.31 Représentation de l’évolution de l’approximation à l’étape 2 avec p(normalisé)=0.5 :


l’approximation de la fonction objectif (a), la région faisable (b), la proba-
bilité faisable (c), l’approximation de la fonction objectif avec les contraintes
(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.32 Représentation de l’évolution de l’approximation à l’étape 2 avec p(normalisé)=
0.75 : l’approximation de la fonction objectif (a), la région faisable (b), la
probabilité faisable (c), l’approximation de la fonction objectif avec les
contraintes (d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.33 Représentation de l’évolution de l’approximation à l’étape 2 avec p(normalisé)=
1 : l’approximation de la fonction objectif (a), la région faisable (b), la
probabilité faisable (c), l’approximation de la fonction objectif avec les
contraintes (d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.34 Evolution des fonctions de contraintes au cours du contrôle . . . . . . . . 146
5.35 Évolution de la variation de l’épaisseur obtenue avec une loi de commande
contrôlée et comparée à celle obtenue avec une loi de commande empirique147
5.36 Répartition de l’épaisseur obtenue avec une loi contrôlée (a), Répartition
de l’épaisseur avec une loi empirique (b) . . . . . . . . . . . . . . . . . . . 147
5.37 Configuration de conception des surfaces additionnelles : S0 maillage en
rouge, S1 maillage en bleu, S2 maillage en vert et S3 maillage en jaune . . 149
5.38 Caractéristique géométrique de base de surface de la matrice . . . . . . . 150
5.39 Pièce finale (de la Renault Safrane). . . . . . . . . . . . . . . . . . . . . . . 150
5.40 Modèle d’éléments finis après avoir ajouté des surfaces additionnelles. . . 151
5.41 Représentation du vecteur unitaire par deux angles en coordonnées sphé-
riques (r = 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.42 Description générale de l’Approche Inverse. . . . . . . . . . . . . . . . . . 152
5.43 Chemin de déformation radiale et réelle. . . . . . . . . . . . . . . . . . . . 153
5.44 Procédure de calcul du volume d’outillage. . . . . . . . . . . . . . . . . . . 155
5.45 Procédure de calcul du volume d’élément. . . . . . . . . . . . . . . . . . . 155
5.46 Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF) . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
5.47 Résultats issus du processus d’optimisation basée sur trois critères de
remplissage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.48 Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance euclidienne. . . . . . . . . . . . . . . . . . . 159
5.49 Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance maximin. . . . . . . . . . . . . . . . . . . . . 159
5.50 Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de l’hypervolume. . . . . . . . . . . . . . . . . . . . . . . . 160
5.51 (a) Configuration de conception optimale d’aire des surfaces addition-
nelles et (b) distribution de la déformation mineure (à gauche) et majeure
(à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
xvi Table des figures

5.52 Configuration de conception optimale de volume d’outillage (a) et dis-


tribution de la déformation mineure (à gauche) et majeure (à droite)
(b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.53 Configuration de conception compromise entre S et V (a) et distribution
de la déformation mineure (à gauche) et majeure (à droite) (b) . . . . . . 161

A.1 Projeter un nœud de blanc sur un élément de la surface de référence. . . 193


A.2 Cinématique d’une coque mince . . . . . . . . . . . . . . . . . . . . . . . . 195
A.3 Elément de coque DKT12 à 12 d.d.l. . . . . . . . . . . . . . . . . . . . . . 197
A.4 Déplacements et rotations de l’élément DKT6 . . . . . . . . . . . . . . . . 199
A.5 Déplacements et rotations de l’élément DKT6 . . . . . . . . . . . . . . . . 200
Chapitre 1
Introduction

Sommaire du chapitre
1.1 Cadre de la thèse 1
1.2 Contexte scientifique et industriel de la thèse 2
1.2.1 Contexte industriel . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Contexte scientifique . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Problème d’optimisation des procédés de mise en forme 5
1.3.1 Optimisation de forme . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Optimisation du produit . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Optimisation de l’engagement matière ou de la surface initiale
de la pièce . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Fonction qualités construites à partir des courbes limites de
formage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Objectif et organisation de la thèse 9
1.4.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . 9

1.1 Cadre de la thèse


L’École Doctorale Science et Technologie de l’Université de Technologie de Troyes a
accueilli ma thèse dans le cadre d’un contrat doctoral du Ministère de l’enseignement
supérieur et de la recherche. Mon travail de recherche a été effectué au sein de l’équipe
LASMIS de l’unité de recherche d’Institut Charles Delaunay sous la direction du pro-
fesseur Pascal Lafon et du professeur Carl Labergère de l’Université de Technologie de
Troyes. Mes principales contributions, durant les trois dernières années, ont surtout
portées sur le développement de stratégies d’optimisation adaptées à des probléma-
tiques issues des procédés de mise en forme. L’ensemble des différentes méthodologies

1
2 CHAPITRE 1. Introduction

Figure 1.1 – Un exemple de composant de mise en forme présents dans une voiture
Audi RS 7

d’optimisation ont été développées sur différents logiciels comme Matlab et Abaqus.
Différentes applications académiques et industriels ont été modélisées et optimisées
pour valider les différentes méthodologies proposées dans ce mémoire de thèse.

1.2 Contexte scientifique et industriel de la thèse


1.2.1 Contexte industriel
Dans les secteurs industriels du transport (automobile, aéronautique, ferroviaire)
illustrés sur la figure 1.1 et de l’énergie, l’optimisation des procédés de fabrication qu’ils
soit primaire (emboutissage, hydroformage, forgeage, ..), secondaire (usinage, ..) ou
tertiaire (traitement thermique, de surface, grenaillage, . . . ) devient indispensable pour
maitriser au plus juste coût la qualité, l’usage de matières premières de plus en plus oné-
reuses et minimiser les énergies de transformation mises en jeux. Les enjeux techniques
et économiques sont souvent plus importants pour les procédés primaires de mise en
forme par grandes déformations des matériaux. En effet ces procédés sont les seuls à
pouvoir produire des composants à très hautes performances pour l’automobile (pièces
mobile de moteur, de liaison au sol,...), l’aéronautique (turbine, pièces de transmissions,
éléments de train d’atterrissage,...), l’énergie (éléments de cuve de réacteur nucléaire,
arbre de turbine,...). Tout gain de masse sur ces composants permet des gains de masse
induits très important sur le produit. De plus, dans ces procédés, les énergies de mise en
œuvre (grandes déformations à froid ou à chaud des matériaux) sont conséquentes et en
particulier dans les productions en grande série.

Par ailleurs, les industriels utilisent maintenant de manière assez systématique les
outils de simulation numérique pour finaliser la conception de ces composants. Des
outils nécessaires et la mise au point des gammes, sont parfois complexes car nécessitant
de nombreuses opérations de mise en forme. Cependant, en raison de la complexité des
1.2. Contexte scientifique et industriel de la thèse 3

modèles de comportement utilisés dans les outils de simulation les plus performants,
les temps de simulation restent significatifs. Cette contrainte limite l’usage de ces outils
dans des démarches itératives des plans d’expériences numériques souvent nécessaires
lorsque l’on souhaite optimiser ces procédés. A cette contrainte se rajoute d’autres dif-
ficultés liées à la prise en compte des technologies différentes des machines utilisées,
les spécificités métiers et du fait que pour des composants complexes, les procédés
primaire mettent en œuvre non pas une opération mais plusieurs opérations de mise en
forme, toutes interdépendantes. Ces éléments montrent que finalement l’optimisation
de ces procédés soulève deux classes de problématiques. La première classe concerne
la simulation numérique du procédé et les techniques d’optimisation associées. Ici on
peut distinguer plusieurs niveaux : celui des modèles de comportements des matériaux,
celui des outils numériques permettant d’évaluer ces modèles et celui lié aux techniques
numériques d’optimisation. La seconde classe est relative à la formulation de problème
d’optimisation prenant en compte une réalité industrielle toujours très complexe et
toujours fortement dépendante d’une expérience métier propre à une entreprise. Le
projet proposé se situe dans la première classe de problématique et adresse les niveaux
liés aux outils numériques d’évaluation des modèles de comportement et aux techniques
numériques d’optimisation.

Il nous paraît nécessaire de souligner ici quelques éléments de contexte spécifique


à l’ancienne région Champagne Ardenne qui a concentré environ 30% des activités de
mise en forme du marché national. On compte en effet une quarantaine d’entreprises
travaillant dans ce secteur, répondant ainsi aux grands donneurs d’ordres de l’industrie
automobile et aéronautique. Le maintien dans ce marché des entreprises sous-traitantes
de la région passe nécessairement par un développement significatif de leur outils et
moyens d’études et de leur capacité d’innovation. La capacité d’un industriel à fournir
dans les meilleurs délais des devis plus précis, au plus proche des coûts qui seront
réellement engagés reste un des éléments clés de sa compétitivité.

1.2.2 Contexte scientifique


L’utilisation raisonnée d’essais expérimentaux pour optimiser les procédés de fabrica-
tion est très ancienne. Les progrès de la simulation numérique ont permis de remplacer
très avantageusement, l’expérimentation par la simulation (la figure 1.2 illustre un
exemple d’expérience et simulation du procédé d’emboutissage d’aile de voiture). Mais
en raison des temps de calculs significatifs, surtout pour des modèles fins donc plus
prédictifs, il est difficile d’envisager qu’une simulation numérique fine du procédé soit
mise en œuvre pour chaque itération du processus d’optimisation. Cette problématique
n’est d’ailleurs pas limitée aux procédés de fabrication, elle concerne également tous les
problèmes d’optimisation mettant en œuvre des modèles de comportement couteux à
évaluer.

Pour s’affranchir de cette contrainte, les démarches développées dernièrement dans


l’optimisation des procédés consistaient à construire un modèle intermédiaire, très
4 CHAPITRE 1. Introduction

(a) (b)

Figure 1.2 – Emboutissage d’aile voiture : (a) expérience, (b) simulation numérique

rapide à évaluer, à partir d’un nombre limité de simulations numériques du procédé. Il


existe de nombreuses techniques pour construire ce modèle intermédiaire dénommé
"métamodèle" ou "surface de réponse" en fonction des techniques utilisées. Par exemple,
Dornberger [46] utilise comme modèle intermédiaire des fonctions d’apprentissage
organisées en réseaux (réseaux de neurones) pour optimiser la conception d’aubes de
turbines de moteur d’avion. On peut citer Ong [136], où sont utilisées des fonctions
à base radiale pour optimiser la forme d’une aile d’avion. Emmerich [52] a utilisé des
techniques de "krigeage" issues de la géostatistique pour optimiser des profils d’aile
d’avion. Forrester [54] a introduit les avances dans l’optimisation à base du modèle
de substitution et leur application dans les simulations numériques de la dynamique
des fluides. Dans le procédé de mise en forme, Brietkopf [20] a proposé une technique
d’approximation basée sur les moindres carrés mobiles pour construire une surface de
réponse pour des problèmes d’optimisation d’emboutissage de tôles. D’autres travaux
scientifiques, Ejday et Fourment [49], [48], ont proposé d’utiliser des techniques de
différences finies sans maillage pour construire le métamodèle pour des problèmes
d’optimisation de forgeage. Récemment, Laurent [102], [103] a développé un outil du
métamodèle en prenant le gradient pour l’optimisation d’assemblage et de structure.

Enfin, on peut citer les travaux de Meng [118] [117] qui a cherché la meilleure combi-
naison surface de réponse/algorithme d’optimisation pour des problèmes d’optimisation
paramétrique d’outillages de forgeage combinant plusieurs opérations de mise en forme.
Nguyen [130], [99] a utilisé les métamodèles pour l’optimisation robuste d’un procédé
d’emboutissage. Ces travaux ont étés effectués au sein de l’équipe LASMIS de l’ICD de
l’Université de Technologie de Troyes.

Ces démarches présentent de nombreux avantages comme celui de séparer le niveau


optimisation et le niveau simulation du procédé gage de souplesse et de modularité. Elles
permettent ainsi de réutiliser des codes de simulation existants, de piloter à distance ces
simulations sur de gros calculateurs parallèles, d’intégrer facilement de nouveaux outils
de simulation. Néanmoins elles présentent aussi des inconvénients intrinsèques à leur
1.3. Problème d’optimisation des procédés de mise en forme 5

structure. En effet, ces modèles intermédiaires, ou "métamodèles" sont construits sur


une fonction scalaire. C’est-à-dire, ils ne sont construits que sur les valeurs de la fonction
objectif. Cela conduit à une approximation pas assez bonne lorsque l’on considère des
fonctions objectif qui se formulent sur un champ spatial (par exemple : le déplacement,
la déformation ou la contrainte, etc).

D’autres démarches ont été proposées. Au lieu d’introduire un modèle intermédiaire,


elles consistent à construire un métamodèle ou un modèle réduit du modèle de com-
portement initial et d’utiliser ce modèle réduit plus facile à évaluer pour l’optimisation.
Dans le cas des modèles de comportement formulés à partir d’équations aux dérivées
partielles résolues par éléments finis, le principe de décomposition propre orthogonale
(Proper Orthogonal Decomposition, POD) a été récemment proposé par Audouze [5],
Chinesta [30]. Ce principe peut être mise en œuvre de deux manières :

— De façon intrusive, en opérant dans le cœur du modèle éléments finis avec l’ap-
proche POD-Galerkin [148], [36], au prix d’une plus grande complexité algorith-
mique mais en garantissant une meilleure restitution de la physique du modèle.

— De façon non-intrusive externe au modèle éléments finis avec les approches de


type POD-RBF [6], POD-krigeage [194] ou POD-Approximation diffuse [141],
[193] par exemple, au prix d’une perte de représentativité de la physique mais en
gagnant dans la simplicité algorithmique.

Le modèle haute-fidélité évalué très coûteux sera alors remplacé par le métamodèle
d’un champ spatial qui permet d’évaluer très rapidement au cours du processus d’opti-
misation.

1.3 Problème d’optimisation des procédés de mise en forme


Le problème d’optimisation des procédés de mise en forme décrit ci-dessus peut être
formalisé mathématiquement de la manière suivante :



⎪ x∗ = arg minx∈D f (u(x))
Trouver x∗ tel que ⎪

s.c : (1.1)



⎩g (x) ≤ 0 (ou g (u(x) ≤ 0)), i = 1, 2, ..., m

i i

où D est l’espace des paramètres ou l’espace de conception des paramètres. La fonction f


représente un objectif à optimiser et les fonction (gi )i=1,2,...,m représentent des contraintes
métiers à respecter. Le vecteur u(x) représente un champ spatial (par exemple : la co-
ordonnée, le déplacement, la déformation ou la contrainte, etc) associé au vecteur des
variable x. Il est à noter que ces fonctions sont considérées comme des fonctions coû-
teuses à chaque u(x) évalué par le modèle haute-fidélité (exemple les réponses dans la
6 CHAPITRE 1. Introduction

simulation par éléments finis). De plus, aucune information sur les gradients associés
n’est disponible (les logiciels commerciaux ne fournissent pas ce type d’information).
Il est nécessaire de faire le pré-calcul pour les échantillons initiaux dans l’espace de
conception D. Ensuite, la base de données des pré-calcul est utilisée pour construire un
modèle réduit, puis le métamodèle de u(x). Pour ce faire, une technique de réduction
dimensionnelle permet de construire le modèle réduit qui est composé des bases réduites
et des coefficients modaux. Ensuite, le modèle d’approximation est utilisé pour chaque
coefficient en utilisant les métamodèles d’une fonction scalaire sur l’espace de concep-
tion (krigeage, fonctions de base radial, réseau de neurones, etc.). En combinant les bases
réduites et les modèles d’approximation construits, le modèle haute-fidélité peut être
remplacé par le métamodèle d’un champ spatial à tout point sur l’espace des paramètres.

En remplaçant ce métamodèle dans le problème 1.1, un sous-problème se formule


comme suit :



⎪ x̂∗ = arg minx∈D f (û(x))
Trouver x̂∗ tel que ⎪

s.c : (1.2)



⎩ĝ (x) ≤ 0 (ou g (û(x) ≤ 0)), i = 1, 2, ..., m

i i

où û(x) désigne le métamodèle d’un champ spatial. Le problème 1.2 est résolu très
rapidement par les méthodes d’optimisation stochastique grâce à la disponibilité de
l’information et l’évaluation rapide de û(x). La solution optimale x̂∗ de ce problème
devient un nouveau point qui est ensuite évalué par le modèle haute-fidélité dans l’étape
suivante. En même temps, ce nouveau point est ajouté dans le plan d’expériences pour
avoir une meilleure approximation du métamodèle dans les zones prometteuses, i.e.
les zones susceptibles de contenir les optima, ou dans les zones non explorées. De
plus, lorsque le métamodèle û(x) est construit, on peut aussi utiliser les informations
exploitées pour les critères de remplissage au cours de l’optimisation. Les stratégies
d’optimisation seront présentées en détail dans le chapitre 4.

L’optimisation des procédés de mise en forme nécessite la définition des fonctions


objectifs représentant la qualité des composantes obtenues. Ces fonctions sont rela-
tives à la précision de forme d’une pièce finale, aux distorsions de surface (flambage,
plissement, défauts d’aspect...) ou aux variances d’épaisseur (épaississement, rupture
ductile, striction...), aux quantités de matières (aire des surfaces additionnelles, volumes
d’habillages). Dans un processus d’optimisation, ces fonctions sont considérées soit
comme des fonction objectifs soit comme des fonctions contraintes suivant la stratégie
choisie pour l’optimisation. Pour la suite, on va présenter quelques types de fonctions.

1.3.1 Optimisation de forme


Dans les procédés de mise en forme. Il est souvent intéressant de contrôler l’écart
entre la pièce mise en forme et la pièce réellement souhaitée au départ par une définition
CAO. La construction d’une fonction erreur entre géométrie obtenue après emboutissage
1.3. Problème d’optimisation des procédés de mise en forme 7

(forgeage, hydroformage, etc) par rapport à la géométrie souhaitée pour la composante


par la CAO est alors utulisée. Une forme générale pour cette fonction peut être écrite de
la manière suivante [94] :
⎞ ⎞1 ⎞ ⎞1
⎜⎜∑ ⎜⎜ X CAD − X FEM ⎟⎟p ⎟⎟ p 1 CAD ⎟q ⎟ q
⎛N ⎛ ⎛N ⎛ FEM
1 ⎜⎜∑ X − X
α ⎜⎜⎝ i i ⎜⎜ (1 − α) ⎜⎜⎜ i i

Fobj = ⎟⎟ ⎟⎟⎟ + (1.3)
⎜⎜ ⎟⎟ ⎟⎟⎟
N CAD N CAD
⎜⎝ ⎜⎝ ⎟⎠ ⎟⎠
X Xi
⎠ ⎠ ⎝
i=1 i + i=1 +

où X CAD représente la position géométrique founie par le modèle CAO, X FEM repré-
sente la position géométrique résultant de la simulation, N représente le nombre de
points géométriques pris en compte pour évaluer la distance, α est le coefficient de
pondération,p et q définissent la norme utilisée pour évaluer la distance, (.)+ est l’opéra-
teur partie positive défini par : (A)+ = A si A > 0 et A = 0 sinon. Cet opérateur permet de
distinguer les points selon que l’on se trouve en dessous ou au-dessus de valeurs X CAD .

1.3.2 Optimisation du produit

Une manière simple de qualifier et de quantifier la qualité d’un composant embouti


est d’utiliser la distribution d’épaisseur à la fin du procédé. Les conditions optimales
correspondent au cas où ni l’épaississement ni l’amincissement ne prendraient des
valeurs excessives. Cette fonction peut être représentée par l’expression suivante [94] :
⎛N ( )p ⎞ p1 ⎛N ( )q ⎞ 1q
1⎜ ∑ h − hi ⎟⎟⎟ 1 ⎜⎜ (1 − α) hi − h0 ⎟⎟⎟
⎜⎜∑
α 0
⎜ ⎟
Fobj = ⎜⎜⎜⎝ ⎟⎟ + (1.4)
N h0 + ⎠ N h0
⎜⎝ ⎟⎠
i=1 i=1 +

avec les mêmes définitions que pour l’équation 1.3 et où h0 représente l’épaisseur initiale
et hi représente l’épaisseur au nœud i du point considéré pour la composante.

Cette fonction prend en compte l’amincissement par le biais du premier terme et


l’épaississement par l’intermédiaire du second.

Cette fonction permet d’éviter des variances importances de l’épaisseur. En effet


une trop grande diminution d’épaisseur est propice à l’apparition de striction et un
épaississement peut correspondre à l’apparition d’un pli.
8 CHAPITRE 1. Introduction

Déformation majeure
0.6 flc
1 2
)
d
0.4
i i
2 1
)
0.2
Courbe limite de formage
Point de coordonnées
0 2
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure

Figure 1.3 – Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF)

1.3.3 Optimisation de l’engagement matière ou de la surface initiale de la


pièce
Cette fonction permet de minimiser la surface initiale du flan tout en gardant une
bonne formabilité pour le composant :
N
∑ elem

Fobj = Ae (1.5)
e=1
⎧ max(h −h )
i 0

⎪ h0 ≤ htolh
avec les contraintes ⎪ (1.6)

min(h0 −h i )

⎩ ≥ −htolb
h0

où Ae est l’aire initiale de l’élément e, h0 est l’épaisseur initiale, hi est l’épaisseur du


nœud i, htolh et htolb sont des tolérances respectivement pour l’épaississement et
l’amincissement.

1.3.4 Fonction qualités construites à partir des courbes limites de formage


Cette fonction permet de quantifier le risque de rupture et de définir le critère de
rupture. Ce critère peut être défini par la valeur maximale de la distance entre le point
de coordonnées (ε1i , ε2i ), avec ε1 , ε2 désignant à la déformation majeure et la déformation
f lc
mineure, le point de coordonnées ((ε1 )i , ε2i ) en tenant compte de la marge de sécurité
considéré. Ce principe peut être formulé comme suit :
f lc
Fobj = max (ε1i − (ε1 )i ) (1.7)
1≤i≤m

La figure 1.3 illustre le principe du critère de rupture basé sur la courbe limite de
formage, en présentant des exemples de point acceptables.
1.4. Objectif et organisation de la thèse 9

1.4 Objectif et organisation de la thèse


1.4.1 Objectif
Ce travail a pour objectif de coupler les deux méthodes : la réduction dimensionnelle
et le métamodèle traditionnel dans le contexte d’optimisation. Le nouveau métamodèle
obtenu est ensuite couplé à différentes stratégies d’optimisation (mono ou multiobjectif)
et différentes méthodes d’enrichissement ou d’adaptation itérative du plan d’expé-
rience numérique. Différents problèmes d’optimisation de procédés de mise en forme
(emboutissage, hydroformage, . . . ) sont ensuite préséentés pour tester et valider les
méthodologies proposées.

1.4.2 Organisation de la thèse


Ce mémoire commence, au chapitre 2, par une description succincte de l’état de l’art
sur les méthodes d’optimisation proposées dans la littérature, puis une discussion pour
expliquer les choix qui ont été faits au cours de la thèse.

Le chapitre 3 décrit ensuite différents types de métamodèle (RBF, Krigeage, . . . ).


Différentes stratégies d’adaptation de différents métamodèles sont présentées et clos de
chapitre.

Le chapitre 4 regroupe les différents choix de métamodèles et d’algorithmes d’opti-


misation retenus pour ce travail de thèse. Les différentes méthodologies d’optimisation
seront plus largement détaillées et développées. Différents tests académiques seront
utilisés pour valider partiellement les méthodologies d’optimisation proposées.

Pour finir, différentes applications d’optimisation et de contrôle des paramètres de


forme d’outillages ou des paramètres de contrôle de procédés de mise en forme sont
réalisées. Le premier cas présente un procédé d’emboutissage d’une tôle en U proposé
lors de la conférence Numisheet2011, le second cas s’intéresse au contrôle optimale
d’hydroformage d’un tube en forme de Y. Pour finir, une application industrielle d’em-
boutissage d’une aile de voiture Safrane est traitée. Ces trois applications permettent de
valider les stratégies développées dans cette thèse.

Enfin, les perspectives de ce travail sont présentées dans la dernière partie du


mémoire.
10 CHAPITRE 1. Introduction
Chapitre 2
Méthodes d’optimisation : état de l’art

Sommaire du chapitre
2.1 Introduction 11
2.2 Méthode d’optimisation de type déterministe 14
2.2.1 Méthodes de descente de gradient . . . . . . . . . . . . . . 14
2.2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Méthode de quasi-Newton . . . . . . . . . . . . . . . . . . . 15
2.2.4 Méthode de la région de confiance . . . . . . . . . . . . . . 16
2.3 Méthodes pour l’optimisation sous contraintes 17
2.4 Méthodes stochastiques 18
2.4.1 Algorithme génétique . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.3 Optimisation par essaims particulaires . . . . . . . . . . . . 20
2.5 Multi-objectif 21
2.5.1 La dominance de Pareto . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Optimum de Pareto . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.3 Front de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Résoudre l’ensemble de Pareto optimal . . . . . . . . . . . . 24
2.6 Optimisation et métamodèle 25
2.7 Conclusion 28

2.1 Introduction
Dans le contexte de l’optimisation en ingénierie mécanique, le point d’entrée est
souvent le problème d’optimisation à résoudre. Il paraît alors naturel de présenter les
grandes familles d’algorithmes en fonction des types de problèmes qu’elles peuvent

11
12 Méthodes d’optimisation : état de l’art

traiter. Les problèmes d’optimisation peuvent se formuler en générale de la manière


suivante :

Problème 2.1 : Optimisation sans contrainte

Trouver (x∗ , f (x∗ )) ∈ D × R, solution de : min f (x) (2.1)


x∈D

Où x est le vecteur Np des paramètres tel que x = {x1 , x2 , ..., xNp } et D le domaine des so-
lutions du problème (D ⊂ RNp ). L’objectif de ce problème consiste à trouver le minimum
ou les minimas x∗ de la fonction f (x) que l’on nommera fonction objectif. Généralement,
on préfère une écriture laissant apparaître explicitement la nature de D, l’ensemble des
solutions en le définissant par plusieurs fonctions d’inégalités ou d’égalités. Il est alors
nécessaire de considérer un problème d’optimisation sous contraintes qui s’écrit dans le
cadre général sous la forme suivante :

Problème 2.2 : Optimisation sous contraintes

Trouver (x∗ , f (x∗ )) ∈ D × R, solution de : min f (x) (2.2)


x∈D

⎨h(x) = 0


tel que : ⎪
⎩g(x) ≤ 0

Où h(x) et g(x) sont les fonctions contraintes. La recherche des minimas d’une fonction
peut faire apparaître deux types de minimas : des minimas globaux et locaux (voir Figure
2.1). Dans quasiment tous les domaines scientifiques, chimie, physique, mathématique,
ingénierie, économie, on souhaite trouver le minimum global de la fonction objectif
sans pour autant être pénalisé par la présence de minimas locaux. En effet, parmi les
méthodes d’optimisation numériques, on peut distinguer deux catégories : les méthodes
capables de trouver le minimum quasi-global d’une fonction tout en étant capable de
s’affranchir des minimas locaux et celles dédiées à la recherche locale de minima autour
d’un point initial. Les méthodes de la deuxième catégorie, du fait de leur comportement,
ne parviennent généralement pas à trouver le minimum global d’une fonction si le point
initial n’est pas judicieusement choisi. Dans cette section, on résume brièvement deux
méthodes permettant de résoudre un problème d’optimisation déterministe.

Problème 2.3 : Optimisation multi-objectifs

D’autres problèmes que l’on rencontre bien souvent, sont des problèmes multicritères
au sens où l’on cherche fréquemment un compromis parmi des critères contradictoires.
2.1. Introduction 13

8
f(x)
6 Trajectoire de locale optimisation
Minimum local
Minimum global
4

0
f(x)

-2

-4

-6

-8

-10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x

Figure 2.1 – Un exemple des pièges de l’optimisation locale compte tenu de la fonction
Forrester multimodale, f (x) = 0.5(6x − 2)2 sin(12x − 4) + 10(x − 0.5) − 5 où x ∈ [0, 1]

La formulation mathématique de ce type est décrit comme suit

Trouver (x∗ , fi (x∗ )) ∈ D × Rm , i = 1, 2, ..., m (2.3)


solution de : min{f1 (x), f2 (x), ..., fm (x)}, (2.4)
x∈D

⎨h(x) = 0


tel que : ⎪ (2.5)
⎩g(x) ≤ 0

Où m est le nombre de fonctions objectifs et h(x) et g(x) sont des fonctions contraintes.
Dans la majorité des problèmes d’optimisation multi-objectif, il n’existe pas de solution
unique qui optimise simultanément tous les objectifs. Dans ce cas, les fonctions objectifs
sont dites contradictoires et il existe un nombre de solutions optimales de Pareto. Une
solution est appelée non-Pareto optimale si aucune des fonctions objectifs ne peut être
améliorée sans dégrader les autres objectives. Sans informations supplémentaires sur les
préférences subjectives, toutes les solutions optimales de Pareto sont considérées aussi
bonnes. Le résultat d’un processus d’optimisation, mono-objectif ou multi-objectif, est
une solution qui correspond le mieux aux exigences formellement et/ou informellement
spécifiées. Dans le cas où plusieurs critères d’optimisation sont énoncés dans le problème
d’optimisation, une solution de compromis doit être recherchée parmi un ensemble de
plusieurs solutions optimales.
14 CHAPITRE 2. Méthodes d’optimisation : état de l’art

2.2 Méthode d’optimisation de type déterministe


Les méthodes déterministes sont des méthodes basées sur des recherches dites
locales afin de trouver une solution qui possède des propriétés locales. Le principe
de ces méthodes est de partir d’une solution initiale et de déterminer un chemin de
descente vers le minimum le plus proche. La solution obtenue dépend donc de la solution
initiale. Quelques algorithmes classiques d’optimisation locale seront décrits brièvement
dans la suite. D’abord, les algorithmes d’optimisation sans contrainte seront introduits.
Des algorithmes dédiés pour résoudre des problèmes d’optimisation locale avec les
contraintes seront ensuite rappelés. Il existe différents types de méthodes d’optimisation
locale qui sont enfin présentées.

2.2.1 Méthodes de descente de gradient


Les méthodes de descente de gradient sont des algorithmes d’optimisation classiques.
Fondamentalement, ces algorithmes utilisent les gradients des fonctions du problème
pour progresser de manière itérative vers la solution. Ce gradient peut être déterminé
analytiquement dans le meilleur des cas ou calculé numériquement par différence
finie. A partir d’un point de départ de variable xk , on trouve itérativement des variables
améliorant la valeur de la fonction objectif. Ayant accès à la valeur de la fonction et de ses
dérivées ∇f (xk ) pour le variable xk , le principe consiste à chercher à l’itération suivante
les variables de telle sorte que la valeur objectif soit plus petit que la valeur objectif
de l’itération précédente. Le nouveau point xk+1 regroupant les variables obtenue est
donné par l’expression suivante :

∇f (xk )
xk+1 = xk − λk , λk > 0 (2.6)
∥∇f (xk )∥

Une suite de point x0 , x1 , ..., xn est alors obtenue. On s’approche de l’optimum. λk définit
le pas de déplacement à chaque itération. Si le pas de déplacement a une valeur donnée,
la méthode s’appelle à pas déterminé.

2.2.2 Méthode de Newton


L’algorithme de Newton sont l’un des algorithmes d’optimisation locale les plus
populaires dans les cas de fonction objectif analytique. Cette méthode est aussi une
méthode d’ordre 2. Les fonctions objectifs sont approximées au second ordre par le
développement de Taylor autour du point considéré xk .

1
f (xk + ∆x) ≃ f (xk ) + ∇f T (xk )∆x + ∆xT ∇2 f (xk )∆x (2.7)
2

Soit ∆x = s, ∇f (xk ) = g k et ∇2 f (xk ) = H k la matrice Hessienne qui est définie positive. La


direction de descente s est choisit pour minimiser l’approximation précédente au point
2.2. Méthode d’optimisation de type déterministe 15

xk + sk . On obtient alors :

sk = −(H k )−1 g k (2.8)

En supposant que la matrice Hessienne est définie positive, on aura ainsi :

(g k )T sk = −(sk )T H k sk < 0 (2.9)

Alors, la solution itérative est alors déterminée comme suit :

xk+1 = xk − (H k )−1 g k (2.10)

Cette méthode est bien reconnue par son efficacité. Mais le principal inconvénient réside
dans le calcul des dérivées secondes de f qui s’avère le plus souvent coûteux et très
difficile à réaliser. Un certain nombre d’algorithmes se proposent ainsi de contourner
cette difficulté en utilisant des approximations de la matrice Hessienne. On peut men-
tionner le cas particulier où f peut s’écrire sous forme de moindres carrés. On obtient
alors une approximation de la matrice Hessienne en ne considérant que les produits
des gradients. Cette méthode est bien adaptée surtout pour les problèmes de petites
dimensions puisque le calcul de la matrice Hessienne est facile. Alors que si le pro-
blème présente un grand nombre de variables, il est généralement conseillé de coupler
celle-ci avec la méthode du gradient conjugué ou une méthode de Quasi-Newton. Ou
bien, lorsque l’amélioration relative de la fonction objectif devient trop faible, on passe
automatiquement à la méthode du gradient conjugué.

2.2.3 Méthode de quasi-Newton

Les méthodes de Quasi-Newton sont des méthodes d’ordre 1 qui s’obtiennent par
des approximations successives à la méthode de Newton. Il s’agit de retrouver une
approximation de la matrice Hessienne pour chaque itération sans calcul des dérivées
seconde ni de l’inverse de ces dernières. Si on considère le développement en série de
Taylor à l’ordre 1 du vecteur gradient défini dans le paragraphe précède autour du point
xk :

g (k+1) = g (k) + H (k) (xk+1 − xk ) (2.11)

Si on définit les vecteurs suivants tel que :

y k = g (k+1) − g (k) s(k) = xk+1) − xk (2.12)

On remplace ces deux dernières expressions dans l’équation 2.9 pour obtenir :

y (k) = H (k) s(k) (2.13)


16 CHAPITRE 2. Méthodes d’optimisation : état de l’art

Pour une nouvelle approximation des paramètres xk+1 telle que g (k+1) est nul, on déduit
que :

y k = −g (k) (2.14)

En remplaçant dans l’équation précédente il vient que :

s(k) = (H (k) )−1 y k = −(H k )−1 g (k) (2.15)

Cette dernière équation est identique à celle formulée dans le cas de la méthode de
Newton décrite comme l’équation 2.8. Le principe donc des méthodes de Quasi-Newton
est de remplacer l’inverse de la matrice Hessienne par une matrice s(k) qui sera actualisée
pour chaque itération et que celle-ci soit une approximation de l’inverse de la matrice
Hessienne. Le principe de ces méthodes a été proposés par Broyden, Fletcher, Goldfarb
et Shanno nommée BFGS [21], [40].

2.2.4 Méthode de la région de confiance

L’idée de la méthode dite de région de confiance est développée au fil des années
avec de nombreux articles importants par une douzaine de pionniers. Une bonne revue
historique des méthodes de la région de confiance peut être trouvée dans [184], [33].
Dans l’algorithme de région de confiance, une étape fondamentale consiste à approxi-
mer la fonction objectif non-linéaire en utilisant des expansions de Taylor tronquées,
souvent sous une forme quadratique qui est la forme de la région de confiance d’un
hyperellipsoïde. L’approximation de la fonction objectif dans la région de confiance
simplifiera la recherche de la solution d’essai suivante xk+1 de la solution actuelle xk .
Ensuite, on a l’intention de trouver xk+1 avec une diminution suffisante de la fonction
objectif. L’approximation φk à l’objectif réel f (x) peut être mesurée par le rapport de la
diminution obtenue et de la diminution prévue :

f (xk ) − f (xk+1 )
γk = (2.16)
φk (xk ) − φk+1 (xk+1 )

Si ce rapport est proche de l’unité, on a une bonne approximation, puis on doit déplacer
la région de confiance vers xk . La région de confiance doit se déplacer et se mettre à jour
de manière itérative jusqu’à ce que l’optimalité soit trouvée ou jusqu’à ce qu’un nombre
fixe d’itérations soit atteint.

Tous ces algorithmes sont déterministes, car ils n’ont pas de composantes aléatoires.
Ainsi, ils ont généralement quelques inconvénients à traiter des problèmes d’optimisa-
tion globaux non-linéaires, multimodaux. En fait, une certaine randomisation est plus
utile et nécessaire dans les algorithmes, et les algorithmes méta-heuristiques sont des
techniques aussi puissantes.
2.3. Méthodes pour l’optimisation sous contraintes 17

2.3 Méthodes pour l’optimisation sous contraintes


La résolution du problème 2.2 peut être envisagée par de très nombres différents
algorithmes. En dépendant des types de la fonction objectif et des fonctions contraintes
(contraintes d’égalités et d’inégalités), on peut d’abord catégoriser quelques méthodes
pour résoudre ces problèmes par les algorithmes suivant :

— La programmation linéaire qui consiste en la minimisation d’une fonction objec-


tif linéaire soumise à un ensemble de contraintes linéaires sur des variables.

— La programmation quadratique qui consiste à résoudre un problème d’optimi-


sation dans lequel on minimise (ou maximise) une fonction quadratique avec les
fonctions contraintes qui sont linéaires.

— La programmation non-linéaire qui consiste à minimiser une fonction non li-


néaire soumise à des contraintes non linéaires.

— L’optimisation quadratique successive qui consiste à déterminer des paramètres


qui minimisent une fonction, tout en respectant des contraintes d’égalité et d’in-
égalité sur ces paramètres. On parle aussi de l’algorithme OQS pour Optimisation
Quadratique Successive ou de l’algorithme SQP (Sequential Quadratic Program-
ming).

Pour les problèmes d’optimisations sous contraintes, on peut classer deux techniques de
manipulation de contraintes non-linéaires suivant :

— Les méthodes de pénalisation permettent de remplacer un problème d’optimi-


sation avec les contraintes non-linéaires par l’optimisation sans contrainte de la
forme :

min fc (c, x) avec fc (c, x) = f (x) + cP (x) (2.17)


x∈D

où c est une constante positive et P (x) est une fonction de pénalité prenant des
valeurs importantes lorsque les contraintes ne sont pas vérifiées. Le choix de valeur
c influence au la résolution du problème d’optimisation. Bien sûr, cette influence
est contrebalancée par f (x). Par conséquent, si l’ampleur du terme de pénalité est
faible par rapport à l’amplitude de f (x), la minimisation de fc (c, x) ne conduira
presque certainement pas à un x qui serait une solution faisable au problème
original. Cependant, si la valeur de c est suffisamment grande, le terme de pénalité
exigera un coût si lourd pour toute violation de contrainte que la minimisation de
la fonction objectif augmentée donnera une solution faisable.
18 CHAPITRE 2. Méthodes d’optimisation : état de l’art

— la méthode des multiplicateurs de Lagrange permet de trouver les points sta-


tionnaires (maximum, minimum. . . ) d’une fonction dérivable d’une ou plusieurs
variables, sous contraintes suivant :

minx∈D fλ (x, λ) avec fλ (x, λ) = f (x) + λg(x) (2.18)

où λ sont des multiplicateurs de Lagrange. Le problème d’optimisation initial


visant à trouver le minimum de la fonction objectif sous les contraintes g(x ≤ 0
transforment alors un problème d’optimisation sans contrainte. Puis, on peut
résoudre ce problème par les algorithme d’optimisation sans contrainte.

2.4 Méthodes stochastiques


2.4.1 Algorithme génétique
L’algorithme génétique est l’une des méthodologies d’optimisation stochastique les
plus populaires. Initialement développé par Holland [72], Les algorithmes génétiques
s’inspirent de la théorie Darwinienne de la sélection naturelle, selon laquelle les traits
désirables ou avantageux deviennent plus courants à mesure qu’une population se
reproduit et que des traits indésirables ou désavantageux disparaissent. Contrairement
aux techniques d’optimisation locales précédemment abordés, l’algorithme génétique,
ainsi que les autres méthodes stochastiques sont généralement des optimiseurs globaux.

L’algorithme génétique, comme la plupart des autres techniques d’optimisation sto-


chastique, utilise une population qui évolue progressivement au cours d’un certain
nombre de générations. C’est le mécanisme de l’évolution qui est unique à l’algorithme
génétique. Les algorithmes génétiques utilisent généralement trois opérateurs, «sélec-
tion», «croisement» et «mutation» dans la recherche d’un optimum global. Ces opéra-
teurs tentent de déplacer les membres d’une population loin des régions indésirables de
l’espace de conception et vers un optimum global. Ce sont les membres de la population
les plus faibles qui disparaissent progressivement, ne laissant que les membres les plus
forts pour se reproduire et donc profiter à l’espèce.

En termes d’algorithme génétique, la «condition physique» d’une population est


généralement dérivée de la fonction objectif par l’application d’une échelle appropriée.
Dans une minimisation, par exemple, les membres de la population qui minimisent
la fonction objectif ont le plus haut niveau de condition physique. Les membres d’une
population plus en forme sont plus susceptibles d’être sélectionnés pour la reproduction
et ajoutés au groupe d’accouplement. Ainsi, plus la valeur d’aptitude est élevée, plus les
caractéristiques de ce membre de la population seront transmises aux membres de la
nouvelle génération.

La sélection d’un certain nombre d’individus dans la population, afin de générer


une population intermédiaire (appelée aussi "mating pool") est suivie d’un croisement.
2.4. Méthodes stochastiques 19

Généralement deux individus, choisis au hasard dans le "mating pool", sont sélectionnés
pour le croisement. Dans le cas d’une population codée en binaire, le processus du
croisement implique l’échange de bits entre les parents qui aboutit à deux descendants.
Ces descendants forment alors la population de la prochaine génération.

La procédure finale est celle de la mutation qui implique l’altération d’une variable
choisie au hasard par une petite quantité pour une petite proportion de la progéniture.
Le processus de mutation implique une marche aléatoire à travers l’espace de conception
permettant à l’optimisation d’échapper des régions de minimas locaux et d’introduire un
niveau d’exploration globale. Les performances des algorithmes génétiques sont régies
par quatre paramètres importants, la taille de la population, la probabilité de croisement,
la probabilité de mutation et le nombre de générations pour lesquelles l’algorithme est
exécuté. La sélection des valeurs appropriées de ces paramètres affecte grandement la
convergence d’une optimisation. Beaucoup de temps et d’efforts peuvent être consacrés
à ajuster manuellement ces paramètres pour obtenir la meilleure performance d’un
algorithme génétique sur une gamme de problèmes, Keane [82], Gudla and Ganguli
[62].

2.4.2 Recuit simulé

Le recuit simulé est dérivé du domaine de la mécanique statistique, à savoir le travail


de Metropolis et al. [120] qui a été adapté par Kirkpatrick et al. [86] pour une utilisation
dans l’optimisation globale. En métallurgie, le recuit implique l’élévation de la tempéra-
ture d’une substance au-delà de son point de recristallisation. Puis l’abaissement lent de
la température permet encore la formation des cristaux optimaux dans la substance. Si
la température est abaissée trop rapidement, des cristaux sous-optimaux se forment. Le
recuit simulé est l’optimisation équivalente de ce processus par lequel le mouvement
d’un certain nombre d’atomes dans une substance à une température est simulé.

Le processus de recuit simulé commence avec un échantillonnage initial de l’espace


de conception en un certain nombre de points. Chaque point est l’équivalent d’un atome
dans un matériau chauffé. La fonction objectif est évaluée pour chaque "atome" et enre-
gistrée. Chaque atome subit alors une petite perturbation aléatoire et la fonction objectif
est recalculé dans cette nouvelle position. Cette perturbation aléatoire est acceptée si elle
entraîne une réduction de la fonction objectif par rapport à la position précédente. Le
choix des positions entraînant une réduction continue de la fonction objectif est analogue
au scénario de trempe rapide décrit précédemment et ne conduit qu’à des optima locaux.

Pour éviter que l’optimisation ne soit piégée dans les optimums locaux, une approche
probabiliste de la sélection de la position de l’atome qui entraîne une fonction objective
pire est introduite. Si la perturbation aléatoire d’un atome entraîne une fonction objective
plus mauvaise, la probabilité que ce mouvement soit accepté est donnée par le facteur
20 CHAPITRE 2. Méthodes d’optimisation : état de l’art

de probabilité de Boltzmann,
( )
−∆f
P = exp (2.19)
kB T

où ∆f est le changement de la fonction objective, kB est la constante de Boltzmann et


T est la température. Dans un algorithme de recuit simulé, un nombre aléatoire dans
l’intervalle [0,1] est sélectionné et comparé à ce facteur de probabilité, si ce nombre est
inférieur au facteur de probabilité, la nouvelle position de l’atome est retenue.

Au fur et à mesure de l’optimisation, la température est progressivement réduite


jusqu’à ce que le système se fige et que les atomes ne se déplacent plus librement. La
température de départ et la vitesse à laquelle la température diminue ont donc un
impact important sur les performances de l’optimisation.

Cet impact peut être vérifié quand on considère l’équation du facteur de probabilité.
Pour une température donnée, les perturbations dans un atome qui produisent de lé-
gères augmentations de la fonction objective sont plus susceptibles d’être acceptées que
celles qui entraînent une augmentation importante de la fonction objective. Lorsque la
température réduit la probabilité que ces perturbations soient acceptées, elle est réduite,
ce qui oblige l’optimisation à se déplacer vers les minimas locaux. Une température de
départ trop élevée entraîne une exploration globale de l’espace de conception avec peu
d’exploitation. Le taux de refroidissement détermine donc le taux d’optimisation d’une
exploration globale à une exploitation plus locale. Par conséquent, un examen attentif
de ces deux paramètres est nécessaire pour une optimisation efficace.

Comme l’algorithme génétique, le recuit simulé a été utilisé dans une variété de
problèmes d’optimisation impliquant un grand nombre de variables, par exemple l’op-
timisation de Latin Hypercubes, Morris et Mitchell [124], et a trouvé de nombreuses
applications dans la conception aérodynamique, Sherif et al. [160], Wang and Damoda-
ran [159].

2.4.3 Optimisation par essaims particulaires


L’algorithme des essaims particulaires est l’une des méthodes d’optimisation sto-
chastique les plus récentes, et aussi l’une des plus simples. Il a été développé à l’origine
par Eberhard et Kennedy [84] après qu’ils aient adopté la simulation du comportement
social de l’échantillon pour l’utiliser dans l’optimisation.

Comme l’algorithme génétique, les essaims particulaires s’inspire de la nature. Mais,


au lieu de modéliser des processus évolutifs, les essaims particulaires s’efforcent de
modéliser le comportement social d’une population d’animaux. "Simulations initiales
du comportement social" par Eberhard et al. [47] s’inspirait des travaux antérieurs de
Heppner et Grenander [69], où une volée d’oiseaux cherchait un champ de maïs avant
2.5. Multi-objectif 21

d’atterrir. Dans ces simulations, chaque membre de la population pouvait se souvenir


de sa meilleure position antérieure, chaque membre pouvait alors «voir» la meilleure
position globale qu’un autre membre de la population avait trouvée. En permettant à
chaque oiseau de se souvenir d’une meilleure position précédente, les oiseaux qui ont
survolé une bonne position ont été ramenés à cette position. Permettre aux oiseaux de
voir la meilleure position mondiale actuelle, en termes sociaux, fournit au groupe une
norme que les autres membres du groupe tentent d’atteindre.

L’algorithme des essaims particulaires a grandi en popularité depuis leur création


par Eberhard et Kennedy. Ils ont été appliqués dans la conception des avions, Blasi et
Del Core [13], et comparés favorablement aux algorithmes génétiques et au recuit simulé
dans l’optimisation des profils aérodynamiques, Ray et Tsai [145], et les fonctions ana-
lytiques, Angeline, Brandstatter et Baumgartner [4], Venter et Sobieszcaznski-Sobieski
[185].

L’algorithme des essaims particulaires souffrent cependant des mêmes déficiences


d’exploitation que l’algorithme génétique, c’est-à-dire qu’ils sont capables de trouver
la région d’un plan optimal mais pas la réponse précise. Comme pour les algorithmes
génétiques, des efforts ont été faits pour améliorer les performances des essaims de
particules dans cette zone, avec l’introduction de deux essaims de particules hybrides
utilisant une recherche locale, Shu-Kai et al. [53] l’équation de mise à jour de la vitesse,
Noewl et Jannet [134], Ninomiya et Zhang [132]

2.5 Multi-objectif
Dans le problème d’optimisation multi-objectif 2.3, on vise à déterminer parmi
l’ensemble P ⊆ D (P est la région possible de l’espace de recherche D) de tous les
vecteurs qui satisfont aux contraintes ceux qui donnent les valeurs optimales pour
toutes les m fonctions objectifs, simultanément. L’ensemble des contraintes du problème
définit P . Une variables x qui satisfait toutes les contraintes, elle est alors une solution
faisable. Dans la suite, quelques concepts de base et définitions adoptés seront rappelés
dans l’optimisation multi-objectif et les méthodes pour la résolution des problèmes
multi-objectifs.

2.5.1 La dominance de Pareto


La dominance de Pareto est une composante importante de la notion d’optimalité
dans les problèmes multi-objectifs, elle est formellement définie comme suit :

Définition 1
Un vecteur de variables de décision x ∈ D domine un autre vecteur de variables de
décision x′ ∈ D, (dénoté par x ≼ x′ ) si et seulement si x est partiellement inférieur à x′ ,
22 CHAPITRE 2. Méthodes d’optimisation : état de l’art

c’est à dire :

1. ∀i ∈ {1, 2, ..., m}, fi (x) ≤ fi (x′ ), et


2. ∃i ∈ {1, 2, ..., m} : fi (x) < fi (x′ )

Définition 2

Un vecteur de variables de décision x ∈ H est non-dominé par rapport à H, s’il n’y


en a pas d’autre x′ ∈ H tel que f (x′ ) ≼ f (x). Pour dire qu’une solution domine une autre,
elle doit être strictement meilleure dans au moins un objectif, et plus mauvaise en aucun
cas.

2.5.2 Optimum de Pareto


La définition formelle de l’optimum de Pareto est fournie :

Définition 3

Un vecteur de variables de décision x∗ ∈ P ⊆ D est Pareto optimale si elle est non-


dominé par rapport à P .

En termes de mots, cette définition dit que x∗ est Pareto optimal s’il n’existe pas de
vecteur possible x qui diminuerait un objectif sans provoquer une augmentation simul-
tanée d’au moins un autre objectif (en supposant une minimisation). Cette définition
ne nous fournit pas une seule solution (dans l’espace des variables de décision), mais
l’ensemble de solutions qui forme le soi-disant ensemble optimal de Pareto P ∗ dont la
définition formelle est donnée par :

Définition 4

L’ensemble de Pareto optimal P ∗ est défini par :

P ∗ = {x ∈ H|x Pareto optimal } (2.20)

Les vecteurs qui correspondent aux solutions incluses dans l’ensemble optimal de Pareto
sont dits non-dominés.

2.5.3 Front de Pareto


Lorsque toutes les solutions non-dominées sont tracées dans un espace de fonction
objectif, les vecteurs non-dominés sont connus collectivement comme le front de Pareto
(P F∗).
2.5. Multi-objectif 23

min 𝑓2 (𝒙)
𝒙1∗

𝒙′𝑛
𝒙3∗
𝒙4∗

𝒙𝑛∗

min 𝑓1 (𝒙)

Figure 2.2 – Concepts du problème d’optimisation multi-objectifs.

Définition 5

Le front de Pareto est définit par :

P F ∗ = {f (x) ∈ Rm |x ∈ P ∗ } (2.21)

Le but d’un problème d’optimisation multi-objectif consiste à déterminer P ∗ à partir


de H de tous les vecteurs variables de décision qui satisfont les fonctions contraintes
dans le problème 2.3. Ainsi, en résolvant un problème d’optimisation multi-ojectif,
on cherche à ne pas en trouver un, mais l’ensemble des solutions représentant les
meilleurs compromis possibles entre les objectifs (ce que l’on appelle l’ensemble de
Pareto optimal).

À partir de la définition 1, une solution est meilleure que l’autre si elle est meilleure
dans un objectif et dans l’autre est égale.

On a deux solutions (x3 et x4 ) avec deux objectifs chacun dont x3 est meilleur dans
l’objectif 1 mais pire dans l’objectif 2, et x4 est meilleur dans l’objectif 2 mais pire dans
l’objectif 1. On dit alors qu’ils sont non dominés (voir la figure 2.2). On ne peut pas dire
que l’un est meilleur que l’autre. La figure 2.2 illustre la solution en jaune était égale
dans l’objectif 2 à x3 , alors la solution en jaune sera toujours dominée par x3 .

Dans la définition 2, l’optimum de Pareto est une solution telle qu’il n’existe aucune
autre solution dans l’espace de solution qui le domine. La figure 2.2 montre les solutions
optimales en bleu, vert et rouge.
Weighted Sum Method Weighted Sum Method
24 CHAPITRE 2. Méthodes d’optimisation : état de l’art
(Convex Case) (Non-Convex Case)

f2 f2

Domaine Domaine
faisable faisable
Frontière Frontière
Parento Parento
w1
w2
f1 f1
14
13

(a) Cas convexe (b) Cas non-convexe

Figure 2.3 – Front de Pareto pour cas non-convexe et cas convexe

A partir des définitions 4 et 5 nous avons dit que l’ensemble de Pareto optimal est
conforme à toutes les solutions optimales de Pareto (toutes les solutions non dominées)
et cet ensemble est connu comme le front de Pareto, la solution optimale d’un problème
d’optimisation multi-objectifs. Sur la figure 2.2, les solutions en bleu, rouge et vert sont
le front de Pareto. La solution en jaune est une solution dominée par x3 et x4 .

2.5.4 Résoudre l’ensemble de Pareto optimal


Une méthode intuitive pour résoudre un problème d’optimisation multi-objectif
consiste à écrire le problème multi-objectif en tant que problème objectif unique. C’est
ce qu’on appelle la scalarisation. La formulation de la somme pondérée du problème 2.3
est écrite comme :
m

min F (x) = wi fi (x) (2.22)
x∈D
i=1

⎨h(x) = 0


tel que : ⎪
⎩g(x) ≤ 0

où wi , i = 1, 2, ..., m les poids qui sont les compromis entre les fonctions objectifs. Ces
poids sont choisis proportionnellement à l’importance relative de l’objectif ; différentes
solutions le long du front de Pareto sont trouvées. Une limitation de la méthode de la
somme pondérée est qu’elle ne peut pas trouver les conceptions optimales de Pareto qui
se trouvent sur les parties non convexes du front de Pareto. Fig 2.3 illustre une grande
partie convexe et non convexe sur le front de Pareto. Des détails mathématiques sur
cette limitation peuvent être trouvés dans Caramia et Dell’Olmo [26]. Compte tenu des
limites de la méthode de la somme pondérée, d’autres méthodes ont été développées.
Un certain nombre de méthodes ont été listé dans Arora [25] tel qu’un algorithme
génétique multi-objectif, une méthode pondérée max-min, et une méthode de critère
2.6. Optimisation et métamodèle 25

global pondérée.

Les algorithmes génétiques sont des algorithmes d’optimisation itératifs qui entrent
dans la catégorie de l’optimisation évolutive discuté dans la section précédente. Les
avantages des algorithmes évolutionnistes sont qu’ils sont capables de résoudre des
problèmes d’optimisation continus, non continus et discrets. En outre, les algorithmes
évolutionnistes n’exploitent pas seulement les informations dont ils disposent, ils ex-
plorent aussi le domaine. Cela les empêche généralement de se coincer dans le bassin
d’attraction local comme l’aurait fait une méthode d’optimisation déterministe par
gradient. Les inconvénients des algorithmes évolutionnistes incluent qu’ils nécessitent
de nombreuses fonctions d’évaluation pour résoudre un problème, et ils n’atteignent
généralement pas la même précision que les méthodes d’optimisation déterministe.

La plupart des algorithmes évolutionnaires populaires sont basés sur le concept de


dominance de Pareto et impliquent une taille finie de la population à chaque génération.
L’un des algorithmes évolutionnaires multi-objectifs qui a été efficaces pour trouver
les solutions optimales de Pareto est l’algorithme génétique de tri élitiste non-dominé
(NSGA-II), développé par Deb et al [43]. Le détail de l’algorithme est décrit dans [42],
[91].

2.6 Optimisation et métamodèle


Bien que l’on puisse compter sur les méthodes stochastiques pour atteindre un opti-
mum global, elles nécessitent généralement un très grand nombre d’évaluations de la
fonction objective pour le faire. Ce n’est pas un problème lorsqu’on considère une fonc-
tion analytique simple ou des simulations informatiques de basse fidélité. Cependant,
lorsque la fonction objectif est évaluée à l’aide d’une simulation haute fidélité onéreuse,
le temps requis pour optimiser à l’aide d’une méthode stochastique peut être tout à fait
significatif. Même avec la parallélisation du calcul de la fonction objectif, il peut être
impossible d’utiliser une méthode d’optimisation stochastique pour certains problèmes.

Les métamodèles, également appelés modèle de surface de réponse ou modèles de


substitution vise à faciliter l’optimisation mais avec un nombre réduit d’évaluations de
fonctions objectifs. En général, la méthode d’optimisation stochastique décrite précé-
demment échantillonne une fonction objectif en plusieurs points, puis définit un nouvel
ensemble de points basé sur des mutations ou des translations à l’ensemble précédent. Le
métamodèle, cependant, vise à utiliser la fonction objectif calculée à un certain nombre
de points dans l’espace de conception pour construire un modèle de l’espace entier. Ce
modèle sert alors de substitut à l’original en utilisant un processus stochastique au lieu
de la simulation originale.

Comme avec toute procédure de modélisation, il existera des inexactitudes, l’opti-


mum renvoyé par la méthode stochastique est donc peu susceptible de correspondre à la
26 CHAPITRE 2. Méthodes d’optimisation : état de l’art

Stage 1

x1
x2 Trouver
Construire Evaluer condition Conception
. Plan d’expérience l’optimum
métamodèle
global
point d’arrêt Oui optimale
x Np

Non

Mise à jour
noveau point

Stage 2

Figure 2.4 – Organigramme de l’approche traditionnelle du métamodèle pour l’optimi-


sation

vraie solution optimale. Une stratégie de mise à jour est ensuite utilisée pour augmenter
la précision du modèle dans les régions indiquées comme optimales. Le modèle mis
à jour peut ensuite être recherché à nouveau pour fournir plus de points qui peuvent
être évalués à nouveau en utilisant la simulation haute fidélité. Le processus se répète
ensuite jusqu’à ce qu’un critère d’arrêt soit atteint. Un certain nombre de schémas de
mise à jour différents peuvent être adoptés dans ce processus. Les mises à jour peuvent,
par exemple, être basées sur une prédiction par les modèles de la fonction objectif, de la
probabilité d’amélioration (Probability of Improvement) ou de l’amélioration espérée
(Expected Improvement) par rapport au meilleur point d’échantillonnage actuel, Jone et
al. [79], Leary et al. [105] and Forrester et al. [54].

Une stratégie d’optimisation de métamodèle, Figure 2.4, implique donc un échan-


tillonnage initial de l’espace de conception en utilisant une sorte de plan d’échantillon-
nage tel qu’un hypercube latin optimal. Un métamodèle de la réponse de la fonction
objectif aux changements de l’amplitude des variables est ensuite construit à partir de
l’échantillonnage initial. Le métamodèle est ensuite recherché pour les régions optimales
en utilisant une méthode d’optimisation globale, tel qu’un algorithme génétique ou
un algorithme des essaims particulaires. Le processus de recherche globale peut soit
évaluer le métamodèle de la fonction objectif, en d’autres termes, la méthode stochas-
tique minimise la fonction objectif ou une quantité statistique liée au métamodèle, telle
que la probabilité maximale d’amélioration, Jone et al. [79]. Les points de mise à jour
renvoyés par la recherche globale sont ensuite évalués à l’aide de la véritable simulation
computationnelle. La véritable fonction objectif à ces points peut ensuite être utilisée
pour mettre à jour le métamodèle. L’évaluation continue et la mise à jour du métamodèle
sont effectuées jusqu’à ce qu’un critère d’arrêt soit atteint.

L’un des facteurs les plus importants dans toute optimisation basée sur un modèle de
2.6. Optimisation et métamodèle 27

10 10
Fonction originale Fonction originale
Point d'échantillonnage Point d'échantillonnage
Métamodèle Métamodèle
5 5
f(x)

f(x)
0 0

-5 -5

-10 -10
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x x
(a) (b)

10 10
Fonction originale Fonction originale
Point d'échantillonnage Point d'échantillonnage
Métamodèle Métamodèle
5 5
f(x)

f(x)

0 0

-5 -5

-10 -10
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x x
(c) (d)

Figure 2.5 – Quatre métamodèles différents correspondent à huit points d’échantillon-


nage ò la fonction Forrester modifiée, (a) 4th ordre polynôme, (b) Réseau de neurones
artificiels, (c) Fonctions de base radiales, (d) Krigeage.
28 CHAPITRE 2. Méthodes d’optimisation : état de l’art

substitution est la nature mathématique du modèle utilisé. Il existe un certain nombre


de modèles différents dans toute la littérature allant de la complexité de la simple
polynôme dégrée 4, au réseau de neurones artificiels, des fonctions de base radiales et
du krigeage.

Chaque modèle présente un certain nombre d’avantages et de désavantages qui


affectent la précision du modèle produit et donc la recherche de l’optimum global. Par
exemple, modéliser une réponse en utilisant des carrés pour un polynôme quadratique
est un processus relativement simple, mais il ne permet pas de construire des modèles
d’approximation complexes. Une surface de réponse basée sur le krigeage modélisera
plus précisément de telles réponses multimodales, mais à un coût accru associé à la
sélection d’hyperparamètres [143].

2.7 Conclusion
Dans ce chapitre, on a rappelé brièvement un certain nombre de différentes stratégies
d’optimisation existant qui peuvent être classées de plusieurs façons. En générale, on
peut classer les algorithmes d’optimisation par trois types populaires qui sont illustrés
sur la figure 2.2. Les optimisations déterministes ne permettent que de converger au
minimum dans le bassin local d’attraction dans lequel l’algorithme a été initialisé. Par
conséquent, pour l’utilisation des méthodes pour résoudre les problèmes multi-modaux
habituellement nécessitent plusieurs redémarrages aléatoires. Les optimisations déter-
ministes sont des algorithmes séquentiels qui évaluent une conception à la fois dans un
cycle d’optimisation.

Les algorithmes d’optimisation stochastique sont des méthodes qui effectuent de


nombreuses évaluations de fonctions dans l’espace de conception pour trouver la concep-
tion faisable avec la valeur de fonction la plus faible. Contrairement aux approches
d’optimisation déterministe, ces algorithmes sont capables de trouver des minimas
en dehors du bassin local d’attraction dans lequel ils ont été initialisés. Cependant, le
nombre d’évaluations de fonctions requises par ces méthodes est supérieur d’un ordre
de grandeur aux approches d’optimisation déterministe.

Les stratégies discutées jusqu’ici supposent qu’un nombre raisonnable d’évaluations


de fonctions sont pratiques à calculer. Cependant, dans la conception moderne, l’analyse
assistée par ordinateur est une technique classique. Il n’est pas inhabituel qu’une seule
analyse prenne quelques heures à calculer sur un groupe d’ordinateurs. Pour que de
tels problèmes de conception puissent être résolus, on construit des métamodèles ou
des surfaces de réponse qui s’approchent de l’objectif et de la fonction de contrainte
du problème réel. Un autre avantage des métamodèles est que les conceptions peuvent
être évaluées indépendamment. Les métamodèles ne nécessitent qu’un nombre limité
d’évaluations de fonctions pour construire une approximation des fonctions réelles. Le
2.7. Conclusion 29

Méthode
d’optimisation

Optimisation Méthodes Optimisation Optimisation


déterministe stochastiques métamodèle Multiobjectif

Méthodes Algorithm Exploitation Front de Pareto


de recherche génétique métamodèle
directe ...
Recuit simulé Exploration
Méthode
de descente Optimisation Exploration/
de gradient par essaims exploitation
particulaires équilibrée
Méthode
de Newton ... ...

...

Figure 2.6 – Les méthode d’optimisation différente

métamodèle est ensuite optimisé au lieu de la fonction objectif coûteuse. La précision


du métamodèle peut alors être améliorée en effectuant des évaluations de fonctions
réelles supplémentaires. L’optimisation est à nouveau effectuée, et ce cycle peut être
répété jusqu’à la convergence. Malgré cette limitation, l’optimisation des substituts reste
populaire et est étudiée dans cette recherche. Il serait bien d’introduire le chapitre 4.
30 CHAPITRE 2. Méthodes d’optimisation : état de l’art
Chapitre 3
Construction d’un métamodèle

Sommaire du chapitre
3.1 Introduction 31
3.2 Métamodèles d’une fonction scalaire 32
3.2.1 Fonctions de base radiale (RBF) . . . . . . . . . . . . . . . . 32
3.2.2 Krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Autres métamodèles . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Métamodèles d’un champ spatial 47
3.3.1 Méthode de la PGD . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Métamodèle spatial basée sur la POD . . . . . . . . . . . . . 49
3.4 Plan d’expériences 56
3.5 Conclusion 59

3.1 Introduction
Un métamodèle [163] est un modèle de substitution (surrogate model) ou modèle
statistique (également connu comme modèle d’apprentissage) utilisé pour approcher un
modèle Haut-Fidélité (HF) très coûteux. Il est très utilisé dans les problèmes d’optimisa-
tion en ingénierie mécanique ou calcul numérique. On peut distinguer deux types de
métamodèles :

— Un métamodèle d’une fonction scalaire qui permet de construire une approxima-


tion de la fonction objectif.
— Un métamodèle d’un champ vectoriel qui permet de construire une approximation
d’un champ physique évalué par le code de calcul très coûteux.

31
32 CHAPITRE 3. Construction d’un métamodèle

La construction d’un métamodèle permet d’approximer et de prédire une fonction


ou champ vectoriel d’intérêt. Pour la fonction scalaire, de nombreuse techniques sont
disponibles pour construire le métamodèle telles que : la régression polynomiale, les
splines, les processus gaussien dont les techniques krigeage, les fonctions de base ra-
diale, les réseaux de neurones et les machines à vecteurs de support (SVM). Pour le
champ vectoriel, on peut citer les méthodes de décomposition à multivariables : "Proper
Orthogonal Decompostion (POD)" et "Proper Generalized Decomposition (PGD)". Ces
techniques sont utilisées dans la construction d’un modèle réduit du champ physique.
La PGD permet de résoudre les problèmes de résolution d’une équation aux dérivées
partielles (EDP) [29], [97]. La PGD est une technique intrusive. Tandis que la POD a
besoin des données initiales à partir des pré-calculs haute-fidélité pour construire une
base réduite. On utilise cette base réduite pour projeter l’EDP et trouver la solution
approximée. Selon le point de vue statistique, la POD permet à l’expérimentateur de
réduire le nombre de variables et de rendre l’information moins redondante. Elle est
aussi connue par les noms : "Principal component analysis (PCA)", "Singular-value
decomposition (SVD)" ou "Karhunen–Loève Decomposition (KLD)" pour le réduction
dimensionnelle dans l’analyse des données.

Dans ce chapitre, la construction de deux types des métamodèles est décrite. Premiè-
rement, on présente la construction du métamodèle de la fonction scalaire. Ensuite, une
combinaison de réduction dimensionnelle et de métamodèle d’une fonction scalaire sont
présentées. On utilise la terminologie "métamodèle spatial" pour décrire cette approche
durant cette thèse. Finalement, on présentera les techniques de plan d’expérience qui
permettent de choisis les échantillons initiaux pour le pré-calcul, puis la construction
du métamodèle spatial.

3.2 Métamodèles d’une fonction scalaire


Il existe différents types de métamodèles dans la littérature, faisant appel à certaines
hypothèses adaptées aux différents types de données. Dans le cas de dépendances
simples entre les données, des modèles linéaires, une base polynomiale ou des splines
peuvent être utilisés. Alors que dans le cas des interactions plus complexes entre les
données, des modèles plus élaborés sont requis, tels que les fonctions à base radiale,
processus gaussiens (krigeage), les réseaux de neurones etc. Dans cette section, on décrit
le principe de la construction des types du métamodèle d’une fonction scalaire : les
fonctions à base radiale (RBF) et les modèle de krigeage.

3.2.1 Fonctions de base radiale (RBF)


Le modèle d’approximation de fonctions à base radiale [22] est très précis pour
l’interpolation des grandes dimensions et des données dispersées. En raison de la
propriété de convergence spectrale, ils sont également utilisés pour résoudre des EDPs
[81], [101]. Ce métamodèle est souvent utilisé pour les problèmes d’optimisation en
3.2. Métamodèles d’une fonction scalaire 33

grande dimension du fait de sa rapidité et de sa performance [146], [147]. Ce métamodèle


consiste, dans un cadre très général, à combiner un ensemble de fonctions de base entre
elles. Une fonction de base radiale est une fonction φ symétrique autour d’un centre
c, i.e. φ(∥x − c∥2 ), où ∥.∥ est la norme euclidienne usuelle. Le principe de ce modèle
interpolant est décrit par manière suivant :

Formulation du modèle

L’interpolation des fonctions de base radiale cherche une approximation fˆ de la


forme 3.1 :
Ns

fˆ(x) = wj φ(∥x − xj ∥2 ) = wT φ(x) (3.1)
j=1

où φ(x) est une fonction radiale. Des exemples de fonctions de base radiale sont donnés
dans le tableau 3.1. Dans la terminologie des fonctions de base radiale, les positions xj ,
j = 1, 2, ..., Ns sont appelées le centre de la fonction de base radiale.

Les coefficients w = [w1 w2 ...wNs ]T sont déterminés à partir des conditions d’interpo-
lation :

fˆ(xi ) = y i , i = 1, 2, ..., Ns (3.2)

qui peut être écrit sous forme de matrice d’un système d’équations linéaires comme
suit :

Φw = y (3.3)

où y = [y 1 , y 2 , ..., y Ns ]T est le vecteur de réponse associé le vecteur d’entré. La matrice Φ


a des éléments Φ ij = φ(xi − xj ) et est symétrique. Cette matrice est alors décrit comme
suit :

⎢⎢ φ(∥x1 − x1 ∥2 ) φ(∥x1 − x2 ∥2 ) . . . φ(∥x1 − xNs ∥2 ) ⎥⎥


⎡ ⎤
⎢⎢ φ(∥x2 − x1 ∥2 ) φ(∥x2 − x2 ∥2 ) . . . φ(∥x2 − xNs ∥2 ) ⎥⎥⎥
⎢⎢ ⎥
Φ = ⎢⎢⎢ ⎢
.. .. .. ..
⎥⎥
.
⎥⎥
⎢⎢
⎢⎣ . . . ⎥⎥
⎥⎦
N 1 N 2 N N
φ(∥x s − x ∥2 ) φ(∥x s − x ∥2 ) . . . φ(∥x s − x s ∥2 )

En résolvant le système linéaire 3.3 sous la condition 3.2, l’approximation est obtenue
de la manière suivante :

∀x ∈ D, fˆ(x) = y T Φ −1 φ(x) (3.4)

La variance de l’erreur statistique du modèle des fonction de base radiale peut être
alors obtenue par les réalisations d’un processus stochastique (Pour une démonstration
34 CHAPITRE 3. Construction d’un métamodèle

Nom φ(r) (r = ∥x − xc ∥2 )
2
Gaussienne φ(r) = e√−(ϵr)
Multiquadratique φ(r) = 1 + (ϵr)2
Multiquadratique inverse φ(r) = √ 1 2
1+(ϵr)
2
Exponentielle φ(r) = e−ϵr

Tableau 3.1 – Quelques fonctions de base radiale

détaillée voir, par exemple, Gibbs (1997 [58]), et [171]).


2
∀x ∈ D, sRBF (x) = 1 − φ(x)T Φ −1 φ(x) (3.5)

Le choix d’une fonction de base radiale appropriée est une décision importante et il
existe de nombreux choix disponibles.

Choix de la fonction de base radiale

Le choix des fonctions de base déterminera quelles méthodes sont disponibles pour
résoudre le système d’équation 3.3. Si la matrice d’interpolation Φ est définie positive
symétrique, alors le système linéaire a une solution unique. Une propriété d’une matrice
définie positive est que toutes ses valeurs propres sont positives. Par conséquent, une
matrice définie positive est inversible. De plus, des méthodes numériques telles que
la factorisation de Cholesky peuvent être utilisées pour résoudre un système linéaire
positif défini symétrique plus efficacement que les méthodes conçues pour un système
linéaire général [180] [122]. Le Tableau 3.1 répertorie quelques types de la fonction de
base radiale communs. À l’exception du multiquadric, tous les fonctions de base radiale
énumérées sont le noyau reproduisant défini positif. Le multiquadric n’est pas défini
positif (ou un noyau reproduisant), mais il est défini conditionnellement négatif. Dans
une interpolation des fonctions de base radiale, elle donne lieu à une matrice de taille
Ns avec une valeur propre positive et Ns − 1 valeurs propres négatives. Par conséquent,
une interpolation des fonction de base radiale qui utilise des fonctions de base multi-
quadrique a une solution unique, mais cette solution ne peut pas nécessairement être
calculée en utilisant des méthodes spécialisées pour la résolution de systèmes définis
positifs. La figure 3.1 illustre le comportement de 4 fonctions radiales correspondantes :
exponentielle, gaussienne, multiquadrique, et multiquadrique inverse pour trois valeurs
différentes de ϵ. On peut voir que ces fonctions ont des comportements très différents.
De plus, la forme des fonctions est très différente lorsque les paramètres changent. Le pa-
ramètre ϵ est appelé le paramètre de forme. Ce paramètre a une importante signification
sur la précision de l’approximation.
3.2. Métamodèles d’une fonction scalaire 35

1 1
=0.1 =0.1
=1.0 =1.0
0.8 0.8
=2.5 =2.5
0.6 0.6
(r)

(r)
0.4 0.4

0.2 0.2

0 0
-5 0 5 -5 0 5
r r

8 1
=0.1 =0.1
=1.0 =1.0
0.8
6 =2.5 =2.5
0.6
(r)

(r)

4
0.4
2
0.2

0 0
-5 0 5 -5 0 5
r r

Figure 3.1 – Exemples de fonctions de base radiale pour 3 valeurs du paramètre ϵ =


0.1, 1, 2.5, Exponentiel (en haut à gauche), Gaussienne (en haut à droit), Multiquadratique
(en bas à droite), Multiquadratique inverse(en bas à gauche)
36 CHAPITRE 3. Construction d’un métamodèle

Détermination des paramètres

Une technique utilisée pour déterminer le paramètre de forme ϵ est la validation


croisée (Cross-validation). Cette technique est utilisé pour valider le modèle fondé sur
les échantillonnages en apprentissage automatique. Les trois variantes de cette technique
sont souvent rencontrées :

— "testset validation" : on divise l’échantillon de taille n en deux sous-échantillons,


le premier dit d’apprentissage (communément supérieur à 60% de l’échantillon) et
le second dit de test. Le modèle est bâti sur l’échantillon d’apprentissage et validé
sur l’échantillon de test. L’erreur est estimée en calculant un test, une mesure ou
un score de performance du modèle sur l’échantillon de test, par exemple l’erreur
quadratique moyenne.
— "k-fold cross-validation" : on divise l’échantillon original en k échantillons, puis
on sélectionne un des k échantillons comme ensemble de validation et les k − 1
autres échantillons constitueront l’ensemble d’apprentissage. On calcule comme
dans la première méthode le score de performance, puis on répète l’opération
en sélectionnant un autre échantillon de validation parmi les k − 1 échantillons
qui n’ont pas encore été utilisés pour la validation du modèle. L’opération se
répète ainsi k fois pour qu’en fin de compte chaque sous-échantillon ait été utilisé
exactement une fois comme ensemble de validation. La moyenne des k erreurs
quadratiques moyennes est enfin calculée pour estimer l’erreur de prédiction.
— "leave-one-out cross-validation (LOOCV)" cas particulier de la deuxième mé-
thode où k = n, c’est-à-dire que l’on apprend sur n − 1 observations puis on valide
le modèle sur la énième observation et l’on répète cette opération n n fois [189],
[123]. L’erreur des moindres carrés est utilisée pour le LOOCV comme suit :

s N
1 ∑
MSEϵ = (fˆi (xi ) − y i )2 (3.6)
Ns
i=1

En utilisant cette approche, le meilleur paramètre de forme trouvé ϵ peut être produire
une approximation la plus précise.

3.2.2 Krigeage
Une autre modèle d’approximation qui intéresse de plus en plus la communauté
scientifique ces dernières années est le modèle de krigeage. Le krigeage est une méthode
qui a été développée par Matheron [114] en géostatistique et repris dans tous les do-
maines grâce à ses qualités de modélisation. Le krigeage est aussi connue comme un
processus gaussien [143] dans le contexte de l’apprentissage automatique. Généralement,
un métamodèle repose sur une hypothèse fondamentale, qui consiste à supposer que
la vraie sorti Y se réécrit comme Y = f + z, avec f une approximation déterministe
3.2. Métamodèles d’une fonction scalaire 37

de la sortie et z une variable aléatoire normale, indépendante et identiquement dis-


tribué (z ∼ N (0, σz2 )). Cependant, l’idée principale derrière la construction du modèle
de krigeage est de supposer que l’erreur z n’est pas indépendante, et qu’elle dépend
systématiquement de la position des points, c’est à dire x. Pour construire le modèle, on
fait l’hypothèse que la sortie Y (x) étudiée est la réalisation d’un processus gaussien. La
sortie est donc modélisée comme un processus gaussien d’espérance µ(x) et de structure
de covariance ψ(x, x′ ), où x, x′ ∈ D, l’espace de paramètre (D ⊂ RNd ). La structure de
corrélation spatiale aura une importance majeure dans les prédictions du modèle. Par
exemple, si des données proches dans l’espace sont fortement corrélées, la fonction en
sortie sera lisse et possédera des propriétés intéressantes en dérivation. En revanche,
si la corrélation est mauvaise, le processus modélisé sera supposé plus chaotique. De
plus, le modèle de krigeage fournit une estimation de l’erreur de prédiction avec une
simple formule mathématique). Cette estimation joue un rôle important pour enrichir
les échantillonnages pour le processus d’optimisation. Dans la suite, le principe de la
construction du modèle krigrage est décrit.

Formulation

Fondamentalement, le krigeage est un processus en deux étapes qui se base sur un


modèle probabiliste. D’abord une fonction de régression f (x) est construite sur la base
des données dans l’espace de paramètres D et par la suite, un processus gaussien Z est
construit à travers les résidus. Il est formulé par manière suivant :

Y (x) = f (x) + Z(x) (3.7)

où f (x) est une fonction de régression et Z(x) est un processus gaussien à moyenne nulle,
la variance σ 2 , et une fonction de de corrélation ψ. Alors, l’espérance, la variance de
Y (x), et la relation de covariance s’écrivent de la manière suivant :

E[Y (x)] = E[f (x) + Z(x)] (3.8)


σY2 = Var([Y (x)]) = Var([f (x) + Z(x)]) = Var([Z(x)]) = σZ2 (3.9)
′ ′ ′
ψ(x, x ) = cov[Y (x), Y (x )] = cov[Z(x), Z(x )] (3.10)

Selon la forme de la fonction de régression, plusieurs types de krigeage différent existent.


Le krigeage simple suppose que la fonction de régression est une constante connue,
c’est-à-dire, f (x) = 0. Le krigeage ordinaire qui suppose une fonction de régression
constante inconnue. Bien que d’autres fonctions de tendance plus complexes soient
possibles comme les polynômes linéaires ou quadratiques. C’est le krigeage universel
qui traite la fonction de tendance comme un polynôme multivarié,
p

f (x) = αi bi (x) (3.11)
i=1
38 CHAPITRE 3. Construction d’un métamodèle

où bi (x), i = 1, 2, ..., p sont les fonctions de base, et αi , i = 1, 2, ..., p désignent les coeffi-
cients. L’idée est que la fonction de régression capture la plus grande variance dans les
données (la tendance générale) et que le processus gaussien interpole les résidus. En fait,
la fonction de régression f (x) est la moyenne du processus gaussien plus large Y . Ce-
pendant, la sélection de la fonction de régression adaptée est un problème difficile, par
conséquent, la fonction de régression est souvent choisie constante (krigeage ordinaire).

Considérons un ensemble de points X = {x1 , x2 , ..., xNs } ∈ D et un ensemble de la


réponse asssocié Y = {y 1 , y 2 , ..., y Ns }. Essentiellement, la partie régression est codée dans
la matrice du modèle n × p,
1 1 1 ⎤
⎢⎢ b1 (x ) b2 (x ) . . . bp (x ) ⎥⎥

⎢⎢ b1 (x2 ) b2 (x2 ) . . . bp (x2 ) ⎥⎥⎥
⎢⎢ ⎥
F = ⎢⎢⎢ .⎢
.. .. .. ⎥⎥⎥
⎥ (3.12)
⎢⎢ .. . . . ⎥⎥⎥
⎢⎣
b1 (x s ) b2 (x s ) . . . bp (xNs )
N N ⎦

Tandis que le processus stochastique est principalement défini par la matrice de corréla-
tion n × n

⎢⎢ ψ(x1 , x1 ) ψ(x1 , x2 ) . . . ψ(x1 , xNs ) ⎥⎥


⎡ ⎤
⎢⎢ ψ(x2 , x1 ) ψ(x2 , x2 ) . . . ψ(x2 , xNs ) ⎥⎥⎥
⎢⎢ ⎥
Ψ = ⎢⎢⎢ ⎢
.. .. .. ..
⎥⎥ (3.13)
.
⎥⎥
⎢⎢
⎢⎣ . . . ⎥⎥

ψ(xNs , x1 ) ψ(xNs , x2 ) . . . ψ(xNs , xNs )

où φ(·, ·) est la fonction de corrélation qui est paramétrée par un ensemble d’hyper-
paramètres θ. Par la suite, la prédiction par le krigeage pour tous les x ∈ D est de la
forme :

Ŷ (x) = Mα + r(x).−1 .(y − Fα) (3.14)

avec M est la matrice du modèle du point de prédiction x, α est un vecteur p ×1 dénotant


les coefficients de la fonction de régression qui est déterminée par les moindres carrés
généralisés (Generalized Least Squares), et r(x) est un vecteur 1 × n entre le point x et
l’ensemble de point X. Ils sont définis par,

M = [b1 (x) b2 (x) ... bp (x)] (3.15)


F T Φ −1 y
α= (3.16)
F T Φ −1 F
1 2
r(x) = [ψ(x, x ) ψ(x, x )...ψ(x, xNs )] (3.17)

Les dérivées partielles de la moyenne de prédiction par rapport à un point de test x sont
3.2. Métamodèles d’une fonction scalaire 39

données par,

∂Ŷ (x) ∂M ∂r(x) −1


= α+ Ψ (y − Fα) (3.18)
∂xi ∂xi ∂xi
∂r(x)
où la matrice ∂M
∂xi
and le vecteur ∂xi
sont obtenus en prenant les dérivés des entrées
individuelles respectivement,

∂b1 (x) ∂b2 (x) ∂bp (x)


( )
∂M
= ... (3.19)
∂xi ∂xi ∂xi ∂xi
∂ψ(x, x1 ) ∂ψ(x, x2 ) ∂ψ(x, xNs )
( )
∂r(x)
= ... (3.20)
∂xi ∂xi ∂xi ∂xi

Estimation de l’erreur
La variance de l’erreur de prédiction (appelée parfois "erreur quadratique moyenne"
(MSE)) peut être calculée par :
[ ] [( )2 ]
ŝ2 (x) = var Ŷ (x) − Y (x) = E Ŷ (x) − Y (x) (3.21)

1 − F T Ψ −1 r(x)T
( )
= σ 2 1 − r(x)Ψ −1 r(x)T +
F ′ Ψ −1 F
où la variance du processus est donnée par,

1
σ2 = (y − Fα)T Ψ −1 (y − Fα) (3.22)
Ns

En supposant que le processus Z suive une loi normale centrée sur Ŷ (x), on peut calculer
la probabilité que Y (x) soit dans l’intervalle [Ŷ (x) − δ, Ŷ (x) + δ], (δ > 0) grâce à l’équation
suivante :
∫δ 2
( ) 1 − t2
P Y (x) ∈ [Ŷ (x) − δ, Ŷ (x) + δ] = √ e (x) dt
2ŝ (3.23)
ŝ(x) 2π −δ

Cette formulation permet de représenter des intervalles de confiance (IC) de la prédic-


tion du métamodèle. La figure 3.2 illustre un exemple de la fonction 2.1 et la prédiction
par krigeage pour 6 échantillons obtenus à partir du plan d’expérience factoriel. La
fonction d’origine et le métamodèle sont respectivement en bleu et en rouge. On peut
constater qu’il y a 95 % de chances que Y (x) soit dans l’intervalles de confiance pour
la prédiction [Ŷ (x) ± 1.96ŝ(x)]. Les intervalles de confiance associés à la prédiction
[Ŷ (x) ± ŝ(x)], [Ŷ (x) ± 0.5ŝ(x)], et [Ŷ (x) ± 0.1ŝ(x)] sont 68 %, 38%, et 8% respectivement.
En pratique, la variance de krigeage augmente lorsque la distance aux échantillons
augmente. Elle peut avoir un rôle d’indicateur pour déterminer les zones du domaine
peu échantillonnées où l’ajout de points augmenterait la qualité de l’approximation
40 CHAPITRE 3. Construction d’un métamodèle

30
IC 95% IC 68% IC 38% IC 8%

20

10
Y(x)

-10

-20

-30
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x

Figure 3.2 – Approximations du métamodèle de krigeage et intervalles de confiance

Choix de la fonction de corrélation

Comme le modèle d’approximation par les fonctions de base radiale, le choix de la


fonction de corrélation est crucial sur la précision et la prédiction du modèle de krigeage.
Une classe populaire de fonctions de corrélation stationnaires est définie par :
∑Np ′ p
ψ(x, x′ ) = e− i=1 θi |xi −xi | (3.24)

où l’ensemble d’hyperparamètres θ = {θ1 , θ2 , ..., θNp }, Np désigne le nombre de para-


mètres (ou dimensions de variable) et le paramètre p contrôle le comportement de la
fonction de corrélation. Ces fonctions de corrélation dépendent aussi de la distance
entre les deux points x et x′ . Lorsque la distance entre deux points est plus petite, la
corrélation est alors plus élevée et, par conséquent, la prédiction d’un point est plus
influencée par un autre, c’est-à-dire que leurs valeurs de fonction sont très proches
l’une de l’autre. Pareillement, si la distance augmente, la corrélation chute à zéro. La
vitesse et la manière avec laquelle cela arrive sont régies par plusieurs paramètres. Le
paramètre p détermine la baisse initiale de corrélation lorsque la distance augmente
(voir figure 3.3a). Dans le type exponentielle généralisée, lorsque p est réglé sur 2, la
fonction devient la fonction de corrélation gaussienne. Alors, on observe que les données
représentent une surface lisse et continue. Dans le cas p = 1, on observe que la fonction
est plus appropriée pour une réponse plus irrégulière car elle permet une différence
plus importante dans les valeurs de fonction pour les points proches les uns des autres.
La figure 3.3b décrit la sphère d’influence d’un point sur des points voisins pour chaque
3.2. Métamodèles d’une fonction scalaire 41

1 1
p=0.1 =0.1
0.9 p=1 0.9 =1
p=2 =10
0.8 p=5 0.8 =100

0.7 0.7

0.6 0.6
(x,x')

(x,x')
0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Distance(x-x') Distance(x-x')

(a) avec paramètre variable p pour θ = 1 (b) avec paramètre variable θ pour p = 1

Figure 3.3 – Exemples de fonctions de corrélation unidimensionnelles.

dimension, c’est-à-dire, la corrélation chute à zéro très rapidement.

Une autre classe est souvent utilisée dans les problèmes d’ingénierie. C’est la classe
de fonctions de corrélation Matérn [143] qui a la forme :
(√ )ν ( √
21−ν
)
2ν|r| 2ν|r|
ψ(r) = Kν (3.25)
Γ (ν) ρ ρ

où Γ la fonction gamma, Kν la fonction de Bessel modifiée de seconde espèce, ν et ρ des


paramètres strictement positifs. Le paramètre ν des fonctions de corrélation Matérn
a un rôle similaire à celui du paramètre p dans 3.24. Deux types sont souvent trouvés
pour ν = 32 et ν = 52 . On peut écrire des formes simplifiées de cette fonction pour |r| = lρ.
( √ ) √
ψ(x, x′ )ν=3/2 = 1 + 3l e− 3l (3.26)
√ 5l 2 −√5l
( )

ψ(x, x )ν=5/2 = 1 + 5l + e (3.27)
3

∑ Np ′ 2
où l = i=1 θi (xi − xi ) . La figure 3.4 décrit la forme de deux types de classe de la
fonction de corrélation Matérn correspondant avec l’équation 3.26 et 3.27. On constate
que les formes deq deux fonctions pour ν = 32 et ν = 52 semblent très similaires. Une
valeur supérieure convient mieux à un comportement brutal de la fonction coûteuse
et inversement. Finalement, les fonctions de corrélation les plus populaires qui sont
utilisées pour construire le metamodèle de krigeage sont présentent dans le tableau 3.2.

En pratique, le choix de la fonction de corrélation influences à la mise en œuvre


42 CHAPITRE 3. Construction d’un métamodèle

1 1
=0.1 =0.1
0.9 =1 0.9 =1
=10 =10
0.8 =100 0.8 =100

0.7 0.7

0.6 0.6
(x,x')

(x,x')
0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Distance(x-x') Distance(x-x')

(a) for ν = 32 (b) for ν = 52

Figure 3.4 – La corrélation de Matérn unidimensionnelle fonctionne avec des paramètres


variables θ

Nom de fonction ψ(x,(x′ ) )


∑ Np
Gaussienne exp − i=1 θi (x − x′ )2
( ∑ )
Np
Exponentielle générale exp − i=1 θi |x − x′ |p ,
0 < p√< 2 √
Matérn avec ν = 3/2 (1 + 3l) exp(− 3l)
√ 2 √
Matérn avec ν = 5/2 (1 + 5l + 5l3 ) exp(− 5l)

Tableau 3.2 – Quelques fonctions de corrélation

du métamodèle de krigeage, particulièrement le conditionnement de la matrice de


corrélation et la détermination des solutions du problème du krigeage. Cela est expliqué
par la définition du conditionnement d’un matrice inversible [70]. Laurent [102] a
montré que si la fonction gaussienne présente des problèmes de conditionnement,
cela cause un mauvais conditionnement des matrices 1 . En attendant, l’avantage de la
fonction de corrélation de Matérn est d’améliorer le nombre de conditions de la matrice
de covariance, en améliorant ainsi la stabilité de la construction de krigeage. C’est la
raison pour laquelle la fonction de corrélation de Matérn pourrait être plus utile pour
résoudre des problèmes d’ingénierie. Dans le cadre de ces travaux, le choix de la fonction
s’est porté sur la fonction de Matérn avec ν = 23 .

1. https ://en.wikipedia.org/wiki/Condition_number
3.2. Métamodèles d’une fonction scalaire 43

Détermination de l’ensemble des hyperparamètres

Dans la fonction de corrélation, l’ensemble des hyperparamètres θ et p sont détermi-


nés lors de la construction du modèle. À notre connaissance, deux méthodes existent
dans la littérature pour estimer ces hyperparamètres : la méthode du maximum de
vraisemblance (Maximum Likelihood Estimation (MLE)) et la méthode de validation
croisée [143]. La méthode de validation croisée a été abordée dans la construction du mo-
dèle des fonctions de base radiale. Dans la suite, la méthode de vraisemblance est décrite.

L’estimateur du maximum de vraisemblance permet d’évaluer des paramètres dans


les modèles d’apprentissage automatique à partir de l’ensemble des données disponibles
(ou données d’entraînement). Par conséquent, on va trouver θ pour maximiser la fonction
de vraisemblance :
1 (y−Fα)T Ψ −1 (y−Fα)

L(θ) = Ns 1
e 2σ 2 (3.28)
(2π) 2 σ 2 Ψ 2

Noter que la dépendance sur l’ensemble des hyperparamètres θ est directement reliée à
la matrice de corrélation Ψ . En supposant qu’on connait les valeurs de θ. On trouve les
valeurs de α et σ pour maximiser l’opposé de la fonction de la log-vraisemblance :

Ns N 1 1
ln(L(θ)) = − ln(2π) − s ln(σ 2 ) − ln(|Ψ |) − 2 (y − Fα)T Ψ −1 (y − Fα) (3.29)
2 2 2 2σ
En égalisant à zéro et en résolvant l’équation 3.29 par rapport à α et σ 2 , on obtient :

F T Ψ −1 y
α= (3.30)
F T Ψ −1 F
1
σ2 = (y − Fα)T Ψ −1 (y − Fα) (3.31)
Ns

On constate qu’elles sont les solutions qui sont trouvées dans 3.16 et 3.22 respectivement.
En substituant ces solutions à l’équation 3.29, la fonction de log-vraisemblance est
représentée comme suit :

Ns 1
ln(L(θ)) = − ln(σ 2 ) − ln(|Ψ |) (3.32)
2 2
La maximisation 3.32 est une tâche d’optimisation non-convexe car elle est fréquem-
ment multimodale. Avec la montée en dimension, ce problème devient rapidement
très difficile et coûteux en temps, ce qui nuit à la performance du modèle de krigeage.
Une alternative simple consiste à supposer que la fonction objectif est isotrope et alors
θ1 = θ2 = ... = θNp , d’où une optimisation à une seule dimension. Trouver un ensemble
optimal des hyperparamètres peut être fait par des techniques standard basées sur le
gradient, tel que l’algorithme du gradient, SQP ou la méthode de quasi-Newton qui ont
été abordé dans la section 2.2 ou l’algorithme du gradient stochastique. Celui-ci doit
44 CHAPITRE 3. Construction d’un métamodèle

pouvoir prendre en compte les bornes du domaine de définition de θ (des valeurs trop
petites ou trop grandes détériorent le conditionnement de la matrice de covariance, d’où
la nécessité d’imposer des limites).

On note dans le problème 3.32, qu’il faut inverser la matrice de corrélation Ψ et cal-
culer son déterminant, ce qui a une complexité algorithmique O(Ns3 ), si Ns est le nombre
de points observés [143]. Tandis que la méthode de validation croisée nécessite O(Ns4 )
opérations pour le calcul de la matrice de corrélation [174], [143]. C’est pour cela que la
méthode de vraisemblance est utilisée fréquemment pour estimer les hyperparamètres
dans modèle de krigeage.

3.2.3 Autres métamodèles


Les deux métamodèles décrits dans cette section se réfèrent à d’autres approches qui
sont populaires dans la conception mécanique. En dehors de ces types de métamodèle,
on trouve les autres types de métamodèle tel que le modèle à régression linéaire, les
réseaux de neurones ou perceptrons multi-couches, le modèle de Régression à Vecteur
de Support (SVR) ou les moindres carrés mobiles (Moving Least Square - MLS).

La régression linéaire est la méthode la plus simple pour approcher la vraie fonction
y = f (x). Elle consiste à supposer qu’il existe une dépendance linéaire entre les variables
d’entré x1 , x2 , ..., xNp et la variable sortie y. Le modèle est construit ainsi de la manière
suivante :

y = [1, x1 , ..., xNp ]β + ϵ (3.33)

où β = [β0 , β1 , ..., βNp ]T est un vecteur contenant les paramètres du modèle et ϵ désigne
au résidu du modèle. La variable aléatoire ϵ est supposée souvent comme une variable
normale, centrée β et de variance σ 2 . L’estimation des paramètres β et σ est obtenue
soit en maximisant la fonction de vraisemblance, et ceci grâce à l’hypothèse des erreurs
gaussiennes, soit en minimisant la somme des carrés des écarts entre les vraies observa-
tions et les prédictions du modèle (méthode des moindres carrés). Ces deux méthodes
conduisent à la même estimation et généralement la méthode des moindres carrés est la
plus employée pour ce type de modèle. Le critère des moindres carrés s’écrit comme :

min(y − Xβ)T (y − Xβ) (3.34)


β

En dérivant par rapport à β, on obtient une estimation de β

β = (X T X)−1 X T y (3.35)

L’avantage d’un tel modèle est qu’il est très simple à construire et à interpréter. Cepen-
dant, il ne permet pas de construire des modèles d’approximation très complexes et il
est adapté seulement aux problèmes linéaires. À noter qu’il est possible de transformer
3.2. Métamodèles d’une fonction scalaire 45

poids
valeurs
𝑥1 𝑤1𝑗
Fonction
d’activation
𝑥2 somme pondérée
𝑤2𝑗

y
𝑥3 𝑤3𝑗
activation

Fonction de
combinaison

𝑥𝑛 𝑤𝑛𝑗
seuil

(a) structure de base des neurones

Couche cachée Couche cachée


Couche
d’Entrées

Couche de
sortie

(b) architecture de réseau neuronal à deux couches d’anticipation

Figure 3.5 – Les réseaux de neurones

la base de fonctions lorsque l’on change les bases de fonctions xi −→ xik , i = 1, 2, ..., Np et
k = 1, 2, ..., n − 1, qui permettent de construire les surfaces polynomiales [17], [18]. Il est
également possible d’étudier les interactions entre les variables d’entrée en ajoutant les
termes correspondants à la fonction de base. Il existe d’autres généralisations de la ré-
gression linéaire qui permettent d’observer des interactions complexes. Elles consistent
par exemple à effectuer des régressions polynomiales par morceaux (splines) ou encore
à supposer que la sortie est une combinaison linéaire de fonctions de base. Le choix des
fonctions de base est très important ; leurs propriétés conduiront à des analyses très
différentes.

L’idée des réseaux de neurones a été proposé pour la première fois par McGulloch et
Pitts en 1943 [115]. Le principle s’est trouvé dans [14], [67]. Un réseau de neurones est
constitué par un ou plusieurs neurones formels. Un neurone artificiel est illustré sur la
figure 3.5a. Si les entrées d’un neurone sont notées x1 , x2 , ..., xn , la sortie du neurone y
46 CHAPITRE 3. Construction d’un métamodèle

est calculée comme suit :


1
y= −η (3.36)
1+e T
où η = w1 1x1 + w2 x2 + ... + wn xn + γ, avec w1 , w2 , ..., w3 étant des coefficients de régression.
Ici, γ est la valeur de biais d’un neurone, et T est un paramètre (pente) défini par
l’utilisateur. Les neurones peuvent être combinés de plusieurs façons. L’architecture de
réseau de neurones la plus courante est le perceptron multicouche 2 (voir la figure 3.5b).
La construction d’un métamodèle basé sur un réseau de neurones nécessite deux étapes
principales : la sélection de l’architecture et l’entraînement en réseau. L’entraînement
en réseau peut être déclaré comme un problème de régression des moindres carrés
non linéaire pour un certain nombre de points d’entraînement. Ici, la fonction de coût
d’optimisation est non linéaire pour les (coefficients de neurones). Une technique très
populaire pour résoudre ce problème de régression est l’algorithme de rétropropaga-
tion du gradient des erreurs. Si l’architecture du réseau est suffisamment complexe,
un réseau de neurones peut se rapprocher d’un ensemble général de fonctions [164], [67].

Cependant, dans des cas compliqués (par exemple, des fonctions non-lisses avec un
grand nombre de variables), le problème de régression sous-jacent peut être impliqué de
manière significative. Les réseaux de neurones sont aussi connus comme une technique
de l’apprentissage profond. Elles sont très utilisées dans les domaines de l’analyse du
signal sonore ou visuel et notamment pour la reconnaissance faciale, reconnaissance
vocale, la vision par ordinateur, le traitement automatisé du langage et l’analyse des
données. Pourtant, la mise en œuvre d’un modèle basé sur un réseau de neurones est
très complexe pour des problèmes de grandes dimensions (grands nombre de couches).
Par conséquence, l’entraînement et l’apprentissage exigent les processeurs très haut de
gamme et très puissant.

L’approche des moindres carrés mobiles a été présentée par Lancaster et Salkauskas
dans [100]. Elle est très populaire dans la construction des fonctions de forme pour
résoudre des problèmes d’équations aux dérivées partielles sans maillage [31]. Le MLS
permet de construire une approximation de la fonction y à partir de Ns couples (xi , y(xi ))
sous la forme :

ŷ(x) = pT a(x) (3.37)

avec pT une base polynomiale et a(x) un vecteur de coefficients inconnus qui est déter-
miné en minimisant l’erreur suivant :
s N
1∑
J= ωi [pT (xi )a(x) − y(xi )] (3.38)
2
i=1

2. https ://en.wikipedia.org/wiki/Multilayer_perceptron
3.3. Métamodèles d’un champ spatial 47

La résolution du problème 3.38 conduit à un système linéaire

A(x)a(x) = B(x)y (3.39)

ou

a(x) = A(x)−1 B(x)y (3.40)

où les matrice A(x) et B(x) sont définies par :


Ns

Ajk = ωi (x)pj (xi )pk (xi ) (3.41)
i=1
Bi j(x) = ωi (x)pj (xi ) (3.42)

La fonction ω(x) représente le comportement de l’approximation en assurant la conti-


nuité de l’approximation sur l’espace de conception. Quelques exemples de fonctions de
pondération et les références associées peuvent être trouvées dans [128]. Les MLS sont
utilisés en ingénierie aérospatiale [32], [59], approximation de la fonction [20].

3.3 Métamodèles d’un champ spatial


Dans cette section, on décrit les techniques qui permettent de construire une approxi-
mation d’un champ spatial. Dans le problème de calcul des structures, le champ spatial
est considéré tel que : le champ de déplacement, de coordonnée, de déformation ou de
contrainte, etc. L’idée de la PGD est d’abord décrite brièvement, puis ses limitations
dans le problèmes d’optimisation sont développées. Ensuite, le principe de la POD
est présentée et son avantage dans l’optimisation est alors discuté. Dernièrement, le
métamodèle spatial est construit en combinant la réduction dimensionnelle par la POD
et le modèle de krigeage.

3.3.1 Méthode de la PGD


La PGD est connue comme une méthode de réduction de modèle qui est introduit ini-
tialement par Pierre Ladevèze au LMT à la fin des année 80 sous le nom d’approximation
radiale [98]. C’était à l’origine un point technique de la méthode LaTIn décrite dans [96]
et conçue pour résoudre des problèmes de comportement matériau non linéaire. Elle a
depuis été utilisée pour de nombreuses applications en mécanique des structures ([28]
donne une idée des nombreux domaines d’application étudiés). Le nom de la méthode a
été modifié en 2010 par P. Ladevèze et F. Chinesta afin de mettre en valeur sa généralité.
La PGD est une extension de l’approche de décomposition orthogonale propre (ou POD)
[29] applicable à de nombreux domaines.

L’idée de l’approche consiste à trouver une approximation à variable séparées de


48 CHAPITRE 3. Construction d’un métamodèle

solution du champ spatial u en dépendant d’un jeu de paramètres x ∈ D d’un problème.

A(u(x), u∗ ; x) = f (u∗ ; x), ∀u∗ (3.43)

où x = [x1 , x2 , ..., xNp ] sont les paramètres, A est un opérateur différentiel linéaire, et u∗
est la fonction test. La PGD permet de décomposer la solution sous la forme :
K

∀M ∈ Ω, ∀x = (x1 , x2 , ..., xNp ) ∈ D, u(x, M) = αk (x)ϕ k (M) (3.44)
k=1

où K est l’ordre d’approximation via la méthode PGD (ou le nombre modes), ϕ k (M)
sont les modes spatiaux ou les bases réduits, αk (x) sont les modes paramétriques qui
peuvent être vu comme une fonction des paramètres qui est représenté par :
Np

αk (x) = αk (xi ) (3.45)
i=1

La résolution de l’équation 3.43 par décomposition PGD dépendant des paramètres et


de l’espace s’effectue par la méthode de Galerkin ou la minimisation de résidu dans [97],
[29]. Un algorithme de point fixe est utilisé pour construire les fonctions αk (x) et les
bases réduites ϕ(M) de manière itérative en même temps que l’approximation [37]. Les
problèmes paramétriques, ainsi que le problème en espace, sont résolus alternativement
jusqu’à ce que le critère de convergence soit satisfait. Les modes sont ensuite stockés
dans un abaque virtuel. Le détail de stratégie de la construction PGD pour les problèmes
multiparamétriques est présenté dans [37].

Les problèmes non-linéaires [15], [96] forment l’application d’origine de la méthode


PGD et des perfectionnements des techniques sont toujours en cours [187]. Elle est
aujourd’hui employée aussi pour résoudre des problèmes multiéchelles [39], [27] ou
de décomposition de domaine [127]. La rapidité d’utilisation des modèles réduits issus
de la PGD en fait un outil privilégié pour l’étude de problème de validation [16] ou
d’identification [140] en temps réel. Son application à des problèmes multiphysiques
se trouve dans [129] et multiparamétriques se trouve dans [38]. Dans le problème d’in-
génierie de conception complexe, Courard a présenté la PGD-Abaques virtuels dans
[37] permettant de construire une approximation des champs et des quantités d’intérêt
utilisés dans l’optimisation géométrique de formes complexes.

Cependant, la PGD ne s’applique que pour les problèmes de structure linéaire


élastique, ou les cas de petite déformation non-linéaire. Elle permet de construire un
abaque virtuel pour l’optimisation géométrique des structures [129], [38]. L’utilisation
de la PGD dans les cas de grandes déformations pose des problèmes de conditionnement
conséquents.
3.3. Métamodèles d’un champ spatial 49

3.3.2 Métamodèle spatial basée sur la POD

Dans cette section, un métamodèle spatial sera construit sur la décomposition or-
thogonale propre avec le métamodèle de la fonction scalaire abordé dans la section
précédent. Pour la POD, les bases réduites (ou fonctions de bases) seront construites
à partir des réponses de simulations pré-calculées de modèle haute-fidélité(ou appelé
"snapshots") des échantillons de paramètres initiaux. Les fonctions seront ensuite inter-
polées par le métamodèle de krigeage(ou les fonctions de base radiale, la régression du
vecteur de support,...). Par conséquent, le modèle haute-fidélité pourrait être remplacé
par le métamodèle spatial à tout point de l’espace de paramètres ne comprenant pas les
points entraînés. Contrairement à l’approche basé sur la PGD, le métamodèle spatial ne
décrit pas l’état de la physique, mais prédit le champ de spatial des nouveaux paramètres.
C’est pour cela que la POD est plus utilisée dans l’ingénierie de conception. La POD est
appliquée populaire dans les problème de l’optimisation de forme en aérodynamique
[75], [137], [74] et en structure [142], le test d’indentation [24], [119], la mise en forme
[66], [104].

Décomposition orthogonale propre (POD)

La POD est également connue sous de nombreux noms différents comme la décom-
position de Karhunen-Loeve (KLD), les analyses en composantes principales (PCA) ou
la décomposition en valeurs singulières (SVD). La connexion et l’équivalence entre les
trois méthodes sont présentées par Liang et al. [110]. Elle est l’une des techniques de
réduction de dimension non supervisée les plus célèbres. Ces techniques sont impor-
tantes dans de nombreuses applications liées à l’exploration de données [179], [19], la
bioinformatique [152], la reconnaissance de visages [168], le traitement de signal et la
théorie du contrôle [112]. Elle est aussi rencontrées dans des problèmes d’ingénierie
comme l’analyse thermique transitoire [11], la description des écoulements turbulents
[10], [167], la dynamique structurale [85], l’aérodynamique instationnaire [177], et la
reconstruction aérodynamique des données et conception inverse [23].

L’idée qui repose sur la technique de la POD est de transformer les données d’un
espace de dimension supérieure en un espace de dimension inférieure (voir 3.6). En
supposant qu’on a un ensemble S de Ns vecteurs, S = {u1 , u2 , ..., uNs }, avec ui ∈ RNd où
Nd représente la dimension des données. La POD permet de changer un système de
coordonnées de Nd dimension en un nouveau système de coordonnées avec la dimension
K inférieure (K ≤ Nd ). Dans le problème de la simulation numérique par élément finis,
chaque vecteur d’entrée xi dans l’espace de paramètre D, la sortie associée ui = u(xi )
est alors un vecteur de réponse du champ spatial (champ de coordonnées, champ de
displacement, champ de contraint, etc) qui est pré-calculé ou simulé pour un modèle
haut-fidélité. On veut approximer le vecteur ui sur le domaine RNd × D en combinant
le champ moyen d’ensemble et une combinaison linéaire finie d’une fonction de base
50 CHAPITRE 3. Construction d’un métamodèle

Système de Nouveau système


coordonnées initial Projection de coordonnées

Donnée Donnée
points points
𝑁𝑑 dims 𝒖𝟏 𝒖𝟐 𝒖𝟑 K dims 𝝋𝟏 𝝋𝟐 𝝋𝟑

Figure 3.6 – POD comme un changement de système de coordonnées

ϕ ∈ RNd :
K

i
u ≃ ū + αk (xi )ϕ k (3.46)
k=1

où αk (xi ), k = 1, 2, ..., K sont les coefficients modaux et ū est le champ moyen calculé sur
tous les simulations pré-calculées de modèle haute-fidélité :
N
s
1 ∑
ū = u(xi ) (3.47)
Ns
i=1

La fonction de base ϕ k est également appelé la base POD (mode POD) et K indices
nombre de base (K ≤ n ≤ d). La POD permet d’obtenir la meilleure base suivante :

⎨1, if k = l

k l

⟨ϕ , ϕ ⟩ = ⎪ (3.48)
⎩0, if k , l

où ⟨u, v⟩ = uT v est un produit


√ scalaire dans le RNd euclidien et une norme euclidienne
associée sera notée ∥u∥ = ⟨u, u⟩. Les fonctions de base φ = {ϕ 1 , ϕ 2 , ..., ϕ K } sont détermi-
nées par le minimum d’erreur de la projection :
N s K
1∑ ∑
min ∥ui − ū − αk (xi )ϕ k ∥2 (3.49)
(ϕ 1 ,ϕ 2 ,...,ϕ K ) 2
i=1 k=1

où le coefficient αk (xi ) est calculé en projetant la déviation (ui − ū) sur chaque mode
POD, c’est-à-dire :

αk (xi ) = ⟨ui − ū, ϕ k ⟩, k = 1, 2, ..., K (3.50)

En raison des hypothèses d’orthogonalité 3.48 sur le ϕ k , le problème 3.49 équivaut à


3.3. Métamodèles d’un champ spatial 51

rechercher :
N K
s ∑
1∑
max ⟨ui − ū, ϕ k ⟩ (3.51)
(ϕ 1 ,ϕ 2 ,...,ϕ K ) 2
i=1 k=1

Résoudre le problème 3.51 conduit à trouver la solution du problème de la valeur propre,


ce qui est démontré dans [41], [110] :

Cu V = ΛV avec Cu = DuT Du (3.52)

où Cu est la matrice de corrélation symétrique carrée et Du est la matrice de déviation


calculée par :

Du = [u1 − ū, u2 − ū, ..., un − ū] (3.53)

La résolution du problème 3.52 permet de trouver la matrice des vecteurs propres


V = [υ 1 , υ 2 , ..., υ Ns ] et les valeurs propres vectorielles Λ = [λ1 , λ2 , ..., λK ]. Ensuite, chaque
vecteur de base POD est obtenu :
Ns
k 1 ∑ ( )
ϕ =√ (υk )i ui − ū , k = 1, 2, ..., K. (3.54)
λk i=1

Les valeurs propres λk peuvent être indexées dans l’ordre décroissant λ1 ≥ λ2 ≥, ..., ≥ λn .
Le rang de troncature K (appelé nombre de modes) peut également être calculé afin
d’étudier si la projection de toutes les paires (ui − ū). Ainsi, les critères d’erreur ϵ(K) des
modes K sont définis comme suit :
∑k=K
λk
ϵ(K) = 1 − ∑k=1k=n
≤ϵ (3.55)
k=1 λ k

où ϵ est le seuil d’énergie donné. Enfin, la construction du vecteur original peut être
approximée en utilisant K modes par :
K

i
uP OD (x ) = ū + αk (xi )ϕ k (3.56)
k=1

On prend l’exemple traité pour un problème très populaire pour la reconnaissance


des images dans [181]. On considère 32 instances d’images en niveau de gris. Chaque
image a une taille de 226 × 326 pixels comme la figure 3.7. L’image est alors considérée
comme un vecteur 1D très long en concaténant les pixels de l’image colonne par colonne
226 × 326 = 73676. On constate que le grand nombre 73676 est la dimension de l’espace
vectoriel. Par conséquence, la donnée initiale est contenue dans un matrice de 73676×32.
En applicant la POD, on peut tracer des valeurs propre sur la figure 3.8. On remarque
que les valeurs propres diminuent très rapidement pour les six premiers modes et moins
52 CHAPITRE 3. Construction d’un métamodèle

Figure 3.7 – 32 instances d’images

108
4.5

3.5

3
Valeur propre

2.5

1.5

0.5

0
0 5 10 15 20 25 30 35
mode

Figure 3.8 – Valeurs propres pour les images

vite avec les modes suivants. La figure 3.9 illustre le champ moyen et les 7 premiers
modes (ou eigenfaces). La reconstruction de l’image est fait en ajoutant le champ moyen
et une combinaison linéaire comme dans la figure3.10 à partir de 7 modes. La figure
3.11 montre la construction de 32 images à partir des 7 modes. En pratique, le choix
du nombre de modes est basé sur l’équation 3.55. La POD permet de détecter une
image inconnue [113] qui a même taille que les images d’entraînement. Pourtant, dans
3.3. Métamodèles d’un champ spatial 53

(a) Moyen (b) Mode (c) Mode (d) Mode (e) Mode (f) Mode 5 (g) Mode (h) Mode
1 2 3 4 6 7

Figure 3.9 – Champ de moyen et les modes

= + 𝛼11 + 𝛼21 + …. + 𝛼17

Figure 3.10 – Reconstruction de premier l’image à partir de 7 base POD

Figure 3.11 – Reconstruction pour 7 mode POD


54 CHAPITRE 3. Construction d’un métamodèle

le cas de données non-linéaires, la POD n’est pas applicable. Alors, pour réduire la
dimension des données, quelques techniques sont utilisées tel que "Kernel principal
component analysis" (kernel-PCA) [157] [156], "Locally-linear embedding (LLE)" [150],
ou les techniques de non-linéarité réductions dimensionnelles [106], [178].

Métamodèle spatial par la combinaison de POD et de krigeage


On constate que l’équation 3.56 permet de faire une représentation séparable du
champ spatial en dépendant des paramètres par les fonctions de base et le modale
coefficient au point d’observation, mais ne peut pas interpoler d’autres points sur l’espace
de paramètres. De plus, la dépendance du champ spatial sur les paramètres peut être
représentée par les coefficients POD :

{x1 , x2 , ..., xNs } −→ {αk (x1 ), αk (x2 ), ..., αk (xNs )} (k = 1, 2, ..., K) (3.57)

Donc, pour construire le métamodèle sur tous les points de l’espace de paramètres, on
combine la réduction dimensionnelle par la POD et le modèle d’approximation des
coefficients par le krigeage ou les fonctions de base radiale qui sont décrites dans la
section 3.2. Le métamodèle spatial est obtenue pour tous les points x dans l’espace de
paramètres D par :
K

û(x) = ū + α̂k (x)ϕk , ∀x ∈ D (3.58)
k=1

où ū et ϕ sont calculé à partir de l’équation 3.47 et 3.54, α̂k (x) est le métamodèle de
d α̂(x)
krigeage (ou RBF) des coefficient POD. En outre, on peut exploiter ses gradient dx en
prenant le gradient du modèle de krigeage (ou RBF). Ainsi, le gradient de metamodèle
spatial obtenu est :
K
û(x) ∑ d α̂k (x)
= ϕk , ∀x ∈ D (3.59)
dx dx
k=1

On remarque que le métamodèle permet de prédire le champ spatial à un nouveau


point dans l’espace de paramètres. Il ne décrit pas le phénomène physique de structure
comme la métamodèle PGD qui fait intervient dans les équations EDP du problème
physique. Finalement, la procédure de construction du métamodèle spatial peut être
résumée par les étapes suivantes :

1. Définir un ensemble de points xi , i = 1, 2, ..., Ns dans l’espace de paramètres D en


utilisant le plan d’expériences.
2. Calculer Ns solutions élément finis ui = ui (x). L’ensemble de données : S =
{u1 , u2 , ..., uNs }.
3. Calculer le champ de moyen ū à partir de l’équation 3.47.
3.3. Métamodèles d’un champ spatial 55

4. Calculer la matrice de déviation ui − ū.


5. Calculer la matrice de corrélation Cu = DuT Du .
6. Résoudre le problème des valeurs propres à partir de l’équation 3.52.
7. Calculer les modes POD à partir de l’équation 3.54.
8. Choisir les K premiers modes qui contiennent une haute énergie POD cumulative.
N
9. Calculer les K coefficients POD αk1 , αk2 , ..., αk s , k = 1, 2, ..., K.
10. Construire le métamodèle pour chaque coefficient α̂k (x).
11. Construire le métamodèle spatial û(x) par l’équation 3.58.

Estimation de l’erreur de prédiction pour métamodèle spatial

On constate que le champ de spatial est un vecteur d’état qui contient Nd variables.
C’est-à-dire, chaque composant j dans champ de spatial est prédit par :
K

ûj (x) = ūj + (ϕjk )α̂k (x) (3.60)
k=1

où ûj et ϕj désignent j-ème composant de champ de moyen et base POD, respectivement.


La prédiction d’erreur à tout composant j est :
[ ]
ŝj2 (x) = E (ûj (x) − uj (x))2 (3.61)

En utilisant l’équation 3.60 dans 3.61, on obtient :


⎡⎛
K
⎞2 ⎤
⎢⎢⎜⎜∑ ⎟⎟ ⎥⎥⎥
ŝj2 (x) = E ⎢⎢⎢⎜⎜⎜⎝ (ϕjk ) (α̂k (x) − αk (x))⎟⎟⎟⎠ ⎥⎥⎥ (3.62)

⎣ ⎦
k=1
⎡ K K ∑ m

⎢⎢∑ 2
∑ ⎥⎥
k 2 m n
= E ⎢⎢⎣ (ϕj ) (α̂k (x) − αk (x)) + 2
⎢ ϕj ϕj (α̂n (x) − αn (x)) (α̂m (x) − αm (x))⎥⎥⎥⎦
k=1 m=1 n=1
⎡ K ⎤ ⎡ m m ⎤
∑ ⎢⎢ ∑ ∑
2
⎢⎢ ⎥⎥ ⎥⎥
k 2 m n
= E ⎢⎢⎣ (ϕj ) (α̂k (x) − αk (x)) ⎥⎥⎦ + 2E ⎢⎢⎣
⎢ ⎥ ⎢ ϕj ϕj (α̂n (x) − αn (x)) (α̂m (x) − αm (x))⎥⎥⎥⎦
k=1 m=1 n=1

Maintenant, on suppose que l’erreur de prédiction du métamodèle spatial est calculée


par une erreur moyenne de tous les composants, c’est-à-dire,
Nd
1 ∑
ŝ2 (x) = ŝj2 (x) (3.63)
Nd
j=1
56 CHAPITRE 3. Construction d’un métamodèle

En remplaçant ŝj (x) de l’équation 3.62 à l’équation 3.63, on a :


⎡ ⎤
Nd ∑ K
1 ⎢⎢∑ ⎥⎥
ŝ2 (x) = (ϕjk )2 (α̂k (x) − αk (x))2 ⎥⎥⎥
⎢ ⎥
E ⎢⎢⎢
Nd ⎣ ⎦
j=1 k=1
⎡ ⎤
Nd ∑ K ∑ m
2 ⎢ ⎢ ∑ ⎥⎥
ϕjm ϕjn (α̂n (x) − αn (x)) (α̂m (x) − αm (x))⎥⎥⎥

+ E ⎢⎢⎢ (3.64)

Nd ⎣ ⎦
j=1 m=1 n=1
⎡ ⎛ ⎞ ⎤
K Nd
1 ⎢⎢⎢⎢∑ ⎜⎜⎜⎜∑ ⎟⎟ ⎥⎥
= ⎜⎜ (ϕjk )2 ⎟⎟⎟ (α̂k (x) − αk (x))2 ⎥⎥⎥
⎟ ⎥
E ⎢⎢
Nd ⎣ ⎝ ⎠ ⎦
k=1 j=1
⎡ ⎛ ⎞ ⎤
K ∑ m ⎜∑ Nd
2 ⎢ ⎢ ∑ ⎟ ⎥⎥
ϕjm ϕjn ⎟⎟⎟ (α̂n (x) − αn (x)) (α̂m (x) − αm (x))⎥⎥⎥
⎢ ⎜ ⎟
+ E ⎢⎢⎢
⎜⎜ ⎟ ⎥
Nd ⎣
⎜⎜
⎝ ⎠ ⎦
m=1 n=1 j=1

Car les bases POD sont orthogonalité sur le ϕ k , on déduit :


Nd
∑ Nd

k 2
(ϕj ) = 1 et ϕjm ϕjn = 0 (3.65)
i=1 i=1

En replaçant les conditions 3.65 à l’équation 3.64, on obtient finalement :


⎡ K ⎤ K
1 ⎢⎢⎢∑ 2 1 ∑ [ ]
E (α̂k (x) − αk (x))2
⎥⎥
2
ŝ (x) = E ⎢⎢⎣ (α̂k (x) − αk (x)) ⎥⎥⎥⎦ = (3.66)
Nd Nd
k=1 k=1
[ ]
Avec E (α̂k (x) − αk (x))2 est la variance de l’erreur de prédiction de k-ème coefficient
POD par krigeage(ou RBF). Ainsi, la variance de l’erreur de prédiction du métamo-
dèle spatial est calculée par la division entre la somme des erreurs de prédiction des
coefficients POD et le nombre de composant de champ spatial.

3.4 Plan d’expériences


Plan d’expériences (ou Design of Experiments-DOE) [61], [154] est une stratégie
d’allocation d’échantillons (points) dans l’espace de paramètres qui vise à maximiser
la quantité d’informations acquises. Le modèle de haute-fidélité est évalué à ces points
pour créer l’ensemble des données d’apprentissage qui est ensuite utilisé pour construire
le métamodèle. Lors de l’échantillonnage, il y a un compromis clair entre le nombre
de points utilisés et la quantité d’informations pouvant être extraites de ces points.
Les échantillons sont généralement répartis autant que possible afin de capturer les
tendances globales dans l’espace de paramètres. Ces techniques les plus efficaces sont
donc les espaces de remplissage qui visent à répartir les échantillons de façon homogène
dans l’espace de paramètres. Quelques techniques de plan d’expériences sont souvent
3.4. Plan d’expériences 57

(a) Factorielle complète (b) Composite centrale (c) Box-Behnken

Figure 3.12 – Plan d’expérience factorielle pour trois variables de conception

utilisées tel que : la conceptions factorielles, l’échantillonnage par hypercube latin (Latin
hypercube sampling-LHS) [116], les Tessellations Centroïdes Voronoï Latines (ou La-
tin Centroidal Voronoi Tessellations-LCVT) [153] et l’échantillonnage Monte-Carlo [131].

Les conceptions factorielles [154] sont des techniques DOE classiques qui, lors-
qu’elles sont appliquées à des variables de conception discrètes, explorent une grande
région de l’espace de recherche. L’échantillonnage de toutes les combinaisons possibles
est appelé conception factorielle complète. Des plans factoriels fractionnaires peuvent
être utilisés lorsque l’évaluation du modèle est coûteuse et que le nombre de variables
de conception est élevé (en pleine conception factorielle, le nombre d’échantillons aug-
mente exponentiellement avec le nombre de variables de conception). Les variables
continues, une fois discrétisées, peuvent être facilement analysées grâce à la concep-
tion factorielle. La conception factorielle complète à deux niveaux et à trois niveaux
(également connu sous le design 2k et 3k ) nous permet d’estimer les principaux effets et
interactions entre les variables de conception, et les effets et interactions quadratiques,
respectivement. La figure 3.12 illustre des exemples de plan d’expériences factoriels :
composite centrale, et Box-Behnken respectivement, pour trois variables de conception.
Deux autres techniques permettent de faire le remplissage de l’espace dans les régions
présentant des non-linéarités plus élevées ou une probabilité plus élevée de contenir un
optimum tel que LHS ou LCVT. La figure 3.13 illustre des exemples de plan d’expérience
par LHS et LCVT pour 20 échantillons de deux variables, et figure 3.14 illustre des
exemples de plan d’expérience par LHS et LCVT pour 100 échantillons de trois variable.
On constate que le LCVT tend à fournir une distribution uniforme de l’information dans
l’espace paramétrique tout en conservant les caractéristiques d’un hypercube latin. La
comparaison des techniques de LCVT et d’autres techniques est montrée par Romero
dans [149]. Dans les deux cas de deux et trois variables, le plan d’expérience obtenue
en utilisant LCVT est vu pour être plus uniformément distribué, bien qu’il ait un écart
légèrement plus élevé. Par conséquence, le technique de LCVT peut être permettre une
meilleure exploration de la fonction objectif pour un même coût de calcul.
58 CHAPITRE 3. Construction d’un métamodèle

(a) Échantillonnage par LHS (b) Échantillonnage par LCVT


variable

Figure 3.13 – Échantillonnage par LHS et LCVT de deux variables

(a) Échantillonnage par LHS (b) Échantillonnage par LCVT

Figure 3.14 – Échantillonnage par LHS et LCVT pour 100 échantillons de trois variable
3.5. Conclusion 59

3.5 Conclusion
Dans ce chapitre, une étude bibliographique est faite. Deux groupes de métamodèles
sont présentés : les métamodèles d’une fonction scalaire qui permettent d’approximer
une fonction scalaire (RBF, krigeage,...) et les métamodèles d’un champ spatial qui
permettent de faire l’approximation d’un champ spatial (PGD et POD).

Le métamodèle de la fonction scalaire est aujourd’hui déployé dans plusieurs Toolbox


DACE 3 (Design and Analysis of Computer Experiments), ou ooDACE Toolbox 4 , ainsi
que de nombreux logiciels tels que :
1. la toolbox STK (MATLAB) 5 développée E. Vazquez et J. Bect
2. toolbox DACE (Scilab) 6 développée par Y. Collette et H.B. Nielsen ;
3. la toolbox SUMO 7 (MATLAB, Java, C et C++) développée par le SUMO Lab de
l’Université de Gand (IBCN research group).
4. la toolbox GPML 8 (MATLAB) développée par C.E. Rasmussen et C.K.I. Williams
5. la toolbox krisp (Scilab) 9 développée par J. Janusevskis
6. la toolbox GRENAT 10 (GRadient ENhanced Approximation Toolbox) développée
au sein du LMT-Cachan par L.Laurent
7. la scikit-learn 11 (Python, Cython, C and C++) développée par D. Cournapeau et
al.
La construction de métamodèle spatial est réalisée en deux niveaux. Le premier
niveau comprend la réduction de dimension du champ spatial et représente les variables
séparées par la POD. Le deuxième niveau comprend la construction du métamodèle
pour chaque coefficient POD en utilisant le métamodèle d’une fonction scalaire. Ensuite,
le métamodèle spatial est construit par une combinaison linéaire finie de fonctions
de base et ces métamodèles de coefficients. Ce métamodèle est utilisé pour prédire le
champ de réponse de la fonction ou le comportement des conceptions de produit et est
intégré dans le processus d’optimisation de l’itération.

On utilisera la toolbox SUMO (Surogate Modelling) et DACE pour construire le


modèle de krigeage durant cette thèse. Le métamodèle spatial sera réalisé par la routine
couplée de la réduction dimensionnelle et ces toolbox. Cette procédure sera implémentée
sous le code Matlab.

3. http ://www2.imm.dtu.dk/ hbni/dace/


4. http ://www.sumo.intec.ugent.be/ooDACE
5. http ://sourceforge.net/projects/kriging/
6. http ://atoms.scilab.org/toolboxes/dace_scilab
7. http ://sumo.intec.ugent.be/SUMO.
8. http ://www.gaussianprocess.org/gpml/code/matlab/doc/
9. http ://atoms.scilab.org/toolboxes/krisp
10. https ://bitbucket.org/luclaurent/grenat
11. https ://github.com/scikit-learn/scikit-learn
60 CHAPITRE 3. Construction d’un métamodèle
Chapitre 4
Stratégies d’optimisation basées sur
l’utilisation de métamodèle

Sommaire du chapitre

4.1 Introduction 62
4.2 Stratégie séquentielle directe 64
4.2.1 Formulation du problème . . . . . . . . . . . . . . . . . . . 64
4.2.2 Résolution du problème séquentiel approximatif . . . . . . 64
4.2.3 Critères d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.4 Organigramme d’optimisation . . . . . . . . . . . . . . . . . 66
4.2.5 Exemple numérique . . . . . . . . . . . . . . . . . . . . . . 66
4.3 Stratégie séquentielle basée sur l’algorithme EGO 74
4.3.1 Critère de l’amélioration espérée . . . . . . . . . . . . . . . 75
4.3.2 L’algorithme EGO pour le problème d’optimisation avec les
contraintes de bornes . . . . . . . . . . . . . . . . . . . . . . 76
4.3.3 L’algorithme EGO pour le problème d’optimisation avec des
fonctions contraintes non-linéaires . . . . . . . . . . . . . . 88
4.3.4 Critères d’arrêts . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4 Stratégie séquentielle d’optimisation multi-objectif 92
4.4.1 Rappel des critères d’espérance de l’amélioration multi-objectifs 93
4.4.2 Critère de matrice d’espérance de l’amélioration . . . . . . 97
4.4.3 Multi-objectif avec constraints non-linéarité . . . . . . . . . 99
4.5 Conclusion 104

61
62 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

4.1 Introduction
Dans de nombreux problèmes de conception mécanique, des modèles numériques
sont largement utilisés pour vérifier la résistance mécanique de structures complexes. En
raison de la complexité croissante des systèmes mécaniques, l’utilisation de la simulation
numérique est maintenant une aide précieuse pour les ingénieurs. Plus particulièrement,
l’optimisation d’un procédé de mise en forme peut s’avérer assez fastidieuse lorsque le
modèle est fortement non-linéaire et/ou couteux à évaluer.

De manière générale, la conception assistée par simulation peut être formulée comme
un problème de minimisation non linéaire de la forme suivante :

x∗ = min f (u(x), x) (4.1)


x∈D

où x est le vecteur variable dans l’espace de paramètres D, u désigne le vecteur de


réponse de la simulation numérique du modèle haute-fidélité, f désigne la fonction
objectif à minimiser. L’utilisation des algorithmes d’optimisation classiques basés sur
un calcul du gradient nécessite souvent des centaines voire des milliers d’évaluations
de la fonction objectif par un modèle haute-fidélité (HF). De plus, dans la plupart des
procédures d’optimisation, la fonction objectif a généralement un grand nombre de
minimas et maximas locaux et une évaluation systématique de la fonction objectif par
un modèle HF pour résoudre le problème d’optimisation 4.1 peut s’avérer peu efficace.
Par conséquence, cela conduit à beaucoup de temps et le coût de calcul de la totalité
du processus d’optimisation peut être prohibitif. Au cours des 20 dernières années, les
développements dans le domaine de l’optimisation ont conduit à s’intéresser de plus en
plus aux modèles d’approximation ou aux métamodèles comme alternatives pouvant
aider à résoudre ces problèmes. Les métamodèles ou surfaces de réponse se sont avérés
être des approches efficaces dans la construction de modèles rapides qui approchent au
mieux le comportement d’un modèle HF. Une approche classique pour construire des
métamodèles consiste à échantillonner l’espace paramétrique en plusieurs points selon
une stratégie de plan d’expériences et à évaluer la fonction objectif en ces points à partir
d’un modèle HF. Le plan d’expériences peut ensuite être enrichi et adapté par différentes
stratégies [54]. Par exemple, un processus d’optimisation basé sur un métamodèle peut
suivre la procédure suivante :
1. Faire le plan d’expérience pour N échantillons initiaux dans l’espace de parra-
mètres D.
2. Évaluer le modèle haute-fidélité aux points d’échantillonnage
3. Construire le métamodèle à partir de ces points d’évaluations.
4. Mettre à jour le modèle de substitution en utilisant les nouvelles données du
modèle haute-fidélité.
5. Arrêter le calcul si la condition de fin est satisfaite ; sinon, passez à l’étape 3.
4.1. Introduction 63

Ces processus de conception optimale basés sur l’utilisation de métamodèles sont


appelés "Metamodel-based optimization" [7] ou "Surrogate-based optimization". De
nombreux travaux scientifiques s’appuient sur cette approche pour les problèmes d’opti-
misation en ingénierie mécanique. Forrester, Sóbester et Keane ont traité des applications
aérospatiales [54], [171], [82]. Knowles et al. ont présenté une stratégie permettant de
contrôler le budget des évaluations du modèle HF lors de l’optimisation [88]. Couckuyt
et al. ont utilisé le critère de remplissage pour l’application dans le domaine électroma-
gnétique [35]. Villemonteix et al. ont aussi proposé les critères de remplissage différents
pour l’optimisation de fonctions couteuses par une utilisation efficace du budget d’éva-
luations disponible [186] pour diverses applications industrielles. Une autre notion a
aussi été utilisée comme l’optimisation bayésienne [170] dans le concept d’apprentis-
sage automatique, ou l’optimisation basée sur le krigeage par Ginsbourger, Le Riche
et Carraro dans un contexte de mathématiques appliquées. En général, les auteurs se
sont concentrés sur l’exploration et l’exploitation du métamodèle d’une fonction objectif
pour améliorer et réduire le nombre de l’évaluations d’une fonction couteuse en général
ou en particulier dans la simulation d’un modèle haute-fidélité couteux en temps de
calcul.

Ce chapitre se concentre sur l’intégration du métamodèle spatial dans un proces-


sus d’optimisation. Contrairement aux travaux précédents, lorsque le métamodèle est
construit pour la fonction objectif, puis l’exploitation et l’exploration de ce métamodèle
est utilisé pour les critères de remplissage. Le métamodèle spatial d’un champ vectoriel
est intégré dans la formulation de la fonction objectif (par exemple pour le problème
4.1, le métamodèle spatial û du champ vectoriel u(x)). Ensuite, un sous-problème du
métamodèle sera résolu pour la fonction objectif du problème 4.1 par les méthodes
d’optimisation stochastique avec une évaluation très rapide. La solution optimale glo-
bale de ce sous-problème sera évaluée par l’itération suivante et enrichie dans l’espace
des paramètres. Cette procédure est effectué séquentiellement jusqu’à ce qu’un critère
d’arrêt soit satisfait.

Simultanément, l’exploitation et l’exploration du métamodèle seront déployées en


utilisant les espérances de l’amélioration [79] ou la probabilité d’amélioration comme
un critère de remplissage. Cela permet d’échantillonner séquentiellement les nouveaux
points dans l’espace des paramètres pour la recherche d’un optimum global.
64 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

4.2 Stratégie séquentielle directe


4.2.1 Formulation du problème
En général, un problème d’optimisation non-linéaire s’écrit de la manière suivante :

min f (u(x)) (4.2)


st : xL ≤ x ≤ xU ,
et g(x) ≤ 0

où x est l’ensemble des variables de conception. La variable de conception xi appartient


à l’ensemble des variables de conception x, i = 1, 2, ..., Np et Np le nombre de variables
de conception. Les ensembles de paramètres xL et xU représentent les limites inférieure
et supérieure de l’espace de conception pour chacune des variables de conception
dans x. u(x) désigne le vecteur réponse du modèle haute-fidélité de d variables d’état
avec chaque entrée x, g(x) est l’ensemble des fonctions contraintes. Clairement, f est
souvent évaluée à partir d’une simulation de type «boîte noire». En pratique, on peut
calculer directement la fonction objectif pour chaque vecteur réponse et construire le
métamodèle de la fonction f . Cependant, dans ces travaux, on s’intéresse d’abord à la
construction du métamodèle spatial û(x).

4.2.2 Résolution du problème séquentiel approximatif


Pour cette procédure, dans chaque cycle, un sous-problème d’optimisation est résolu
pour chercher un optimum global approximé qui sera ensuite évalué par le modèle
haute-fidélité. Ce nouveau point est alors rajouté dans l’espace de conception pour
construire un nouveau métamodèle spatial. Le sous-problème d’optimisation peut être
répété en boucle "n" fois :

x(n+1) = arg min f (n) (û(x)) (4.3)


x∈D
et ĝ (n) (x) ≤ 0

où û(x) est le métamodèle spatial qui est défini par l’équation 3.58, et ĝ (n) (x) est l’en-
semble des métamodèles de l’ensemble g(x) au n-ème cycle. Ces métamodèles sont
construits à partir du nombre d’échantillons d’observations dans chaque cycle. Par consé-
quence, une forme approchée des gradients paramètriques et les matrices Hessiennes de
la fonction objectif peuvent-être obtenus à partir de l’exploitation du métamodèle. On
notera l’utilisation de la méthode du lagrangien augmenté pour l’optimisation contrainte
dans une recherche de région de confiance basée sur un modèle approximation [60], [3],
où plus simple à mettre en œuvre est l’application de fonctions de pénalité [162]. Dans
notre cas, on a préféré utiliser l’algorithme d’optimisation quadratique successive (SQP
algorithm) [133] couplé à une méthode de multistart (plusieurs points de départ initiaux)
[182]. En réalité, pour trouver un optimum global approximé, on peut appliquer les
méthodes stochastiques tel que : l’optimisation par essaims particulaires ou l’algorithme
4.2. Stratégie séquentielle directe 65

génétique qui sont décrit dans la section 2.4. En raison de ses performances ainsi que de
sa capacité à s’adapter à des problèmes, on utilise le couplage de l’algorithme SQP et de
l’option multistart disponibles au sein de la routine fmincon de MATLAB.

Une autre approche pour traiter le problème d’optimisation avec les contraintes
non-linéaires : on suppose que la prédiction ĝ(x) et l’erreur de prédiction ŝg (x) sont
considérées comme la réalisation d’une variable aléatoire suivant la loi normale. On
peut alors calculer la probabilité de faisabilité que g(x) soit dans l’intervalle [−∞, 0]
(cela équivaut g(x) ≤ 0) comme suit (voir l’équation 3.23) :
∫ 0 (0−t)2 ( )
1 2ŝg2 (x) 0 − ĝ(x)
P [g(x) ≤ 0] = √ e dt = Φ (4.4)
ŝg (x) 2π −∞ ŝg (x)

où Φ désigne la fonction de répartition de la loi normale centrée réduite et ŝg (x) est la
variance de l’erreur de prédiction. Le problème 4.3 équivaut alors à trouver une solution
optimale dans la région faisable 4.4 en respectant des contraintes. Par conséquent, le
problème d’optimisation avec la contrainte non-linéaire peut être alors défini par la
résolution du problème suivant :

min fc (x) (4.5)


x∈D

avec :

fc (x) = f (û(x)) ∩ [1 − P [g(x) ≤ 0]] = f (û(x)) × [1 − P [g(x) ≤ 0]] avec ∀x ∈ D (4.6)

Le sous-problème est alors défini à n-cycle par :


⎡ ⎛ ⎛ ⎞⎞⎤
⎢⎢ ⎜⎜ ⎜⎜ 0 − ĝ (n) (x) ⎟⎟⎟⎟⎥⎥
(n+1) (n)
x = arg min ⎢⎢⎣f (û(x)) × ⎜⎜⎝1 − Φ ⎜⎜⎝ (n)
⎢ ⎜ ⎜ ⎟⎟⎟⎟⎥⎥
⎟⎠⎟⎠⎥⎦ (4.7)
x∈D ŝg (x)

où ĝ(x) et ŝg (x) sont la prédiction et la variance de l’erreur de prédiction du métamodèle


de la fonction contrainte à n-ème cycle. Dans le cas d’un problème avec un ensemble
de q fonctions contraintes d’inégalités g ≤ 0 (ou gi (x) ≤ 0, i = 1, 2, ..., q), on quantifie
la probabilité de faisabilité de chaque point du domaine, en supposant que toutes les
contraintes sont indépendantes, avec la probabilité de faisabilité Px :
q

Px = P (gi (x) ≤ 0), (4.8)
i=1

2
avec gi ∼ N (ĝi , ŝg,i (x)). Le problème 4.5 est élargi par la minimisation de la fonction
suivante :

fc (x) = f (û(x)) ∩ [1 − Px ] (4.9)


66 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

Cela conduit au sous-problème :


⎛ ⎡ ⎛ ⎞⎤ ⎞
q ⎢ ⎜ (n)
(n+1) (n)
⎜⎜ ∏ ⎢⎢ ⎜⎜ 0 − ĝi (x) ⎟⎟⎟⎟⎥⎥⎥⎟⎟⎟⎟

= arg min f (û(x)) × ⎜⎜1 − (4.10)
⎜⎜
x ⎜ ⎢⎢Φ ⎜⎜
⎢⎣ ⎜⎝ (n) ⎟⎟⎥⎥⎥⎟⎟
ŝ (x) ⎠⎦⎠
⎟ ⎟
x∈D ⎝
i=1 g,i

(n) (n)
où ĝi (x) et ŝg,i sont les prédictions et les variances d’erreur de prédiction du i-ème
métamodèle à n-cycle. La résolution de ce sous-problème s’effectuera aussi en utilisant
la routine fmincon avec l’option de multistart de MATLAB pour trouver des points
susceptibles d’être faisables.

4.2.3 Critères d’arrêt


Les critères d’arrêt ou critères de convergence sont des composantes importantes
dans le processus d’optimisation. En pratique, il y a plusieurs critères qui permettent
d’arrêter le processus d’optimisation tel que :
— limite du budget d’évaluation
— comparaison entre les optimums obtenus pour deux cycles successifs de mise à
jours n−1 et n : ∥x(n−1) −x(n) ∥. Lorsque cette différence est inférieure à une tolérance
fixée, le processus est arrêté.
Les inconvénients des critères sont que le processus d’optimisation peut s’arrêter avant
d’atteindre optimum global recherché. Dans le contexte de cette stratégie, le processus
d’optimisation est terminé si l’une des conditions suivantes est satisfaite :
⏐⏐ ⏐
⏐f (n) − f (n−1) ⏐⏐ < εf
⏐⏐ ⏐
⏐⏐ f (n) − f (n−1) ⏐⏐⏐ (4.11)
< ε
f (n−1) ⏐
⏐⏐ ⏐

où f (n) désigne la valeur objectif au n-ème cycle, et εf et ε sont des paramètres de


l’algorithme.

4.2.4 Organigramme d’optimisation


Pour expliquer la stratégie séquentielle directe basée sur un métamodèle spatial, on
va présenter les différentes étapes de la méthodologie d’optimisation employée durant
cette thèse :

4.2.5 Exemple numérique


Pour illustrer le fonctionnement de cette méthode d’optimisation, nous proposons
de la tester en utilisant des fonctions analytiques tests.
4.2. Stratégie séquentielle directe 67

Algorithm 1 Optimisation séquentielle basée sur un métamodèle spatial.


Entrées: L’ensemble de données initiaux (X, S, G1 , ..., Gq ), εf , ε.
Sorties: L’optimum (xmin , fmin ).
1: Calcul de l’ensemble des valeurs objectifs F associées à S
2: Recherche de la meilleure observation fmin dans F
3: Tant que La condition d’arrêt n’est pas remplie faire
4: Construire la POD à partir d’un ensemble de champ spatial : ū, ϕ k et αk .
5: Construire le métamodèle de krigeage pour tous les coefficients POD : α̂k (x).
6: Construire le métamodèle spatial : û(x).
7: Construire les métamodèles des fonctions contraintes : ĝi et ŝg,i , i = 1, 2, ..., q.
8: Résoudre le problème 4.3 (ou 4.10) pour trouver un le meilleur minimum x(n+1) .
9: Évaluer le nouveau champ spatial u(x(n+1) ) via le modèle HF.
10: Calculer la valeur objectif associée f (u(x(n+1) )).
11: Mettre à jour de l’ensemble des champs spatiaux : S ←− S ∪ u(x(n+1) ).
12: Mettre à jour l’ensemble des valeurs des fonctions objectifs : F ←− F ∪ f (u(x(n+1) )).

13: Mettre à jour l’ensemble des fonctions contraintes Gi ←− Gi ∪gi (x(n+1) ), i = 1, 2, ..., q.

14: Mettre à jour le nouveau plan d’expériences : X ←− X ∪ x(n+1) .


15: Déterminer l’optimum avec : fmin ←− min(F ), xmin ←− x ∈ X, f (u(x)) = fmin .
16: Fin tant que

Premier exemple

Considérons la fonction analytique suivante

u(t) = 2.5 sin(t) + 2 ecos(2.5t) (4.12)

Le tracé de cette fonction sur l’intervalle t ∈ [0, 3] est visualisé sur la figure 4.1 Imagi-
nons maintenant que cette expression représente la distribution d’une certaine valeur
physique u à certains moments ou coordonnées spatiales t. Ensuite, supposons en outre
que nous modifions cette fonction en rajoutant deux paramètres nommés x1 et x2 :

u(t, x) = x1 sin(t) + 2 ecos(x2 t) (4.13)

L’espace de définition du vecteur paramètre x ∈ D = [0, 4] × [0, 4]. Supposons que nous
aimerions identifier les deux paramètres x1 et x2 pour lesquels la fonction du modèle
4.13 corresponde à la "cible" donnée par 4.12. De toute évidence, la fonction cible existe
dans la famille des fonctions du modèle et elle est obtenue pour x = [2.5, 2.5]. Afin
d’identifier ces deux paramètres, la première étape consiste à construire la fonction
objectif qui permettra de quantifier l’écart moyen entre u(t) et u(t, x) sur un échantillon
68 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

7 7
fonction de la cible
fonction du modèle
6 6

5 5
u(t)

u(t)
4 4

3 3

2 2
0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 3
t t

(a) (b)

Figure 4.1 – Graphique de la fonction analytique (a) 4.12 utilisé comme fonction "cible"
et fonction du modèle (b).

(a) (b)

Figure 4.2 – La réponse de surface de la fonction objectif du modèle 4.14 et ses courbes
de niveaux.

de Nd valeurs de t. Cette fonction objectif aura la forme suivante :


Nd
1 ∑ ⏐⏐ ⏐
f (x) = ⏐u(tj ) − u(tj , x)⏐⏐ (4.14)
Nd
j=1

Dans cet exemple, on fixe Nd à 1001 points. Cette fonction objectif et ses courbes de
niveau sont illustrées sur le figure 4.2. On peut voir que la fonction objectif varie très
peu sur l’espace de paramètres D et a un seul minimum global au point xg = [2.5, 2.5].
4.2. Stratégie séquentielle directe 69

cas 1 cas 2 cas 3 cas 4 cas 5


4 4 4 4 4
x2

x2

x2

x2

x2
2 2 2 2 2

0 0 0 0 0
0 2 4 0 2 4 0 2 4 0 2 4 0 2 4
x1 x1 x1 x1 x1

cas 6 cas 7 cas 8 cas 9 cas 10


4 4 4 4 4
x2

x2

x2

x2

x2
2 2 2 2 2

0 0 0 0 0
0 2 4 0 2 4 0 2 4 0 2 4 0 2 4
x1 x1 x1 x1 x1

Figure 4.3 – Les échantillons initiaux pour 10 DOE initiaux différents en utilisant la
technique LCVT.

Maintenant, on va trouver une minimisation de la fonction 4.14 sous la contrainte x ∈ D.


La stratégie séquentielle est appliquée pour 10 plans d’expériences (DOE) différents
avec 10 échantillons initiaux en utilisant une technique LCVT illustrée sur la figure 4.3.
Pour chaque DOE, on construit un métamodèle spatial de fonction du modèle u(t, x)
avec les 10 échantillons initiaux. En utilisant la POD, on peut représenter les valeurs
propres et les erreurs sur la figure 4.4. On constate que les valeurs propres et les erreurs
tronquées baissent rapidement après les 5 premiers modes. A partir du sixième mode,
les erreurs semblent les mêmes pour tous les 10 cas. Ainsi, on gardera uniquement les 6
premiers modes pour construire le métamodèle spatial de la fonction du modèle u(t, x).
Finalement, le métamodèle spatial représente par :
6

û(t, x) = ū + ϕk α̂k (x) (4.15)
k=1

où chaque α̂k (x), k = 1, 2, ..., 6 sont les modèles de krigeage de chaque coefficient POD. Le
problème séquentiel alors peut être formulé comme une procédure itérative :
⏐ ⏐⏐
Nd ⏐ 6
1 ∑ ⏐⏐ ∑ ⏐
x(n+1) = arg min f (n) (x) avec f (n) (x) = ⏐⏐u(tj ) − ūj − ϕjk α̂k (x)⏐⏐⏐ (4.16)
x∈D Nd
i=1 k=1
⏐ ⏐

où ūj et ϕjk sont respectivement points le j-ème de champ de moyen pour la k-ème
base POD. La résolution du problème 4.16 est effectuée par l’algorithme SQP et l’option
multistart avec 50 points de départ qui sont disponibles au sein de la routine fmincon de
70 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

6000
Cas 1 Cas 1
0.5
Cas 2 Cas 2
5000
Cas 3 Cas 3
Cas 4 Cas 4
0.4
4000 Cas 5 Cas 5
Cas 6 Cas 6
Valeur propre

Cas 7 Cas 7
0.3

(K)
3000 Cas 8 Cas 8
Cas 9 Cas 9
Cas 10 0.2 Cas 10
2000

1000 0.1

0 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Mode Mode

(a) Les valeurs propres (b) Les erreurs de troncature

Figure 4.4 – Les valeurs propres et les erreurs de troncature.

cas 1 cas 2 cas 3 cas 4 cas 5


0.8 0.3 1 0.5
0.3
0.8 0.4
0.6
0.2
0.6 0.2 0.3
fmin

fmin

fmin

fmin

fmin
0.4
0.4 0.2
0.1 0.1
0.2
0.2 0.1

0 0 0 0 0
2 4 6 2 4 6 2 4 6 2 4 6 2 4 6
Cycle Cycle Cycle Cycle Cycle
cas 6 cas 7 cas 8 cas 9 cas 10
1 0.3 0.8 0.8
0.3
0.8
0.6 0.6
0.2
0.6 0.2
fmin

fmin
fmin

fmin
fmin

0.4 0.4
0.4
0.1 0.1
0.2 0.2
0.2

0 0 0 0 0
2 4 6 2 4 6 2 4 6 2 4 6 2 4 6
Cycle Cycle Cycle Cycle Cycle

métamodèle spatial POD+ krigeage métamodèle krigeage

Figure 4.5 – Évolution des minimums de la fonction objectif pour 10 DOE initiaux
différents.
4.2. Stratégie séquentielle directe 71

Figure 4.6 – Les courbes de niveau de la fonction objectif du métamodèle spatial pour
10 DOE initiaux différents avec les points noirs représentant les échantillons initiaux,
les points rouges désignent le point remplissage, et le minimum global s’est trouvé au
point vert.

Matlab. Le processus d’optimisation sera arrêté lorsqu’une des deux conditions dans
4.11 est satisfaite. Ici, on fixe les paramètres ε et εf de l’algorithme à 10−3 . Pour les 10
cas de DOE, on obtient les évolutions des valeurs de la fonction objectif sur la figure 4.5.
Il est à noter que l’utilisation du métamodèle spatial obtenu avec la POD et le krigeage
donne de meilleurs résultats que le métamodèle de krigeage seul construit directement
à partir de la fonction objectif. Avec cette stratégie basée le métamodèle spatial permet
de converger après de 5 à 7 cycles, alors qu’avec l’utilisation du métamodèle de krigeage
seul, la convergence est nettement moins bonne pour le même nombre de cycles. La
figure 4.6 illustre l’histoire de convergence pour tous les cas correspondant aux 10
DOE différent dans la figure 4.3. Les points noirs représentent les échantillons initiaux,
les rouges matérialisent les points ajoutés au cour des cycles. Le point vert désigne
l’optimum global.

Deuxième exemple

Maintenant, on va considérer une deuxième fonction test proposée par Forrester [54]
(voir figure 4.7a) :

u(t) = (6t − 2)2 sin(12t − 4) (4.17)


72 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

Supposons que la distribution cible de certaine valeur physique sur le domaine t ∈ [0, 1].

20 20
Fonction de la forme cible
Fonction du modèle
15 15

10 10

u(t)
u(t)

5 5

0 0

-5
-5

-10
-10 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
t
t

(a) (b)

Figure 4.7 – Fonction de Forrester 4.17 [54] et son type modifié 4.18.

On modifie la fonction pour intégrer deux paramètres x1 et x2

u(t, x) = x1 (6t − 2)2 sin(6x2 t − 4) (4.18)

qui dépendent de deux paramètres collectés dans le vecteur x ( voir 4.7b). La fonction
objectif à minimiser est définie comme dans l’équation 4.14 de l’exemple précédent
et visualisée sur la figure 4.8). On constate que la fonction objectif est non-convexe.
Elle a également plusieurs optimum local et un minimum global au point xg = [1, 2].

(a) (b)

Figure 4.8 – La réponse de surface de la fonction objectif du modèle 4.18 et ses courbes
de niveaux.
4.2. Stratégie séquentielle directe 73

cas 1 cas 2 cas 3 cas 4 cas 5


2.5 2.5 2.5 2.5 2.5

2 2 2 2 2

1.5 1.5 1.5 1.5 1.5

fmin

fmin
fmin

fmin

fmin
1 1 1 1 1

0.5 0.5 0.5 0.5 0.5

0 0 0 0 0
5 10 15 20 25 0 10 20 5 10 5 10 15 20 25 5 10 15
Cycle Cycle Cycle Cycle Cycle

cas 6 cas 7 cas 8 cas 9 cas 10


2 2.5

2 2 2 2
1.5
1.5 1.5 1.5 1.5
fmin

fmin

fmin

fmin

fmin
1
1 1 1 1
0.5
0.5 0.5 0.5 0.5

0 0 0 0 0
5 10 15 5 10 15 20 5 10 15 5 10 15 20 25 5 10 15 20
Cycle Cycle Cycle Cycle Cycle
Métamodèle spatial POD-krigeage métamodèle krigeage

Figure 4.9 – Évolution de la fonction objectif pour 10 DOE initiaux.

DOE ∥x∗ − xg ∥
x1∗ x2∗ fmin ∥x∗ − xg ∥
initial ∥xg ∥
1 1.0023 1.9995 0.0070 0.023 0.0010
2 1.0013 1.9998 0.0034 0.0013 0.0006
3 1.0021 1.9997 0.0056 0.0021 0.0009
4 1.0044 1.9992 0.0128 0.0045 0.0020
5 0.9999 2.0003 0.0032 0.0003 0.0001
6 0.7813 3.2087 1.3110 1.2283 0.5493
7 0.9990 2.0011 0.0118 0.0015 0.0007
8 0.7772 3.2110 1.3107 1.2313 0.5506
9 0.7872 3.2115 1.3107 1.2300 0.5501
10 1.0029 1.9989 0.0130 0.0031 0.0014

Tableau 4.1 – Tableau des variables et valeurs optimaux pour les 10 DOE initiaux.
74 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

Figure 4.10 – Les courbes de niveau de la fonction objectif du métamodèle spatial pour
10 DOE initiaux : les points noirs représentant les échantillons initiaux, les points rouges
désignent les nouveaux points rajoutés cycle par cycle, et le minimum global en vert.

L’application de la stratégie séquentielle, pour 10 cas différents avec 10 échantillons


initiaux comme pour l’exemple 4.2.5 (voir 4.3), on obtient les évolutions de convergence
présentée sur la figure 4.7. On voit que la stratégie basée sur le métamodèle spatial
permet à nouveau une meilleure convergence par rapport au métamodèle de krigeage
seul. Les paramètres optimaux et les valeur optimales pour 10 cas différents sont
montrés dans le tableau 4.1. On constate que pour trois DOE (les 6ième,8ième et 9ième),
l’algorithme converge vers un minimum local. Les cas restants convergent très bien. La
figure 4.10 illustre la trajectoire de convergence pour 10 cas différents avec 10 DOE
initiaux.

4.3 Stratégie séquentielle basée sur l’algorithme EGO


Le métamodèle construit fournit non seulement les estimations sur la prédiction,
mais aussi l’incertitude de la prédiction. La disponibilité de l’incertitude rend le mé-
tamodèle très approprié pour la conception de critères d’échantillonnage efficaces. On
propose l’utilisation de l’algorithme EGO (Efficient Global Optimization) qui a été in-
troduit par Jone et al. [80], [78]. Le principe de l’algorithm EGO est d’utiliser le critère
d’amélioration espérée (Expected Improvement - EI) qui est basée sur le travail de
Mockus [121]. L’EGO commence avec un petit échantillon de données dans l’espace de
4.3. Stratégie séquentielle basée sur l’algorithme EGO 75

conception et utilise un métamodèle (le plus populaire étant un métamodèle de type


krigeage). Sur la base de ce métamodèle, un ensemble de points supplémentaires, appe-
lés échantillons intercalaires, est sélectionné pour être évalué par la simulation haute
fidélité. L’ensemble d’échantillons est ensuite mis à jour, le réaménagement du modèle
et le processus de sélection de nouveaux points se poursuit jusqu’à ce que l’amélioration
attendue de l’échantillonnage des points supplémentaires soit devenue suffisamment
faible.

4.3.1 Critère de l’amélioration espérée


On supposera que la fonction objectif puisse être modélisée comme un processus
gaussien. Dans ce contexte la valeur d’un point inconnu x d’un métamodèle de krigeage,
fˆ(x), de f (x) est considérée comme une grandeur aléatoire, que nous noterons Y (x), de
moyenne fˆ(x) et de variance ŝ(x), c’est-à-dire que Y (x) une loi normale N (fˆ(x), ŝ(x)).
L’amélioration en ce point par rapport à la meilleure valeur observée fmin est également
une valeur aléatoire et s’écrit :

I (x) = max(fmin − Y (x), 0) (4.19)

où fmin est un minimum actuel qui est le meilleur point observé. L’espérance de l’amé-
lioration est définie par :

E[I (x))] = E[max(fmin − Y (x), 0)] (4.20)

où E est l’opérateur d’espérance. Ce critère de l’amélioration espérée est donc l’espérance


mathématique de l’amélioration espérée (voir [158] et [12]). On trouvera à l’annexe A.1
le calcul de l’expression 4.21 qui s’écrit :

ˆ(x) ˆ(x)
( ) ( )
f min − f fmin − f
E[I (x)] = EI(x) = (fmin − fˆ(x))Φ + ŝ(x)φ (4.21)
ŝ(x) ŝ(x)

où φ et Φ sont respectivement la densité et la fonction de répartition de la loi normale


centrée réduite, ŝ(x) est la variance de l’erreur de prédiction. L’espérance de l’améliora-
tion exprime la probabilité qu’une valeur de fonction à un emplacement d’échantillon
inconnu soit inférieure à la meilleure valeur de fonction échantillonnée (voir la figure
4.11). Le premier terme de 4.21 est la différence prédite entre le minimum actuel et la
prédiction fˆ(x) au point de x, pénalisé par la probabilité d’amélioration. Par conséquent
ce terme est grand lorsque la prédiction fˆ(x) est petit (ou est susceptible d’être plus petit
que fmin ). Le second terme est grand lorsque la variance d’erreur de la prédiction ŝ(x) est
grande, c’est-à-dire lorsqu’il y a beaucoup d’incertitude quant à savoir si f sera meilleur
que fmin . Ainsi, l’espérance de l’amélioration tendra à être importante à un point dont la
valeur prédite est inférieure à fmin min et/ou il y a beaucoup d’incertitude associée à la
prédiction. Par conséquent, l’espérance de l’amélioration peut être considérée comme
un compromis entre la recherche de zones prometteuses de l’espace des paramètres et
l’incertitude dans le métamodèle. La stratégie de recherche globale basée sur ce critère a
76 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

l’avantage qu’elle est beaucoup moins susceptible de fournir un optimum local qu’avec
une simple recherche sur l’approximation seulement.

Loi de Gauss
𝑁[𝑓 𝑥 , 𝑠 𝑥 ]
𝑓(𝑥)
𝑓𝑚𝑖𝑛

Amélioration
Espérance de l'amélioration
Minimum actuel I[𝑓 𝑥 ]

𝑥
Figure 4.11 – L’espérance de l’amélioration du métamodèle.

La figure 4.12 illustre les fonctions d’espérance de l’amélioration et la progression


d’une recherche de la fonction de Forrester modifié 2.1. Les figures à gauche sont
les prédictions de la fonction à minimiser : en pointillés rouges le métamodèle de
krigeage et en noir la fonction originale. Les figures à droite représentent les valeurs
du critère d’espérance de l’amélioration en vert associé au métamodèle des figures à
gauche. Le métamodèle est construit initialement pour les 3 points représenté par des
carrés bleus. Les points en ronds bleus sont les mises à jour par le critère d’espérance
de l’amélioration. Les points en rouge désignent le maximum global de la fonction
d’espérance de l’amélioration qui est ajouté à l’itération suivante. En préférant les points
autour du meilleur point observé et les points éloignés des échantillons en même temps,
le critère EI donne un bon compromis entre la recherche locale et la recherche globale.

4.3.2 L’algorithme EGO pour le problème d’optimisation avec les contraintes


de bornes

On considère le premier cas avec le problème d’optimisation sous contrainte de


borne min-max. L’algorithme EGO est appliqué pour deux types métamodèles : un
modèle de krigeage direct et un métamodèle spatial (mixte POD+krigeage).
4.3. Stratégie séquentielle basée sur l’algorithme EGO 77

10 1

EI(x)
f(x)

0 0.5

-10 0
0 0.5 1 0 0.5 1
10 0.2

EI(x)
f(x)

0 0.1

-10 0
0 0.5 1 0 0.5 1
10 0.05
EI(x)
f(x)

-10 0
0 0.5 1 0 0.5 1
10-4
10 10
EI(x)
f(x)

0 5

-10 0
0 0.5 1 0 0.5 1
-4
10
20 20
EI(x)
f(x)

0 10

-20 0
0 0.5 1 0 0.5 1
-5
10
10 4
EI(x)
f(x)

0 2

-10 0
0 0.5 1 0 0.5 1
x x

Figure 4.12 – La progression d’une recherche du minimum de la fonction de 2.1. La


figure de gauche représente les prédictions de la fonction en pointillés rouges (métamo-
dèle de krigeage) et fonction originale en noir. La figure de droite représente le critère
EI(x) en vert.
78 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

L’algorithme EGO sur le métamodèle d’une fonction objectif


Comme la stratégie séquentielle directe, l’algorithme EGO comprend deux niveaux
[80]. Ici, on construit directement le métamodèle de la fonction objectif y = f (x). Pre-
mièrement, un métamodèle initial est construit sur la base des points échantillonnés
initiaux. Dans le deuxième niveau, un point prometteur est identifié en optimisant
la fonction d’espérance de l’amélioration qui est ensuite utilisé pour mettre à jour
le métamodèle dans chaque cycle. On va commencer avec un ensemble de données
d’exemple, X = {x1 , x2 , ..., xNs } dans l’espace des paramètres D, avec les réponses obser-
vées, Y = {y 1 , u 2 , ..., y Ns }. La stratégie séquentielle basée sur l’algorithme EGO peut être
formulée par la procédure itérative :

x(n+1) = arg max EI (n) (x) (4.22)


x∈D

L’optimal global x(n+1) est calculé pour le problème 4.22. Puis le modèle haute-fidélité
sera évalué une seule fois par itération (à chaque nouveau design). Les données obtenues
à partir de la validation sont utilisées pour mettre à jour le métamodèle. Cette procédure
est effectuée jusqu’à la validation d’un critère de convergence. L’algorithme EGO peut
être résumé comme algorithme 2.

Algorithm 2 Algorithme EGO.


Entrées: L’ensemble de données initiaux X, Y
Sorties: Le meilleur minimum (xmin , ymin )
1: Cherche ymin = min(Y )
2: Tant que La condition d’arrêt n’est pas vérifiée faire
3: Construire un métamodèle de krigeage basé sur le design actuel (X, Y )
4: x(n+1) = arg maxx∈D EI (n) (x)
5: Évaluer x(n+1)
6: X ←− X ∪ x(n+1)
7: Y ←− Y ∪ y(x(n+1) )
8: ymin ←− min(Y )
9: xmin ←− x ∈ X à y(x) = ymin
10: Fin tant que

On utilise l’exemple de [80], avec la fonction de Branin qui a la forme suivante :

5.1 2 5 1
( ) ( )
f (x) = x2 − x − x1 − 6 + 10 1 − cos(x1 ) + 10, x = [x1 x2 ]T (4.23)
4π2 1 π 8π
Cette fonction est généralement évaluée sur l’espace de paramètres D = [−5, 10] × [0, 15].
La figure 4.13 illustre la fonction de Branin et ses courbes de niveau avec les trois mi-
nima globaux, les points noirs situés à : xg = (−π, 12.275), (π, 2.275) et (9.42478, 2.475).
L’algorithme EGO est appliqué pour rechercher le minimum global. Le métamodèle
4.3. Stratégie séquentielle basée sur l’algorithme EGO 79

300

200
f(x1 ,x 2 )

100

0
15
10 10
5
5
0
x2 0 -5 x1

(a) (b)

Figure 4.13 – Fonction de Branin (a) et ses courbes de niveau (b). Les trois points noir
sont les optima globaux.

300

200
f(x)

100

0
15
10
10
5
5
0
x2 0 -5 x1

(a) (b)

Figure 4.14 – La réponse de surface du métamodèle de krigeage de la fonction de Branin


(a) et ses courbes de niveau (b) avec les points noirs représentent les échantillons initiaux,
les points vers désignent le point de remplissage et le minimum global s’est trouvé au
point magenta.
80 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

350 12
Meilleure observation dans
plan d'expérience initial
300
10

250
8
Valeur evalué

200

f min
6
150

4
100

2 fmin = 0.4041
50

0 0
5 10 15 20 25 30 0 5 10 15 20 25 30
Cycle Cycle

(a) (b)

Figure 4.15 – Évolution de la valeur de la fonction objectif (a) et évolution du meilleur


minimum à chaque cycle.

de krigeage est initialement construit avec 10 échantillons initiaux par la technique


LCVT. Puis, on utilise 30 points pour enrichir dans l’espace de paramètres D. Ainsi, le
budget d’évaluation totale est de 40. On montre l’historique de l’évolution du métamo-
dèle construit itérativement pour les 5 premiers cycles avec la surface de réponse du
métamodèle (à gauche) et la fonction d’espérance (à droite) sur la figure 4.16. La figure
4.14 montre la surface de réponse du métamodèle de krigeage et ses courbes de niveau
au dernier cycle avec soit un total de 40 évaluations. Les points noirs représentent les
échantillons initiaux. Les points verts désignent les points rajoutés à chaque cycle. La
meilleure solution actuel est trouvée à x∗ = (9.4481, 2.551) qui est très proche d’un des
minima globaux théoriques xg = (9.42478, 2.475). L’évolution de la valeur de la fonction
objectif évaluée et de la meilleure observation fmin sont montrées sur la figure 4.15 dont
le minimum actuel est de 0.4041.

L’algorithme EGO sur le métamodèle spatial

Dans ce cas, on applique l’algorithme EGO en exploitant les fonctionnalités du méta-


modèle spatial comme la prédiction et la variance de l’erreur de prédiction introduite
dans la section 3.4 page 56. Dans la plupart des simulations, la réponse du système d’in-
térêt est souvent le champ de vecteur. Lorsqu’on considère le problème de conception
optimale, on souhaite trouver un vecteur de réponse très proche du vecteur cible. La
fonction objectif est souvent définie à travers un écart absolu ou une norme (ou une
erreur quadratique moyenne) qui mesure la distance entre la réponse et un vecteur cible
4.3. Stratégie séquentielle basée sur l’algorithme EGO 81

Figure 4.16 – La progression de l’enrichissement des 5 premiers cycles. Les figures repré-
sentent le métamodèle itératif à gauche. Les points noirs représentent les échantillons
initiaux. Les points verts désignent :l’enrichissement à gauche, et le global maximum de
la fonction d’espérance de l’amélioration à droite.
82 Stratégies d’optimisation basées sur l’utilisation de métamodèle

(comme dans l’exemple 4.2.5 et 4.2.5). La fonction objectif est alors écrite sous la forme :
Nd
1 ∑
fobj = dj (x) , x ∈ D (4.24)
Nd
j=1

où dj (x) est mesuré au j-ème point entre le vecteur de réponse u(x) et le vecteur cible
uc , Nd désigne le nombre de points dans le vecteur de mesure. On construit alors
le métamodèle spatial pour le champ de distance d = [d1 d2 ...dNd ]T sur l’espace de
paramètres D. La fonction objectif de prédiction est définie comme suit :
Nd
ˆ 1 ∑
fobj (x) = dˆj (x) (4.25)
Nd
j=1

où dˆj (x) est j-ème point de métamodèle spatial d(x)


ˆ qui désigne la prédiction d’une
mesure de distance. Le métamodèle spatial (POD+krigeage) d(x) ˆ est représenté selon
l’expression 3.58 (page 54) :
K

ˆ = d¯ +
d(x) ϕk α̂k (x) (4.26)
k=1

La variances de l’erreur de prédiction est alors déterminée comme l’équation 3.66 (page
??) :
K
2 1 ∑ 2
ŝobj (x) = ŝk (x) (4.27)
Nd
k=1

où ŝk2 (x), k = 1, 2, ..., K est la variance de l’erreur de prédiction qui est obtenue à partir
de chaque métamodèle du coefficient POD. Finalement, la fonction d’espérance de
l’amélioration de la fonction objectif a la forme suivante :

⎜⎜ fmin − fˆobj (x) ⎟⎟ ⎜⎜ fmin − fˆobj (x) ⎟⎟


⎛ ⎞ ⎛ ⎞
ˆ
EIobj (x) = (fmin − fobj (x))Φ ⎜⎝⎜ ⎟⎠ + ŝobj (x)φ ⎜⎝
⎟ ⎜ ⎟⎟ (4.28)
ŝobj x ŝobj (x) ⎠

où Φ et φ sont la fonction de répartition et la densité de probabilité de la loi normale,


respectivement. Le minimum actuel fmin est la meilleure observation dans l’ensemble
des valeurs objectif Fobj . La stratégie de remplissage basée sur le métamodèle spatial est
décrite dans l’algorithme 3.

Exemple numérique

On reprend l’exemple 4.2.5 en utilisant les algorithmes 2 et 3. Le vecteur cible est


décrit par la fonction 4.12. Le vecteur de réponse (x1 , x2 ) est décrit par l’équation 4.13 et
Stratégie séquentielle basée sur l’algorithme EGO 83

Algorithm 3 Algorithme EGO basée sur le métamodèle spatial.


Entrées: L’ensemble de données initiaux (X, S), vecteur cible uc
Sorties: La meilleure observation (xmin , fmin )
1: Calcul de l’ensemble de la mesure de distance D entre l’ensemble de réponse S et uc
2: Evaluation l’ensemble de valeur objectif Fobj
3: Cherche fmin = min(Fobj )
4: Tant que La condition d’arrêt n’est pas remplie faire
5: Construction de la POD pour le champ de distance d : d, ¯ ϕ̄ k , et αk
6: Construction du métamodèle de krigeage pour α̂k (x)
7: Construction du métamodèle spatial d(x)ˆ
8: Construction de la fonction objectif du métamodèle spatial fˆobj (x)
2
9: Calcul de variance de l’erreur de prédiction ŝobj (x)
10: Calcul u(n+1) = u(x(n+1) )
11: Calcul d (n+1) = |uc − u(n+1) |
(n+1)
12: Evaluation du valeur objectif fobj associé d (n+1)
13: X ←− X ∪ x(n+1)
14: D ←− D ∪ d (n+1)
15: Fobj ←− Fobj ∪ fobj
16: fmin ←− min(F )
17: xmin ←− x ∈ X à fobj (x) = fmin
18: Fin tant que

4.8, respectivement. Le champ spatial d(x) est mesuré par d = |u(t, x) − u(t)|. La fonction
objectif est définie par :
Nd
1 ∑
fobj (x) = dj (x), avec : dj (x) = |u(tj , x) − u(tj )| (4.29)
Nd
i=1
s.t :x ∈ D = [0, 4] × [0, 4] (4.30)

La stratégie commence avec 10 échantillons initiaux choisis par une technique LCVT
et est effectuée pour 10 cas différents avec 10 DOE initiaux comme l’exemple 4.2.5. On
utilise 30 points pour enrichir l’espace de paramètres D. Ces 10 cas différent de DOE
ˆ
initiaux sont traités en utilisant les algorithmes 2 et 3. Dans le métamodèle spatial d(x)
du champ de mesure, le nombre de mode POD est choisi pour assurer que les erreurs de
troncature 3.55 soit une erreur inférieur à 0.5%. On utilise 8 modes dans l’exemple 4.2.5
pour construire le métamodèle spatial d(x). ˆ Premièrement, on observe l’évolution de
fonction d’espérance de l’amélioration pour les 5 premiers cycles des deux algorithmes
sur la figure 4.17. On voit que la zone explorée de fonction d’espérance de l’amélioration
basée sur le métamodèle spatial (à droite) a une tendance à être plus large que celle
basée sur métamodèle de krigeage (à gauche) dans chaque cycle. Particulièrement, les
deux algorithmes enrichissent l’échantillonnage de la région qui contient l’optimum
84 Stratégies d’optimisation basées sur l’utilisation de métamodèle

Figure 4.17 – Évolution de la fonction d’espérance de l’amélioration basée sur le méta-


modèle de krigeage (à gauche) et le métamodèle spatial (POD+krigeage) (à droite). Les
points noirs représentent les échantillons initiaux, le point vert désigne le maximum
global de l’espérance de l’amélioration EI (x) à chaque cycle.
Stratégie séquentielle basée sur l’algorithme EGO 85

cas 1 cas 2
0.6 0.2
0.4
fmin

fmin
0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle

cas 3 cas 4
0.3
0.8
0.6 0.2
fmin

fmin
0.4 0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle

cas 5 cas 6
0.4 0.8
0.6
fmin

fmin

0.2 0.4
0.2
0 0
0 10 20 30 0 10 20 30
Cycle Cycle

cas 7 cas 8

0.2 0.6
0.4
fmin

fmin

0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle

cas 9 cas 10
0.3
0.6
0.2
0.4
fmin

fmin

0.1
0.2
0 0
0 10 20 30 0 10 20 30
Cycle Cycle

EGO basé sur le métamodèle de krigeage EGO basée sur le métamodèle spatial

Figure 4.18 – Évolution de minimum actuel de deux l’algorithme pour 10 cas différents
avec 10 DOE initiaux de l’exemple 4.2.5.
86 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

global. La figure 4.18 montre l’évolution du meilleur optimum au cours des 30 cycles
correspondant 30 point échantillonné pour 10 cas différents. Généralement, on peut
constater que l’historique des itérations de l’algorithme basé sur le métamodèle spatial
est meilleur que celui basé sur métamodèle de krigeage. En particulier, cette comparaison
est montrée dans le tableau 4.2. Sauf pour le troisième cas de DOE, pour tous les autres
cas de DOE on obtient un meilleur minimum avec le critère 4.31 :
∥x∗ − xg ∥
(4.31)
∥xg ∥

où x∗ et xg = (2.5, 2.5) désignent le minimum actuel et le minimum global réel, respecti-


vement.

EGO basée sur le métamodèle EGO basée sur le métamodèle


DOE
de krigeage spatial
initial ∥x∗ −xg ∥ ∥x∗ −xg ∥
x1∗ x2∗ fmin ∥xg ∥
x1∗ x2∗ fmin ∥xg ∥
1 2.4862 2.5020 0.0093 0.0062 2.5003 2.5009 0.0023 0.0004
2 2.4933 2.5001 0.0044 0.0030 2.4952 2.5002 0.0032 0.0022
3 2.5078 2.5001 0.0051 0.0035 2.5158 2.4996 0.0105 0.0071
4 2.5184 2.5040 0.0180 0.0084 2.4999 2.5007 0.0019 0.0003
5 2.4995 2.4970 0.0078 0.0014 2.5083 2.5010 0.0066 0.0038
6 2.4946 2.5004 0.0036 0.0024 2.5020 2.5003 0.0018 0.0009
7 2.4959 2.5035 0.0091 0.0024 2.5100 2.5010 0.0076 0.0045
8 2.4886 2.5017 0.0078 0.0051 2.5066 2.5000 0.0044 0.0029
9 2.4852 2.4986 0.0111 0.0067 2.5062 2.5023 0.0079 0.0030
10 2.5098 2.4995 0.0065 0.0044 2.4984 2.4986 0.0040 0.0010

Tableau 4.2 – Tableau de comparaison des variables et valeurs optimales entre l’algo-
rithme 2 et 3 pour 10 DOE initiaux différents de l’exemple 4.2.5.

Maintenant, on continue à traiter le deuxième exemple, celui de la fonction 4.2.5, en


utilisant les algorithmes 2 et 3. La figure 4.19 illustre l’évolution du meilleur minimum
par rapport à chaque cycle. On se rend compte qu’il y a 6 DOE pour lesquels l’algorithme
3 donne un meilleur résultat que celui du 2. Le meilleur minimum sur les 10 cas est très
proche du minimum global théorique. Le tableau 4.3 montre les valeurs du critère 4.31.
Pour les cas 1, 8 et 9, l’évolution du meilleur minimum à chaque cycle est faible ou non
significatif en utilisant l’algorithme 2. Clairement, les échantillons initiaux influence
largement à la recherche du minimum global de la fonction objectif qui admet plusieurs
minimums locaux en utilisant les deux algorithmes. Par comparaison avec l’algorithme
1 dans la section 4.2, on voit que la stratégie séquentielle directe du métamodèle spatial
a tendance à rechercher la région autour du minimum global est plus rapide (converge
plus vite). On peut remarquer que la construction du métamodèle spatial pour les
deux stratégies n’est pas la même. Pour la stratégie séquentielle directe, le métamodèle
4.3. Stratégie séquentielle basée sur l’algorithme EGO 87

cas 1 cas 2
2 2
fmin

fmin
1 1

0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 3 cas 4
2 2
fmin

fmin
1 1

0 0
0 10 20 30 0 10 20 30
Cycle Cycle

cas 5 cas 6
2 2
fmin

fmin

1 1

0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 7 cas 8
2
fmin

fmin

1
1

0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 9 cas 10
2
2
fmin

fmin

1 1

0 0
0 10 20 30 0 10 20 30
Cycle Cycle

EGO basé sur le krigeage EGO basée sur le métamodèle spatial

Figure 4.19 – Évolution de minimum actuel de deux algorithmes pour 10 cas différent
de DOE initiaux de l’exemple 4.2.5.
88 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

spatial est construit sur le champ de réponse d’intérêt. Pour la stratégie basée l’EGO, le
métamodèle est construit sur le champ d’une mesure entre la réponse d’intérêt et un
vecteur cible. Au terme de l’analyse, en tenant compte de la définition de la fonction
objectif, on va choisir la stratégie convenable pour le problème d’optimisation.

EGO basée sur le métamodèle EGO basée sur le métamodèle


DOE
de krigeage spatial
initial ∥x∗ −xg ∥ ∥x∗ −xg ∥
x1∗ x2∗ fmin ∥xg ∥
x1∗ x2∗ fmin ∥xg ∥
1 0.7514 3.2168 1.3147 0.5554 1.0023 1.9784 0.2310 0.0097
2 0.9758 2.0056 0.0773 0.0111 1.0226 2.0167 0.2005 0.0126
3 0.9693 1.9896 0.1549 0.0145 1.0120 1.9748 0.2677 0.0125
4 0.8852 2.0151 0.3074 0.0518 1.0073 2.0130 0.1424 0.0067
5 1.0046 2.0018 0.0256 0.0022 0.9613 2.0070 0.1122 0.0176
6 0.9651 2.0021 0.0883 0.0156 0.9919 2.0502 0.5022 0.0228
7 1.0232 1.9946 0.0753 0.0107 0.9475 2.0060 0.1377 0.0236
8 0.6000 3.4000 2.2271 0.6512 0.9813 2.0390 0.3893 0.0194
9 0.6000 3.4000 2.2271 0.6512 0.9622 2.0017 0.0956 0.0169
10 0.9803 2.0019 0.0506 0.0088 0.9219 2.0630 0.6186 0.0449

Tableau 4.3 – Tableau de comparaison des variables et valeurs optimaux entre l’algo-
rithme 2 et 3 pour 10 cas de DOE initiaux de l’exemple 4.18.

4.3.3 L’algorithme EGO pour le problème d’optimisation avec des fonctions


contraintes non-linéaires
Comme la section 4.2, le métamodèle sera construit pour tous les fonctions contraintes
et la fonction objectif dont les évaluations sont très couteuses. On suppose que l’opti-
misation sous contraintes implique des contraintes d’inégalités g(x) ≤ 0 (dans le cas de
contrainte g(x) ≥ 0, on peut utiliser la formulation −g(x) ≤ 0). Au cas où apparaitrait des
fonctions contraintes égalités, g(x) = 0, on peut utiliser les deux forme des contraintes
d’inégalités g(x) − ϵ ≤ 0 et −g(x) − ϵ ≤ 0. Dans ce cas, l’espérance de l’amélioration sera
pénalisée par la fonction contrainte. Par conséquence, le recherche global basée sur
l’EGO ne s’effectue pas sur l’espace total des paramètres, celle-ci est limitée à la région
faisable. Forrester et al. [54] ont proposé une approche basée sur le critère d’espérance
de l’amélioration avec des fonctions contraintes. En supposant la prédiction ĝ(x) et
la variance de l’erreur de prédiction ŝg (x) du métamodèle des fonctions contraintes
par le krigeage (ou le processus gaussien), car g(x) ≤ 0, en considérant ĝ(x) comme la
réalisation d’une variable aléatoire, on peut calculer la probabilité que g(x) soit dans
l’intervalle [−∞, 0] (voir l’équation 4.4) comme suit :
∫ 0 (0−t)2 ( )
1 2ŝg2 (x) 0 − ĝ(x)
P [g(x) ≤ 0] = √ e dt = Φ (4.32)
ŝg (x) 2π −∞ ŝg (x)
4.3. Stratégie séquentielle basée sur l’algorithme EGO 89

où Φ désigne la fonction de répartition. On peut coupler ce résultat à l’espérance de


l’amélioration E[I (x)] à partir d’un métamodèle de krigeage de l’objectif pour formuler
l’espérance de l’amélioration sous contraintes EIc comme suit :

EIc (x) = E[I (x) ∩ g(x) ≤ 0] = E[I(x)]P [g(x) ≤ 0] (4.33)

lequel E[I(x)] est calculé par l’équation 4.21 ou 4.28. Résoudre le problème de maxi-
misation de l’espérance de l’amélioration sous contraintes EIc (x) permet de trouver le
nouveau point pour enrichir l’échantillonnage dans la région faisable. Dans le cas d’un
problème avec q fonctions contraintes d’inégalités gi ≤ 0, i = 1, 2, ..., q, l’espérance de
l’amélioration contraintes est déterminée par :
q

EIc (x) = E[I (x) ∩ g1 (x) ≤ 0 ∩ ... ∩ gq (x) ≤ 0] = E[I(x)] P [gi (x) ≤ 0] (4.34)
i=1

Finalement, l’algorithme EGO pour le problème d’optimisation avec des fonctions


contraintes non-linéaires peut être résumé par l’algorithme 4. Afin d’illustrer l’algo-

Algorithm 4 Algorithme EGO pour l’optimisation sous contraintes non-linéaires.


Entrées: L’ensemble de données initiaux X, Y , G1 , G2 , ..., Gq
Sorties: L’ensemble de solution faisable Feval
1: Cherche ymin = min(Y ).
2: Tant que La condition d’arrêt n’est pas remplie faire
3: Construire un métamodèle de krigeage basé sur le design actuel :
X, Y , G1 , G2 , ..., Gq .
(n)
4: x(n+1) = arg max{EIc (x)}.
x∈D
5: Évaluer x(n+1) .
6: X ←− X ∪ x(n+1) .
7: Y ←− Y ∪ y(x(n+1) ).
8: Gi ←− Gi ∪ gi (x(n+1) ), i = 1, 2, ..., q.
9: Si gi (x(n+1) ) ≤ 0, ∀i = 1, 2, ..., q alors
10: y(x(n+1) ) est une solution faisable.
11: Feval ←− Feval ∪ y(x(n+1) ).
12: Fin si
13: ymin ←− min(Y).
14: xmin ←− x ∈ X à y(x) = ymin ∈ Feval .
15: Fin tant que

rithme, on prend l’exemple pour la recherche du minimum de la fonction de Branin


modifiée [55] qui dérive de 4.23, l’expression originale de cette fonction. Celle-ci a
également été normalisée à [0, 1] (voir figure 4.20(a)). La version modifiée de la fonction
90 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

1 1

0.8 0.8

x1x2 > 0

0.6 0.6
x2

x2
0.4 0.4

0.2 0.2

0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x1 x1

(a) (b)

Figure 4.20 – Courbes de niveaux de la fonction de Branin modifiée (a) et courbes de


niveau de la fonction Branin modifiée contrainte (b).

Branin est donnée par :


)2
5.1 5 1
( [( )]
f (x) = x2 2 + x1 − 6 + 10 1 − cos x1 + 1 + 5x1
4π π 8π (4.35)
avec x1 ∈ [−5, 10], x2 ∈ [0, 15]

La fonction contrainte est définie par l’expression :

g(x) = x1 x2 , x1 ∈ [0, 1], x2 ∈ [0, 1] (4.36)

L’objectif est de trouver le minimum global de la fonction de Branin modifiée f (x) 4.20
sous la fonction contrainte non linéaire g(x) 4.36. La figure 4.20(b) illustre la région
faisable définie par l’intersection de la fonction objectif f (x) et la fonction contrainte
4.36. Le minimum global réel du problème sous contraintes est xg = (0.96773, 0.20667) et
la valeur de la fonction est de 5.5757. La stratégie commence avec les 10 points du DOE
initial pour construire le métamodèle de la fonction de Branin et la fonction contrainte
sur l’espace des paramètres D = [0, 1] × [0, 1]. Ensuite, 20 points d’échantillonnage sont
ajoutés itérativement en utilisant l’algorithme 4. La figure 4.21(a) montre les courbes
de niveau du métamodèle de krigeage de la fonction objectif avec 10 points initiaux.
La figure 4.21(b) montre E[I (x)], la figure 4.21(c) montre la probabilité de satisfaire la
contrainte P [g(x) ≤ 0], et la figure 4.21(d) montre le produit de l’espérance de l’amé-
lioration contrainte 4.33. Les résultats sont illustrés sur la figure 4.22. On observe que
pour 5 des échantillons initiaux la fonction contrainte n’est pas respectée. La valeur
du minimum global est de 5.5762 au point x∗ = (0.9682, 0.2066) (le 19ème point de
4.3. Stratégie séquentielle basée sur l’algorithme EGO 91

Figure 4.21 – Courbes de niveau du métamodèle de krigeage de la fonction de Branin


avec 10 échantillons initiaux, la ligne magenta désigne le frontière de l’intersection
de la fonction objectif et de la fonction contrainte (a) ; l’espérance de l’amélioration
non-contrainte EI(x) (b) ; la probabilité de rencontrer la contrainte et l’espérance de
l’amélioration contrainte E[I (x)] (c) et l’optimum global est marqué par le point vert (d).
92 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

250 1
Valeur objectif
Valeur de violation

200 0.8
Valeur objectif

150 0.6

x2
100 0.4

50 0.2 Courbes de niveau


Echantillons initiaux
Echantillons de remplissage
Point de minimum global
0 0
0 5 10 15 20 25 30 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
points d'échantillonnage x1

(a) (b)

Figure 4.22 – Les valeurs de la fonction objectif pour chaque point d’échantillonnage
(avec 10 points initiaux et 20 points de remplissage), les points marqués d’une étoile
désignent les points qui ne respectent pas la contrainte (a) et les courbes de niveau
de métamodèle de krigeage de la fonction Branin modifiée avec contrainte, les points
noirs représentent les échantillons initiaux, les points verts désignent les points de
remplissage et point magenta le minimum global (b).

remplissage). Ces résultats sont très proches du minimum global réel.

4.3.4 Critères d’arrêts


En raison des différences avec le cadre de la stratégie séquentielle directe, le critère
d’arrêt4.11 n’est plus applicable. Différents auteurs ont proposés des alternatives et
proposer des critères adaptés à la stratégie EGO. Jone et al. [79] a proposé l’arrêt de
l’algorithme EGO lorsque l’espérance de l’amélioration maximale atteint 1% de la
valeur maximale de l’échantillon. Schonlau [158] a proposé l’arrêt EGO en utilisant
"generalized Expected improvement" (GEI) lorsque GEI atteint 1% de la valeur maximale
de l’échantillon. Cependant, ces critères ne sont pas toujours monotones décroissant.
Henkenjohann and Kurnert [68] et Bichon [12] ont noté que ce critère d’arrêt ne tient pas
compte de la gamme des valeurs échantillonnées. Dans la plupart de travail, l’utilisant
de budget d’évaluation disponible est favorable [173], [172], [166],[165]. Pour la stratégie
basée sur l’algorithme EGO, on utilise le budget d’évaluation comme critère d’arrêt.

4.4 Stratégie séquentielle d’optimisation multi-objectif


Comme le problème d’optimisation mono-objectif, le problème d’optimisation multi-
objectif comprends des fonctions objectifs qui sont formulées à partir de modèles
coûteux à évaluer. L’utilisation des méthodes évolutionnaires dédiées au problème
4.4. Stratégie séquentielle d’optimisation multi-objectif 93

d’optimisation multi-objectifs comme l’algorithme NSGA-II [43] nécessite des milliers


(ou dizaines de milliers) d’évaluations de fonctions pour fournir une approximation
correcte du front de Pareto. Cela conduit à beaucoup de temps et le coût de calcul de
la totalité du processus d’optimisation peut être prohibitif. Cependant, ces modèles
coûteux peuvent être remplacés par les métamodèles qui sont beaucoup plus rapide
à évaluer et sont intégrés dans le processus d’optimisation. Des nombreux travaux
scientifiques ont utilisé l’approche de métamodèle pour la détermination du front de
Pareto, comme par exemple, Wilson et al [192], Knowles and Hughes [88]. Le principe est
de construire le métamodèle pour chaque évaluation de la fonction objectif basée sur les
échantillons initiaux, et puis d’exploiter ces métamodèles afin de produire un ensemble
de Pareto de conceptions. Ces conceptions sont alors utilisées pour former un ensemble
de points de remplissage, après avoir exécuté ces calculs complets. Cette approche est
très populaire dans les problèmes de conception d’ingénierie. Une autre approche très
populaire dans la conception d’ingénierie proposée par Forrester [55] [54] consiste à
exploiter la prédiction et sa variance pour l’utilisation du critère de remplissage. Avec
le problème mono-objectif, on cherche le meilleur minimum actuel, alors qu’avec un
problème multi-objectifs, on cherche à déterminer un front de Pareton non-dominé.
En d’autres termes, on a besoin de trouver le meilleur front de Pareto approximé. Une
caractéristique importante pour définir un critère de remplissage dans l’optimisation
multi-objectifs est de former une fonction de l’amélioration. Cette fonction peut être
formulée de trois façons différentes comme l’amélioration de la distance euclidienne par
Keane and Andy [83], Forrester et al. [54], l’amélioration de la distance maximin par
Bautista [9], Svenson et Santner[175] et l’amélioration de l’hypervolume par Wagner et
al. [188]. Ces approches ont été modifiées par les travaux de [34] [73] pour améliorer
l’efficacité de calcul des fonctions d’amélioration. Le travail le plus récent par Zhan et al.
[196] a proposé une nouvelle approche pour trois critères d’espérances de l’amélioration
multi-objectifs qui permettent de réduire la complexité et le temps de calcul des critères
d’espérance de l’amélioration. Le principe de cette approche est de construire une
matrice d’espérance amélioration des critères de remplissage. Zhan et al. a aussi montré
que trois critères de leur approche sont plus efficaces que celle basée sur les approches
précédentes pour les problèmes à plusieurs objectifs (supérieur 2 objectifs). Cette section
vise à réécrire l’état de l’art des trois critères de remplissage dans les travaux précédents
et puis d’appliquer ces critères sur le métamodèle spatial dans le cadre de travail de
cette thèse.

4.4.1 Rappel des critères d’espérance de l’amélioration multi-objectifs


Dans un premier temps, on considère le problème avec les contraintes de borne. En
supposant que le problème d’optimisation multi-objectif est formulé comme suit :

min F (x) avec : F (x) = {f1 (x), f2 (x), ..., fm (x)} (4.37)
x∈D

où x = (x1 , x2 , ..., xn ) désigne le vecteur de n variables et D est l’espace des paramètres, m


représente le nombre des fonctions objectifs ou la dimension de l’espace objectif. On
94 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

points de front non-dominés 𝑓2


𝑓2
prédiction de krigeage
(𝑓11 , 𝑓21 )
(𝑓11 , 𝑓21 ) incertitude de prédiction

(𝑓12 , 𝑓22 ) (𝑓12 , 𝑓22 )

zone non-dominée (𝑓13 , 𝑓23 )


zone dominée (𝑓13 , 𝑓23 )

3𝑠2 (𝑓14 , 𝑓24 ) (𝑓14 , 𝑓24 )


3𝑠1

(𝑓1 , 𝑓2 ) (𝑓15 , 𝑓25 ) centroïde (𝑓15 , 𝑓25 )


(𝑓1∗ (𝒙), 𝑓2∗ (𝒙))

𝑓1 𝑓1

(a) Bidimensionnel objectif du front non dominé (b) Centroïde de l’intégrale de probabilité et du bras
de moment utilisé dans le calcul EI (x)

Figure 4.23 – Un exemple de problème d’optimisation bi-objectif.

suppose que Ns points initiaux sont générés et évalués sur les objectifs coûteux. Le front
de Pareto approximé peut-être identifié parmi les Ns points en utilisant la méthode de
tri non dominée :
j j j
P Fapprox = {f1 , f2 , ..., fm } j = 1, 2, ..., k (4.38)

où k est le nombre de points non dominés actuels et k ≤ Ns . Chaque objectif est ap-
proximé indépendamment par un métamodèle de krigeage avec la prédiction fˆi (x) et la
variance de l’erreur de prédiction ŝi (x). Au point x (i = 1, 2, ..., m) on peut donc considérer
que l’on a des grandeurs distribuées comme une loi de normale telle que :

Yi ∼ N[fˆi (x), ŝi2 (x)] (4.39)

La fonction de répartition et la densité de probabilité de la loi normale en dimension m,


en supposant ces grandeurs aléatoires gaussiennes indépendantes peuvent être exprimé
respectivement comme suit :
m
fi − fˆ∏) (
Φ(f1 , f2 , ..., fm ) = Φ (4.40)
ŝi
i=1
m
f − fˆ
( )
∏ 1
φ(f1 , f2 , ..., fm ) = φ (4.41)
ŝi ŝi
i=1

La figure 4.23(a) illustre un exemple pour deux objectifs. On peut voir que l’espace
objectif est divisé en deux parties par le front non-dominé : zone dominée et zone
non-dominée. Le point bleu et le nuage autour du point montrent la fonction de densité
de probabilité du vecteur objectif du point d’étude. Maintenant, on va décrire les trois
fonctions d’amélioration.
4.4. Stratégie séquentielle d’optimisation multi-objectif 95

Amélioration de la distance euclidienne

L’amélioration de la distance euclidienne est introduite dans [83], [54]. L’approche


consiste à mesurer la distance euclidienne entre le vecteur objectif au point x au point
non-dominé du front le plus proche :

√ m
∑ j
Ie (x) = min (fi − fi (x))2 j = 1, 2, ...k (4.42)
i=1

L’espérance de l’amélioration multiobjectif est alors calculée en intégrant la fonction


d’amélioration de la distance euclidienne définie sur l’ensemble de la région non domi-
née Ω :
m
fi − fˆi
∫ ( )
∏ 1
EIe (x) = E[Ie (x)] = Ie (x) φ dfi (4.43)
f ∈Ω ŝi ŝi
i=1

Le critère d’espérance de l’amélioration est ensuite calculé en utilisant l’élément le plus


proche du centroïde en prenant le produit du volume sous la fonction de densité de
probabilité avec la distance euclidienne entre ce membre et le centroïde (voir 4.23(b)) :

√ m
j

EIe (x) = P I(x) (fi∗ − fi )2 j = 1, 2, ..., k (4.44)
i=1

où P I(x) est la probabilité de faisabilité multiobjective d’amélioration qui représente


l’intégration sur la fonction de densité de probabilité dans la zone en dessous et à gauche
du front de Pareto où des améliorations peuvent se produire, fi∗ est le centroïde de la
distribution d’amélioration en i-ème direction. Forrester [54] a proposé un calcul fi∗
pour le cas bidimensionnel grâce à une intégration par morceaux. Cependant, lorsque
le nombre de fonctions objectifs augmente, le nombre d’intégrations par morceaux
augmentent de façon exponentielle. Cela conduit à des calculs complexes. Couckuyt
et al. [73] ont proposé un algorithme rapide basée sur "Walking Fish Group (WFG)"
pour le calcul exact de la distance euclidienne qui permet de réduire le nombre de
cellules pour l’intégration par morceaux et donc réduit le temps de calcul de la distance
euclidienne pour le cas d’un plus grand nombre d’objectifs. En utilisant cette façon, le
critère basée sur EIe (x) équilibre l’exploration et l’exploitation de la même manière que
son équivalent unidimensionnel.

Amélioration de la distance maximin

Cette fonction d’amélioration est d’abord proposée par Bautista [9], et puis modifié
par Svenson [175]. En utilisant la fonction maximin, la fonction de distance maximin
mesure la distance dans l’axe entre le vecteur objectif de x et l’approximation front de
96 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

𝑓2 𝑓2

points de front non-dominés


points de front non-dominés point de référence
point de référence hypervolume
hypervolume amélioration d’hypervolume
point p
𝑓1 𝑓1

(a) bidimensionnel de l’indicateur d’hypervolume (b) bidimensionnel de l’amélioration de l’hypervo-


lume

Figure 4.24 – Un exemple d’amélioration d’hypervolume pour un problème bi-objectif.

Pareto approximé :
j
Im (x) = − max[min(fi (x) − fi )], i = 1, 2, ..., m et j = 1, 2, ..., k (4.45)

L’utilisation de la manière comme l’équation 4.43, remplacer la fonction Ie (x) par Im (x),
la définition EIm (x) peut être appliqué pour le critère de remplissage multi-objectif.

Amélioration de l’hypervolume

Troisième critères basés sur l’amélioration de l’hypervolume a été introduit par


Emmerich [50], [52]. L’idée d’amélioration de l’hypervolume vient de l’utilisation de
l’indicateur d’hypervolume qui mesure le volume de la région dominée par le front de
Pareto approximé S, délimité par un point de référence :

H(S) = Volume{f ∈ Rm |S ≺ f ≺ r} (4.46)

où le point de référence r est choisi par l’utilisateur et devrait être dominé par tous les
points de front de Pareto approximé. La figure 4.24(a) illustre l’hypervolume dans un
cas bidimensionnel. L’amélioration de l’hypervolume est illustrée sur la figure 4.24b
lorsque un point p est ajouté à le front de Pareto approximé S.

Ih = H(S ∪ p) − H(S) (4.47)

L’espérance de l’amélioration de dl’hypervolume EIh (x) peut être calculée comme


l’équation 4.43. Comme l’amélioration de la distance euclidienne, le calcul d’indicateur
d’hypervolume devient coûteux lorsque le nombre d’objectifs est supérieur à deux.
L’efficacité du calcul de l’indicateur d’hypervolume peut être trouvée dans While et al.
[191], [190].
4.4. Stratégie séquentielle d’optimisation multi-objectif 97

4.4.2 Critère de matrice d’espérance de l’amélioration

Le calcul des critères d’espérance de l’amélioration dépend largement du nombre de


fonctions objectifs. Zhan et al. [196] a montré que, pour le problème de 6 objectifs, 200
itérations sont requises et une optimisation interne du critère d’espérance de l’améliora-
tion multi-objectif est faite par l’algorithme génétique avec une taille de population de
100 × 100 générations pour chaque itération. Puis un total de 100 × 100 × 200 =2 × 106
évaluations du critère d’espérance de l’amélioration est nécessaire. En admettant chaque
évaluation ait besoin d’une seconde, le temps total d’évaluation du critère d’amélioration
de l’espérance multi-objectif est alors :

2000000 × 1 seconds
≈ 23 days (4.48)
60 × 60 × 24
cela peut même dépasser le temps d’évaluation des simulations. Zhan et al. [196] a
développé les critères de remplissage basés sur le concept de matrice de l’amélioration.
Avec le problème mono-objectif, le meilleur minimum actuel défini une direction unique,
alors qu’avec le problème multi-objectif, le meilleur minimum actuel s’est développé
dans deux directions : le nombre de points dans le meilleur minimum actuel augmente
de 1 à k et la dimension de chaque point change de 1 à m. Une matrice bidimensionnelle
du meilleur optimum actuel est de la forme :
⎡ 1 1
. . . fm1 ⎥⎥

⎢⎢f1 f2
⎢⎢ 2
⎢⎢f1 f22 . . . fm2 ⎥⎥⎥

⎢⎢ ..
⎢⎢
.. .. .. ⎥⎥⎥
⎥ (4.49)
⎢⎢ .
⎢⎣ . . . ⎥⎥⎥
f1k f2k . . . fmk

En appliquant cela au critère EI(x) de la même manière, la matrice de l’espérance de


l’amélioration est décrite comme suit :
⎡ 1 1 1
⎢⎢EI1 (x) EI2 (x) . . . EIm (x)⎥⎥

⎢⎢ 2
⎢⎢EI1 (x) EI22 (x) . . . EIm 2 (x)⎥ ⎥⎥
EI M(x) = ⎢⎢⎢ . (4.50)
⎥⎥
. . .

⎢⎢ .. .. .. .. ⎥⎥⎥⎥

⎣⎢ k ⎥
EI1 (x) EI2k (x) . . . EIm
k (x)⎦

avec :
⎛ j ⎞ ⎛ j ⎞
j j ⎜⎜ f − fˆi (x) ⎟⎟ ⎜⎜ f − fˆi (x) ⎟⎟
EIi = (fj − fˆi (x))Φ ⎜⎜⎝⎜ i ⎟⎟ + ŝ (x)φ ⎜⎜
⎟ i
⎝ ŝi (x) ⎟⎠ , j = 1, 2, ..., m et j = 1, 2, ..., k (4.51)
⎜ ⎟⎟
ŝi (x) ⎠ i

j
L’élément EIi (x) dans EI M(x) représente l’espérance de l’amélioration de point x au-
delà du j-ème point de front non-dominé en i-ème objectif. La figure 4.25(a) illustre
l’exemple dans le cas bidimensionnel d’une matrice d’espérance de l’amélioration. La
j-ème ligne de la matrice EI j représente les espérances d’améliorations au-delà du j-ème
98 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

points de front non-dominés 𝑓2


𝑓2
prédiction de krigeage
𝐸𝐼11 (𝑓11 , 𝑓21 ) incertitude de prédiction
Espérance de l’amélioration
𝐸𝐼21
𝐸𝐼12 (𝑓12 , 𝑓22 )

𝐸𝐼22 3 3
zone dominée
𝐸𝐼13 (𝑓1 , 𝑓2 )
𝐸𝐼23
3𝑠2 𝐸𝐼14 (𝑓14 , 𝑓24 )
3𝑠1 point j
𝐸𝐼24 5 5 points de front non-dominés
(𝑓1 , 𝑓2 ) 𝐸𝐼15 (𝑓1 , 𝑓2 )
point de référence
𝐸𝐼25 point p

𝑓1 𝑓1

(a) Bidimensionnel de matrice d’espérance de l’amé- (b) L’amélioration de l’hypervolume du point p au-
lioration delà du point j

Figure 4.25 – L’exemple d’espérance de l’amélioration bi-objectifs.

point non-dominé dans tous les objectifs. La i-ème colonne de la matrice EIi représente
l’espérance de l’amélioration de l’objectif au-delà de tous les points non-dominés. Par
conséquence, le EI M(x) contient toutes les informations sur les améliorations attendues
du point d’étude x au-delà de tous les points de front non-dominés dans toutes les
directions. En remplaçant l’amélioration dans la fonction d’amélioration multi-objectif
par l’espérance de l’amélioration peut dériver les critères EI M(x) correspondants. De
j
plus, on remplace le terme (fi − fi (x)) dans la fonction l’espérance multi-objectif par le
j
terme EIi (x), le critère EI M(x) peut être formulé pour tous les types suivant :
— Critère EI M(x) basé sur la distance euclidienne correspond à l’amélioration de
la distance euclidienne 4.42 :

√ m
j

EI Me (x) = min (EIi (x))2 , j = 1, 2, ..., k (4.52)
i=1

— Critère EI M(x) basé sur la fonction d’amélioration de la distance maximin cor-


respond à l’amélioration de la distance maximin 4.45 qui peut s’écrire :
j
Im (x) = min[max(fi − fi (x))], i = 1, 2, ..., m et j = 1, 2, ..., k (4.53)

Le critère EI M(x) basé sur la distance maximin peut être alors donné comme suit :
j
EI Mm (x) = min[max EIi (x)], i = 1, 2, ..., m et j = 1, 2, ..., k (4.54)

— Critère EI M(x) basé sur la fonction d’amélioration de l’hypervolume est modifié


à partir de l’équation 4.47 :

Ihm = min[H(f j ∪ p)] − H(f j ), j = 1, 2, ..., k (4.55)


4.4. Stratégie séquentielle d’optimisation multi-objectif 99

La figure 4.25(b) illustre l’idée de ce critère. Le point j est un point arbitraire sur
le front non-dominé et le point p est le point d’étude. La région remplie de couleur
plus foncée indique l’amélioration de l’hypervolume du point p lorsque seul le
point j est considéré sur le front non-dominé. Ensuite, on peut calculer le k (k est
le nombre de points de front non dominés) des améliorations de l’hypervolume en
considérant chaque point sur le front non dominé en même temps. L’amélioration
de l’hypervolume modifié est définie comme étant le minimum des k améliora-
tions de l’hypervolume. A première vue, l’amélioration de l’hypervolume modifié
semble plus coûteuse à calculer, heureusement, l’amélioration de l’hypervolume
est analytique quand on ne considère qu’un seul point frontal non-dominé. Par
conséquent, l’amélioration de l’hypervolume au point f (x) peut être calculé dans
la forme fermée :
⎡ m m

⎢⎢∏ j
∏ ⎥⎥
Ihm = min ⎢⎢⎢⎣ (ri − fi (x)) − (ri − fi )⎥⎥⎥⎦ , j = 1, 2, ..., k (4.56)
i=1 i=1

j j
On remarquera que −fi (x) = (fi − fi (x)) − fi . Ensuite, le critère EI M(x) basé sur
l’amélioration de l’hypervolume s’écrit comme suit :
⎡ m m

⎢⎢∏ j j j ⎥

EI Mh (x) = min ⎢⎢⎣ (ri + EIi (x) − fi ) − (ri − fi )⎥⎥⎥⎦ , j = 1, 2, ..., k (4.57)
⎢ ⎥
i=1 i=1

L’amélioration de l’hypervolume modifié n’est pas conçue pour remplacer l’amé-


lioration réelle de l’hypervolume. Le seul but de la proposition est d’appliquer
l’amélioration de l’hypervolume au critère EI M(x).

L’implémentation de ces critères est plus simple que les critères proposés dans [175], [54],
[34], [73],ils permettent de réduire la complexité dans le calcul des critères. Néanmoins,
les matrices d’espérances de l’amélioration ne donnent pas d’informations complètes sur
la mesure dans laquelle le point d’étude peut améliorer le front de Pareto approximé.

4.4.3 Multi-objectif avec constraints non-linéarité

Comme la résolution du problème mono-objectif avec les contraintes non-linéarités,


le problème multi-objectif est résolu en combinant les critères EI M(x) avec le critère
de probabilité de faisabilité . Toutes les fonctions contraintes sont construites par le
métamodèle de krigeage à partir des échantillons initiaux. La probabilité de faisabilité
est déterminée comme suit :
q [ ( )]
∏ 0 − ĝi (x)
P oF(x) = Φ (4.58)
ŝg,i (x)
i=1
100 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

où ĝi(x) et ŝg,i (x) sont la prédiction et la variances de l’erreur de prédiction de la i-


ème contrainte au point x, et i = 1, 2, ..., q. Les trois critères de matrice d’espérance de
l’amélioration multi-objectif contrainte sont formulés comme suit :

√ m q [ ( )]
∑ j
∏ 0 − ĝ i (x)
CEI Me (x) = min (EIi (x))2 × Φ , j = 1, 2, ..., k (4.59)
ŝg,i (x)
i=1 i=1

q [ ( )]
j
∏ 0 − ĝi (x)
CEI Mm (x) = min[max EIi (x)] × Φ
ŝg,i (x) (4.60)
i=1
i = 1, 2, ..., m et j = 1, 2, ..., k
et
⎡ m m
⎤ q [ ( )]
⎢⎢∏ j j
∏ j ⎥⎥ ∏ 0 − ĝi (x)
CEI Mh (x) = min ⎢⎢⎣ (ri + EIi (x) − fi ) −
⎢ (ri − fi )⎥⎥⎦ ×
⎥ Φ
ŝg,i (x) (4.61)
i=1 i=1 i=1
j = 1, 2, ..., k

Le premier terme du critère CEI M(x) représente l’espérance de l’amélioration vers le


front de Pareto, et le deuxième terme représente la région faisable. Pour illustrer la

F=5 kN

Figure 4.26 – Croquis du problème du poutre de Nowacki.

stratégie basée sur ces trois critère de remplissage, on traite l’exemple d’optimisation
multi-objectif d’une poutre console proposé par Nowacki [135]. Le but est de concevoir
une poutre encastrée (voir figure 4.26) dont on cherche à minimiser la section transver-
sale et la contrainte de flexion soumise à un certain nombre de contraintes. La longueur
de la poutre est l= 1.5m. A l’extrémité de la poutre on impose une charge F= 5 kN. La
section de la poutre est rectangulaire, de largeur b et de hauteur h ce qui donne une
section transversale A = h × b. La conception doit satisfaire les critères suivants :
Fl 3 bh3
— une déviation maximale de l’extrémité chargée, λ = 3EIY , de 5 mm, où IY = 12 et
E le module d’Young du matériau ;
4.4. Stratégie séquentielle d’optimisation multi-objectif 101

Flh
— une contrainte mécanique maximale admissible, σB = 2IY , égal à la limite d’élasti-
cité du matériau σY ;
3F
— une contrainte de cisaillement maximale admissible, τ = 2bh , égal à la moitié de la
limite d’élasticité du matériau ;
— un rapport hauteur/largeur maximum h/b pour la section transversale de 10 ;

— la force de rupture pour le flambement de torsion FCrit = l 2 GI1−ν
4 T EIZ
, doit être
supérieur à la force de pointe multipliée par un facteur de sécurité F, de deux, où
3 3 3
IT = b h+bh
12 et Iz = b12h
Le matériau utilisé est l’acier doux avec une limite d’élasticité de σY = 240 MPa, Mo-
dule d’Young E = 216.62 GPa, ν = 0.27 et module de cisaillement calculé comme
G=86.65 GPa. L’objectif est de trouver le minimum de section transversale et contrainte
de flexion avec la hauteur h change de 20 mm à 250 mm et la largeur change de 10 mm
à 50 mm. Le problème d’optimisation multi-objectif sous contraintes peut être écrit
comme suit :

Trouver (h, b) (4.62)


Minimiser A, σB
Sujet à λ ≤ 5
σB ≤ σY
τ ≤ σY /2 (4.63)
h/b ≤ 10
FCrit ≥ f × F

La figure 4.27 montre les deux fonctions objectifs varie avec le normalisé h et b, en
combinant les contraintes, on peut représenter la région faisable. Clairement, il doit y
avoir un compromis entre les contraintes de flexion minimales et les solutions de sections
transversales minimales. Le front de Pareto a besoin d’être identifié dans ce problème. La
stratégie d’optimisation commence avec 10 échantillons initiaux tirés selon la technique
LCVT et 30 échantillons qui seront ajoutés par les critères de remplissage CEI M(x).
Le budget total d’évaluation des fonctions est donc de 40 évaluations du modèle. Les
résultats sont montrés sur la figure 4.28. Le front de Pareto est représenté par la courbe
noire, les points rouges, bleus et verts désignent le front de Pareto approximé obtenu
par le critère de remplissage CEI Me (x), CEI Mm (x) et CEI Mh (x) respectivement. On
trouve qu’il a 21 solutions de Pareto obtenue dans les critères CEI Me (x), CEI Mh (x) et
CEIMm (x) donne 22 solutions de Pareto. Dans ces trois cas, le front de Pareto décrit
clairement le compromis entre les deux objectifs. La figure 4.29 montre les échantillons
sélectionnés pour le problèmes de poutre de Nowacki. On voit qu’il y a trois échantillons
de remplissage qui ne sont pas dans la région faisable. C’est-à-dire que les trois valeurs
objectifs associées à ces trois points n’ont pas satisfait les fonctions contraintes. Il
convient de se prémunir contre les erreurs de la chaîne de simulation automatique qui
se traduisent par l’absence de résultats pour certains points d’évaluation. Si les points
102 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

(a) Section transversale de poutre (b) Contrainte de flexion de beam

Figure 4.27 – Les fonction objectifs du problème de conception de poutre Nowacki.

107 107 107


12 12 12
Front de Pareto exact Front de Pareto exact Front de Pareto exact
Front de Pareto par CEIMe(x) Front de Pareto par CEIMm(x) Front de Pareto par CEIMh(x)
10 10 10

8 8 8
B

B
B

6 6 6

4 4 4

2 2 2

0 0 0
2 4 6 8 10 12 2 4 6 8 10 12 2 4 6 8 10 12
A 10 -3 A 10-3 A 10-3

(a) Critère CEIMe (x) (b) CEIMm (x) (c) CEIMh (x)

Figure 4.28 – Le front de Pareto pour le problème de conception de poutre de Nowacki.

d’évaluation sont choisis à l’aide d’un plan d’expériences décidé, ces erreurs ne posent
pas de problème, si l’on excepte le gaspillage de ressources associées. En revanche, si
l’on choisit la nouvelle évaluation en fonction des résultats des précédentes à l’aide de
l’espérance de l’amélioration, il faut affecter une valeur fictive au résultat de l’évaluation
qui a échoué. Il serait aussi souhaitable de prendre en compte l’échec de l’évaluation
pour estimer progressivement le sous-ensemble sur lequel les évaluations échouent.
Cependant, l’expérience montre que cet ensemble peut être non convexe et de forme
complexe. Il apparaît en fait que le seul principe à respecter est d’éviter d’évaluer la
fonction au voisinage d’un point qui a précédemment échoué. Pour cela, nous proposons
d’affecter aux évaluations qui ont échoué leur prédiction obtenue par le métamodèle à
partir des résultats disponibles, et de les mettre à jour à chaque fois qu’une évaluation
réussit. Forrester et al. [55] ont proposé une approche des données manquantes qui
permet de détourner l’échantillonnage des points qui conduisent à des échecs, tout en
4.4. Stratégie séquentielle d’optimisation multi-objectif 103

(a) Critère CEIMe (x)

(b) CEIMm (x)

(c) CEIMh (x)

Figure 4.29 – Les échantillons sélectionnés pour le problème du poutre de Nowacki. Le


point noir représente les échantillons initiaux, le point vert désigne les échantillons de
remplissage.
104 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle

permettant d’utiliser, sans modification, les critères de remplissage.

4.5 Conclusion
Dans ce chapitre, on a développé des stratégies d’optimisation permettant de traiter
les problèmes d’optimisation des fonctions couteuses. Ces stratégies sont basée sur le
métamodèle spatial qui est présenté dans le chapitre 3.

L’utilisation de métamodèle spatial à la place du modèle haute-fidélité très couteux a


démontré l’efficacité d’optimisation en réduisant le budget d’évaluations nécessaires. On
a développé la stratégie séquentielle directe permettant d’intégrer le métamodèle spatial
au sein du processus d’optimisation. Cette stratégie est composée de deux niveaux :
le premier niveau consiste à construire le métamodèle spatial et puis l’utiliser pour
remplacer le modèle haute-fidélité dans la fonction objectif. Dans le second niveau,
le sous-problème d’optimisation est résolu pour trouver la solution optimale qui sera
évaluée dans l’itération suivante.

Ensuite, on a aussi utilisé un couplage du métamodèle construit et l’algorithme


EGO pour enrichir le nouveau point d’évaluation séquentielle au cours du processus
d’optimisation. Ces stratégies proposées sont comparées avec la stratégie basée sur le
métamodèle de la fonction objectif (krigeage) par deux exemples académiques.

Ce chapitre a aussi abordé les approches pour les problèmes d’optimisation non-
linéaires et d’optimisation multiobjectif sur la base les critères de remplissage d’espace
des variables. Ces critères, inspirés de plusieurs travaux scientifiques précédant, sont
réécrits et utilisés efficacement pour les exemples d’optimisation.

Dans le chapitre suivant, ces stratégies d’optimisation seront appliquées pour d’autres
cas de procédés de mise en forme.
Chapitre 5
Applications à l’optimisation de
procédés de mise en forme

Sommaire du chapitre
5.1 Introduction 106
5.2 Optimisation du procédé d’emboutissage d’une tôle en U 106
5.2.1 Description du problème d’emboutissage . . . . . . . . . . 107
5.2.2 Modélisation du procédé d’emboutissage par éléments finis 107
5.2.3 Stratégie d’optimisation pour la forme après retour élastique 112
5.2.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3 Contrôle optimal d’un procédé d’hydroformage de tube en Y 120
5.3.1 Description du procédé d’hydroformage du tube en forme de
Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.3.2 Modélisation par des éléments finis du procédé d’hydrofor-
mage en forme de Y . . . . . . . . . . . . . . . . . . . . . . 127
5.3.3 Validation du modèle numérique . . . . . . . . . . . . . . . 134
5.3.4 Stratégie de contrôle optimal du procédé d’hydroformage . 138
5.4 Optimisation des surfaces additionnelles pour le procédé d’em-
boutissage 148
5.4.1 Conception des surfaces additionnelles . . . . . . . . . . . . 149
5.4.2 Description d’Approche Inverse . . . . . . . . . . . . . . . . 151
5.4.3 Simulation d’emboutissage avec SIMEX™ . . . . . . . . . . 152
5.4.4 Optimisation des surfaces additionnelles et du volume de
l’outillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.4.5 Résultats d’optimisation et discussion . . . . . . . . . . . . 156
5.5 Conclusion 162

105
CHAPTER 4

106 BM4 CHAPITRE


Pre-strain 5.
Effect on Spring-back
Applications of 2-D Draw
à l’optimisation Bending
de procédés de mise en forme

Figure 5.1 – Effet du retour élastique sur l’emboutissage d’une tôle en U.


Provided by Seoul National University (Korea)
5.1 Introduction
Contact
On propose dans ce chapitre d’appliquer la méthodologie d’optimisation développée
Kwansoo
dans les Chung précédents à différents procédés de mise en forme. Trois applications
chapitres
Seoul National University
sont proposées
Korea dans ce chapitre :
kchung@snu.ac.kr
Toshihiko Kuwabara
— Tokyo
PourUniversity of Agriculture
la première and Technology
application, nous avons utilisé le benchmark de l’emboutissage
Japan
d’une tôle En U
kuwabara@cc.tuat.ac.jp proposé au congrès NUMISHEET 2011. On cherche à optimiser
Rahul K. Verma
le procédé pour minimser l’effet de retour élastique après mise en forme de la
TATA Steel
tôle. Deux stratégies stratégie d’optimisation basées sur différents métamodèles
India
rahul.verma@tatasteel.com
(Krigeage, et POD+Krigeage) sont comparées.
Taejoon Park
Seoul National University
Korea
— La deuxième application propose de réaliser le contrôle optimal du procédé d’hy-
tjpark1@snu.ac.kr
droformage d’un tube en forme de Y. On cherche la meilleure façon de contrôler
Hoon Huh
la pression du fluide, les déplacements des pistons, . . . pour maitriser au mieux la
KAIST (Korea Advanced Institute of Science and Technology)
qualité finale du tube hydroformé.
Korea
hhuh@kaist.ac.kr
Gihyun Bae
— KAIST
Enfin(Korea Advanced Institute
la dernière of Science consiste
application and Technology)
à construire un problème d’optimisation
Korea
multiobjectifs d’un procédé d’emboutissage d’une pièce industrielle, une aile de
baegh102@kaist.ac.kr
"Renault Safrane". La génération de la forme des outils est réalisé automatique-
ment grâce à un logiciel métier spécifique : DieAdd™ des sociétés "SIMTECH
Technologie" et "ESI Group". Cette génération automatique nécessite de nombreux
paramètres qui peuvent être pilotés pour modifier la géométrie de l’outillage gé-
néré. La simulation de l’emboutissage s’appuie sur une approche inverse SIMEX™
proposé par ces mêmes sociétés.

5.2 Optimisation du procédé d’emboutissage d’une tôle en U


La première application est l’optimisation du procédé d’emboutissage. Le modèle
étudié est basé sur un problème de référence de Numisheet 2011 [161]. Le principal
objectif du procédé d’emboutissage est de maîtriser le retour élastique pour un acier à
haute résistance de type DP780. Les expériences montrent que, après retour élastique,
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 107

Plan de symétrie

W1

G1
W3
rp
Épaisseur
Serre-flan Poinçon Serre-flan Tôle

Matrice Matrice
rd
W4

W2

Figure 5.2 – Schéma du procédé de l’emboutissage d’une pièce en U.

les profils de pièces restent symétriques tout au long du processus de fabrication sur
la figure 5.1. Pour cette application, les effets de retour élastique ont déjà été étudiés
dans le cadre d’une optimisation robuste avec un métamodèle [130]. Dans notre travail,
l’objectif de l’étude est d’optimiser certains paramètres du procédé pour réduire au
maximum les variations de forme dues au retour élastique de la tôle. Cette optimisation
est effectuée par les stratégies séquentielles directes et basée sur l’EGO développées
précédemment.

5.2.1 Description du problème d’emboutissage


La figure 5.2 illustre un aperçu du modèle d’analyse de la géométrie de l’outil sous
une vue schématique 2D. Une tôle d’acier DP780 d’une épaisseur de 1.4 mm, 360 mm
de longueur et 30 mm de largeur sont utilisés. Les formes et dimensions des outils
sont illustrées sur le tableau 5.1 et la figure 5.2. La qualité de la tôle dans le procédé
d’emboutissage dépend fortement de la forme de l’outillage. En particulier, la forme du
poinçon et de la matrice, ainsi que le serre-flan est directement liée à la forme de la tôle.
Les paramètres sont le rayon du poinçon, le rayon de la matrice et la force du serre-flan.
L’objectif est alors de trouver les paramètres optimaux permettant de minimiser l’effet
du retour élastique de la tôle après emboutissage et relâchement des outils.

5.2.2 Modélisation du procédé d’emboutissage par éléments finis


Modélisation d’éléments finis
En raison de la symétrie de l’outillage, on ne considère qu’un quart de la géométrie
pour la modélisation par éléments finis de ce procédé d’emboutissage. Les conditions
de chargement, le placement de tôle, la mise en place de l’outillage principal et la
108 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Paramètres W1 W2 W3 W4 G1
Dimensions 50.0 54.0 89.0 89.0 2.0
[enmm]

Tableau 5.1 – Dimensions des outils d’emboutissage (poinçon et matrice).

modélisation du procédé d’emboutissage 3D sont montrés sur la figure 5.3. La tôle est
discrétisée par un maillage de 1935 éléments coques S4R avec 7 points d’intégration.
Les outillages sont considérés comme rigides. Les conditions aux limites appliquées sur
les outils sont illustrées sur la figure 5.3. Le déplacement du poinçon et du porte-flan est
une translation selon l’axe Z, les autres degrés de liberté (DOF) sont bloqués. La matrice
est complètement encastrée. Une condition de symétrie est appliquée sur la moitié du
profil de la tôle dans laquelle la translation le long de l’axe X, les rotation autour des
axes Y et Z sont bloquées. La force du serre-flan reste constante pendant le procédé
d’emboutissage. L’interaction de contact est modélisée en utilisant la méthode de mise

Poinçon

E,µ,Re,Rm
Serre flan

rp

Z
Y X
rd

Matrice

Plan de symétrie

Figure 5.3 – Modèle des éléments finis d’emboutissage en U

en application de contact par pénalisation. Le frottement entre les outils et la tôle est
basé sur un modèle de Coulomb. Dans la forme de base du modèle de frottement de
Coulomb, deux surfaces de contact peuvent porter des contraintes de cisaillement avant
qu’elles ne commencent à coulisser l’une par rapport à l’autre. Le modèle de frottement
de Coulomb est défini par :

τcrit = µp (5.1)
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 109

où τcrit est la contrainte de cisaillement critique à laquelle le glissement des surfaces


commence, p la pression de contact entre les surfaces et µ est le coefficient de frottement
entre la tôle et les outillages.

Loi de comportement
Le modèle comportement élastoplastique de type Swift, avec un écrouissage isotrope
[176] est utilisé. Le critère de plasticité f qui est basé sur la norme de contrainte de
Hill’48 [71], σ̄ et l’écrouissage anisotrope R ainsi que la fonction de Swift sont décrits
comme suit :

f (σ̄ , εp ) = σ̄ − R(εp ) (5.2)

avec :

R(εp ) = K(εp + ε0 )n (5.3)

et

σ̄ 2 = F(σY Y − σZZ )2 + G(σXX − σZZ )2 + H(σXX − σY Y )2 + 2LσY2 Z + 2MσXZ


2 2
+ 2N σXY (5.4)

où K est constante et n le coefficient d’écrouissage, ε0 et εp sont la pré-déformation et


déformation plastique équivalente, respectivement. σXX , σY Y , σZZ , σXY , σY Z , σXZ sont
les composantes des contraintes. F, G, H, L, M, N sont les six paramètres scalaires qui
caractérisent l’état d’écrouissage anisotrope. Ils peuvent être déterminés à l’aide d’essais
de traction et de cisaillement. Ce modèle se caractérise par la prise en compte de la
limite d’élasticité de l’acier, l’utilisation d’un écrouissage isotrope et des coefficients de
Lankford pour caractériser l’anisotropie de la tôle. Les simulations numériques sont
effectuées en considérant l’hypothèse des contraintes planes, consistant à négliger toutes
les composantes du tenseur des contraintes hors plan de la tôle (σZZ = σXZ = σY Z = 0),
donc l’expression du critère de Hill peut être simplifiée sous la forme :

σ̄ 2 = F(σXX − σY Y )2 + GσY2 Y + HσXX


2 2
+ 2LσXY (5.5)

Le comportement des tôles laminées s’inscrit le plus souvent dans le cadre d’une aniso-
tropie orthotrope pour laquelle le repère (X, Y , Z) s’identifie par :
— X : la direction de laminage,
— Y : la direction perpendiculaire à la direction de laminage,
— Z : la direction normale au plan de la tôle
Classiquement, le coefficient de Lankford r comme étant une mesure du rapport de la
déformation plastique latérale ε22 sur la déformation plastique en épaisseur ε33 d’une
éprouvette en traction uniaxiale :
ε22
r= (5.6)
ε33
110 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Coefficient F G H L M N
DP780 0.4640 0.5615 0.4385 1.5000 1.5000 1.5926

Tableau 5.2 – Constante matérielle pour le critère anisotrope de Hill 48 [161]

En présence d’une anisotropie, ce coefficient varie en fonction de l’orientation de décou-


page de l’éprouvette de traction par rapport à la direction de laminage. Dans la pratique,
il est très commun d’identifier les coefficients de Lankford (r0 , r45 , r90 ) par rapport à la
direction de laminage, et d’en déduire un coefficient d’anisotropie moyen r̄ :

r0 + 2r45 + r90
r̄ = (5.7)
4
et un écart ∆r :
r0 − 2r45 + R90
∆r = (5.8)
4
Lorsque (r̄ , 1 et ∆r , 0) on parle d’anisotropie transverse. Dans le cas particulier où
(r̄ , 1 et ∆r = 0), on parle alors d’anisotropie normale (ou orthotropie de révolution, ou
encore isotropie plane) qui traduit une isotropie du comportement dans le plan de la
tôle, et une anisotropie dans la direction de l’épaisseur (r̄ , 1). Enfin, le cas isotrope
est retrouvé pour r0 = r45 = r90 = 1, autrement dit (r̄ = 1 et ∆r = 0). Finalement, les
coefficients d’anisotropie dans l’équation 5.5 peuvent être exprimés par :

r0 1 r F +G
F= ,G= , 0 , (1 + 2r45 ) (5.9)
r90 (1 + r0 ) 1 + r0 1 + r0 2

Dans le cadre des simulations numériques de ce procédé d’emboutissage, on utilise


les données des constantes matériau qui sont fournies dans le tableau 5.2. Le calcul
est réalisé en deux étapes, d’abord l’emboutissage avec le solveur dynamique explicite
d’Abaqus-CAE™ puis le retour élastique avec le solveur en statique implicite. Les détails
des deux procédures sont présentées à l’annexe A.2. Le poinçon se déplace verticalement
à une vitesse de 1 mm s−1 , le déplacement total est de 78.1 mm de déplacement. La
forme finale de la tôle est obtenue après l’enlèvement des outils. Chaque simulation du
procédé nécessite environ 1h45-1h50 de calcul en parallèle 4 cœurs sur une station de
travail cadencée à 2.9GHz.

Validation du modèle numérique

Dans la référence Numisheet 2011 [161], les mesures expérimentales sont rapportées
et comparées à l’ensemble des résultats de plusieurs résultats de simulation. La figure
5.4 montre le profil du retour élastique de notre modèle pour les données du maté-
riaux DP780 du tableau 5.3. Les paramètres procédés sont réglés comme le référence
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 111

80
Données expérimentales
Simulation EF
Z-coordonnée (mm) 60

40

20

0
0 20 40 60 80 100 120
X-coordonnée (mm)

Figure 5.4 – Comparaison entre nos résultats de simulation EF et des mesures expéri-
mentales de Numisheet 2011[161].

Numisheet 2011 tel que : 5 mm pour le rayon du poinçon, 7 mm pour le rayon de la


matrice et 2.49 kN pour l’effort du serre-flan. Il convient de noter que notre modèle

Paramètres Valeurs
Module de Young E 198.8 GPa
Coefficient de poisson ν 0.3
Densité 7800 kg/m3
La constante K 1278.793 MPa
Coefficient d’écrouissage n 0.142
Pré-déformation ε0 0.0027
Limite élastique Re 550 MPa
Résistance à la rupture 840 MPa
Allongement uniforme 13.1 %
Coefficient de frottement 0.1

Tableau 5.3 – Données du matériaux DP780 [161].

donne de bons résultats pour la configuration des paramètres. Le profil des résultats
de la simulation EF semble être très proche des résultats expérimentaux du Numisheet
2011. Il est bien sûr trop coûteux d’obtenir les mesures expérimentales pour une large
gamme de valeurs de paramètres. On peut donc utiliser dans le modèle EF pour explorer
la réponse physique et en particulier en termes de retour élastique. Dans le processus
d’optimisation itératif développé plus loin, il est supposé que le modèle numérique
donne une réponse cohérente et prédit correctement l’état final de la tôle emboutie après
retour élastique.
112 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

5.2.3 Stratégie d’optimisation pour la forme après retour élastique

Évaluation de la forme du retour élastique et formulation de la fonction objectif

Dans l’emboutissage en U, il existe principalement deux méthodes d’évaluation


des effets du retour élastique sur la géométrie. Premièrement, le retour élastique peut
être évalué par trois paramètres comme dans la référence Numisheet2011. Celle-ci
consiste à mesurer deux angles θ1 , θ2 entre la forme emboutie et celle après retour
élastique ainsi que le rayon de courbure ρ de la paroi verticale [130], [99]. L’autre façon
est de mesurer le déplacement maximum dans la direction Z comme dans [125], [76].
Dans ce travail, on propose une façon pour évaluer le retour élastique en calculant la
distance moyenne à partir des nœuds après retour élastique sur la surface de l’outillage.
L’avantage de cette méthode est de considérer tous les nœuds dans un champ spatial et
un métamodèle spatial. Cela conduit donc à réduire l’incertitude pour calculer la valeur
de la fonction objectif. En outre, cette méthode peut être appliquée pour l’évaluation
de forme complexe de la tôle après retour élastique. La figure 5.5 montre la méthode
d’évaluation proposée. La figure 5.5a illustre un exemple de retour élastique et la surface
de l’outillage. La forme désirée après le retour élastique est représentée par la surface de

0
0

-20 -20

-40 -40
Z

Type your text


-60 -60
The tool configuration
Nodes
Noeudsof dedisplacement
déplacement
Nearest pointsàfrom
Points projetés partir nodes
de
nœuds
on sur la surface
surface
30 30
Distance between
Distance entre the nodes
les noeuds
20 The tooldeconfiguration
Surface la configuration de l'outil 20 et lasurface
surface
Y and
Y 10 Final shape
La forme aprèsafter springback
retour élastique 10
0 0
80 100 120 0 20 40 60 80 100 120
0 20 40 60
X X

(a) (b)

Figure 5.5 – Méthode d’évaluation de la forme après retour élastique : (a) Exemple de
forme en U après retour élastique, (b) Les distances à partir des nœuds sur la surface de
l’outillage.

l’outillage. Ainsi, il convient de mesurer et minimiser l’écart entre la forme après retour
élastique et la surface de l’outillage. En d’autres termes, on va chercher à minimiser la
distance moyenne à partir des nœuds de la tôle après retour élastique sur la surface de
l’outillage. Par conséquent, la formulation de la fonction objectif après retour élastique
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 113

est donnée par :


di
1 ∑
f (x) = di (u(x)) (5.10)
Nd
i=1

où di (u(x)) est la distance à partir du i-ème nœud sur la surface de l’outillage au point
de variable x, u(x) peut être vu comme champ de coordonnée des nœuds, et Nd désigne
le nombre de nœud. Pour chercher le point projeté et calculer la distance, la surface
de l’outillage est maillée par des éléments triangulaires. La surface de référence a un
maillage adapté à la forme cible. La distance entre les nœuds et la surface de référence
est la distance minimale entre ce nœud et l’élément le plus proche de la surface. La
procédure de calcul de cette distance, obtenue une projection du nœud sur la surface de
l’élément a été proposée par Labergère [94] et est décrite dans l’annexe A.3. Dans le cas
d’application de l’emboutissage en U, la surface de l’outillage est maillée par Abaqus,
grossièrement dans une zone plane et plus finement dans les zones courbes. La figure
5.5a montre le calcul de la distance. Les points bleus représentent les nœuds après
retour élastique, leur points projetés sur la surface de l’outillage sont désignés par les
points rouges. Pour observation, on n’extrait que les centres des nœuds du maillage de
la tôle. La fonction objectif approchée est alors définie par :
Nd
1 ∑
fˆ(x) = di (û(x)) (5.11)
Nd
i=1

où di (û(x)) désigne la distance à partir du i-ème nœud du métamodèle spatial des


coordonnées de û au point x. Le métamodèle spatial des coordonnées est construit pour
deux composantes u = [X; Z] (le champ de déplacement dans la direction Y est très
faible, comme représenté sur la figure 5.5).

Choix des variables de conception

Dans l’optimisation du procédés d’emboutissage, la forme après retour élastique


dépend des paramètres du procédé qui comprend la force du serre flan FBHF , le rayon de
la matrice Rd et rayon du poinçon Rp . Parmi tous les paramètres du procédé disponibles
dans le modèle numérique, ces paramètres ont été choisis par rapport à leur influence
sur l’effet de retour élastique. Dans notre travail, la forme après retour élastique est
paramétrée par le rayon de la matrice de 2 mm à 5 mm et la force du serre flan de
3000 N à 9000 N. Le rayon du poinçon est fixé comme dans la référence Numisheet2011.
L’espace de paramètre est alors défini comme D = [2, 4] × [3000, 9000] (mm × N). Les
échantillons initiaux sont choisis pour construire le métamodèle spatial par la technique
LCVT.
114 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Evaluer
Utiliser
les modèles Construire le
le critère de Exécuter
Rd EF⎡ initiaux ⎤ : métamodèle Critère Conception
⎢⎢ u(x1 ) ⎥⎥ remplissage simulation EF
FBHF spatial d’arrête Oui optimale
⎢⎢ : ⎥⎥⎥
⎢⎢ ⎥ pour pour x̂∗
û(x)
⎢⎣ N ⎥⎦
u(x s ) trouver x∗

Non

Mise à jour
avec u(x̂∗ )

Figure 5.6 – Organigramme de la procédure d’optimisation

Organigramme de la procédure d’optimisation

La figure 5.6 illustre la stratégie pour l’optimisation de forme après retour élastique.
Le processus d’optimisation commence avec 10 simulations du modèle EF associée avec
Ns échantillons initiaux pour construire le métamodèle spatial. Ensuite, la stratégie
séquentielle est basée sur l’algorithme 1 ou 3 à travers deux étages. Dans le premier stage,
le procédé d’emboutissage en U est effectué par Abaqus-CAE™ STANDARD combiné
avec des sous-routines de l’écrouissage UHARD et VUHARD, respectivement pour le
solveur implicite dynamique et statique explicite. Le calcul dure 1h45 pour chaque
solveur avec 4 cœurs en parallèle sur une machine avec un Intel Core i7-4910 CPU à
2.9GHz. Dans le deuxième stage, le métamodèle spatial est construit. La résolution du
sous-problème séquentiel est ensuite effectuée par Matlab. Toute la procédure est implé-
mentée dans Matlab avec une interface à Abaqus. Le processus d’optimisation s’arrête
lorsque les critères d’arrêt définis par 4.11 sont satisfaits. Ici, on règle les paramètres de
l’algorithme à εf et ε à 1 %.

5.2.4 Résultats
Le processus d’optimisation séquentielle s’effectue suivant l’algorithme 1 et est
initialisé par 10 simulations EF associées avec 10 échantillons initiaux par la technique
LCVT. On construit la POD pour la matrice de cliché de ces 10 simulations. La figure
5.7 montre les valeurs propres et les erreurs de troncature dans la décomposition par
POD. On se rend compte que l’erreur de troncature ϵ(K) atteint une valeur de 2.10−4
lorsqu’on capture les quatre premiers modes. Par conséquence, on utilise les quatre
premiers modes pour construire le métamodèle spatial.
Remarque : Quatre modes seront toujours choisis pour la construction du métamodèle
spatial tout au long le processus d’optimisation. Les erreurs de troncatures varient très
peu après avoir enrichi le plan d’expérience avec un nouveau point d’évaluation du
modèle EF. Les fonctions de base POD sont mise à jour à chaque cycle.
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 115

1010 10-3
5

4
105
Valeur propre k

(K)
100

-5
10
1

10-10 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Mode Mode
(a) Les valeurs propres (b) Les erreurs de troncature

Figure 5.7 – Les valeurs propres et les erreurs de troncature pour la POD de l’ensemble
des simulations EF initiales.

9000
16
Evaluation de valeur objectif
14
14 Valeurs objectifs initiaux
8000
Valeur objectif (mm)

12
12
7000
10
F BHF (N)

10

8 6000 8

6 6
5000

4 Courbes de niveau
4
4000 Conception initiale
2 Conception itérative 2
Conception optimale
0 3000
0 2 4 6 8 10 12 14 16 18 2 2.5 3 3.5 4

Simulation EF Rd (mm)

(a) Evolution des valeurs objectifs (b) Trajectoire de convergence de la fonction objectif

Figure 5.8 – La convergence de la fonction objectif basée sur le métamodèle : Évolution


des valeurs objectives avec les points rouges désignent les 10 valeurs objectif initiales (a)
et trajectoire de convergence de la fonction objectif (b)

La figure 5.8a montre les évolutions des valeurs de la fonction objectif au cours des
itérations. Les points rouges désignent les valeurs de l’ensemble des simulations EF
du plan d’expérience initial. La conception optimale est atteinte après 17 simulations
EF pour un temps total d’environ 30h de calcul. La figure 5.8b montre les courbes de
niveaux de fonction objectif du métamodèle spatial avec les points noirs qui représentent
les échantillons initiaux qui sont fait par le pré-calcul EF. Les points vers désignent
les points ajoutés, et la conception optimale est trouvée au point magenta de valeur
Rd =2.076 mm, FBHF = 6237 N, la valeur optimale de la fonction objectif est de 0.386 mm.
L’évolution de la forme de la tôle après retour élastique est montrée sur la figure 5.9 qui
116 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

(a) Meilleure conception dans l’ensemble initial (b) 11ème simulation Rd =2.00 mm, FBHF =6665 N

(c) 12ème simulation Rd =2.355 mm, FBHF =6969 N (d) 13ème simulation Rd =2.072 mm, FBHF =6468 N

(e) 14ème simulation Rd =2.073 mm, FBHF =6642 N (f) 15ème simulation Rd =2.071 mm, FBHF =6088 N

(g) 16ème simulation Rd =2.073 mm, FBHF =6237 N (h) 17ème simulation Rd =2.076 mm,FBHF =6005 N

Figure 5.9 – Évolution de forme de la tôle en U après retour élastique


5.2. Optimisation du procédé d’emboutissage d’une tôle en U 117

10

-10
Z-coordonnée (mm)

-20

-30 0.5
0
-0.5
-40
100 101

-50 11ème simulation EF


12ème simulation EF
-60
13ème simulation EF
14ème simulation EF
15ème simulation EF
-70
16ème simulation EF
17ème simulation EF
-80
0 20 40 60 80 100 120 140
X-coordonnée (mm)

Figure 5.10 – Évolution de profil-2D de la tôle en U après retour élastique

Utilisation de métamodèle de krigeage Utilisation de métamodèle spatial


DOE
Ns R∗d (mm) FBHF ∗
(N) fmin (mm) Ns R∗d (mm) FBHF ∗
(N) fmin (mm)
1 36 2.082 6249 0.385 17 2.076 6237 0.386
2 23 2.082 6319 0.380 20 2.096 5910 0.360
3 34 2.081 6412 0.384 20 2.096 5895 0.360
4 50 2.081 6384 0.380 25 2.098 5144 0.342
5 39 2.096 5884 0.360 18 2.100 5104 0.341
6 42 2.082 6312 0.383 27 2.096 5905 0.359
7 25 2.117 4190 0.346 15 2.110 4526 0.332
8 30 2.074 7250 0.411 19 2.084 5991 0.372
9 31 2.092 5671 0.366 19 2.094 5396 0.351
10 39 2.170 3000 0.330 16 2.132 3758 0.341

Tableau 5.4 – Tableau de comparaison des variables et valeurs optimales entre la


stratégie séquentielle direct basée sur le métamodèle de krigeage et le métamodèle
spatial, Ns désigne le nombre de simulation EF exigée pour atteindre une valeur optimale
de la fonction objectif.

5.9 montre la meilleure conception dans l’ensemble de simulations initiales est la 6ème
simulation (voir la figure 5.8a). Les figures 5.9a-h montre la conception itérative de la
forme de la tôle après retour élastique. Leur profils d’évolution sont tracés sur la figure
5.10.

Pour évaluer l’influence du DOE initial on execute 10 optimisation pour chacun


des 10 DOE initiaux, chaque DOE étant généré par une technique LCVT comme sur la
118 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Métamodèle de krigeage Métamodèle spatial


DOE
R∗d ∗
(mm) FBHF (N) fmin (mm) R∗d ∗
(mm) FBHF (N) fmin (mm)
1 2.114 4414 0.381 2.100 4535 0.344
2 2.107 4701 0.343 2.170 3000 0.330
3 2.100 4991 0.381 2.108 4648 0.337
4 2.089 5946 0.395 2.100 5227 0.366
5 2.090 5693 0.385 2.082 6350 0.384
6 2.073 7241 0.410 2.171 3000 0.331
7 2.100 5080 0.342 2.121 4063 0.343
8 2.102 4974 0.337 2.103 4923 0.337
9 2.104 4886 0.345 2.102 4979 0.337
10 2.112 4324 0.355 2.100 5025 0.343

Tableau 5.5 – Tableau de comparaison des variables et valeurs optimales entre la


stratégie basée sur l’EGO du métamodèle de krigeage et du métamodèle spatial en
utilisant au totale 50 évaluations du modèle haute-fidélité.

figure 4.3). On compare les résultats obtenus avec la stratégie séquentielle directe et ceux
obtenus avec le métamodèle de krigeage seul pour la fonction objectif. Le tableau 5.4
montre cette comparaison. On voit que l’utilisation du métamodèle spatial exige moins
de simulations que l’utilisation du métamodèle de krigeage quelque soit le DOE initial.
De plus, les valeurs minimums obtenues sont meilleures lorsqu’on utilise le métamodèle
spatial.

On considère alors ce problème d’optimisation en appliquant la stratégie basée sur


l’EGO par l’algorithme 2 et 3. Cette stratégie est initialisée avec les 10 pré-calculs FE
initiaux comme la stratégie séquentielle direct, mais les simulations séquentielles sont
effectuées grâce au critère de remplissage basé sur l’espérance de l’amélioration. Ensuite,
40 simulations EF sont réalisées. Chaque simulation est associée à un cycle. Le coût de
simulation totale est de 50. La figure 5.11 montre les évolutions des valeurs optimales
de la fonction objectif fmin à chaque cycle de remplissage pour 10 cas différents avec les
10 échantillons initiaux comme la stratégie précédente. Dans tous les cas, on observe
que la stratégie de l’EGO basé sur métamodèle spatial semble meilleure que l’EGO basé
sur le métamodèle de krigeage. Les meilleures conceptions sont montrées sur le tableau
5.5 pour les 10 cas.

Discussion

Dans cette section, on a présenté l’application de la stratégie d’optimisation séquen-


tielle qui est proposée dans la section 4.2. On voit que cette stratégie a été efficace en
réduisant le coût de calcul et le nombre de simulations du procédé d’emboutissage
pour atteindre la forme désirée après retour élastique. Simultanément, ce problème
d’optimisation a été traité avec des cas différents en utilisant le métamodèle spatial et
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 119

1 1
fmin

fmin
0.5 0.5

0 10 20 30 40 0 10 20 30 40
Cycle Cycle
1
0.6
fmin

fmin
0.5 0.4

0 10 20 30 40 0 10 20 30 40
Cycle Cycle
1 1
fmin

fmin

0.5 0.5

0 10 20 30 40 0 10 20 30 40
Cycle Cycle

0.8
0.6
fmin

fmin

0.6
0.4
0.4

0 10 20 30 40 0 10 20 30 40
Cycle Cycle

1.5
0.6
fmin

fmin

1
0.4
0.5
0 10 20 30 40 0 10 20 30 40
Cycle Cycle

EGO basée le métamodèle krigeage EGO basée le métamodèle spatial

Figure 5.11 – Evolution de meilleure conception à chaque cycle


120 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

compare avec le métamodèle de krigeage seul. Les résultats montrent que le métamodèle
spatial est plus efficace par rapport que le métamodèle de krigeage.

5.3 Contrôle optimal d’un procédé d’hydroformage de tube en


Y
Cette section présente la stratégie de contrôle optimal afin de déterminer les lois de
commande dans le but d’obtenir un tube hydroformé respectant un critère de qualité lié
à l’épaisseur finale des parois du tube.. Cela consiste à inclure une boucle de contrôle à
l’intérieur de la boucle incrémentale utilisée dans le calcul élément finis. La stratégie
développée propose un couplage entre le métamodèle spatial et le contrôle optimal.

Bien que les problèmes de contrôle du procédé puissent être considérés comme des
problèmes d’optimisation, on fait ici la distinction entre les deux en nous basant sur
le fait que les problèmes de contrôle vont essentiellement concerner des paramètres
évoluant au cours du procédé. Il s’agit donc ici de déterminer non pas une valeur pour
chaque paramètre du procédé mais de déterminer des lois de commandes (pression de
fluide, déplacement des pistions...) qui dépendent du temps.

Les problèmes rencontrés industriellement associés au contrôle du procédé sont


similaires à ceux relatifs à l’optimisation. En effet, la maîtrise d’un procédé de mise en
forme passe par une détermination et un réglage précis des paramètres opératoires de
façon à ce que le produit obtenue satisfasse des critères précis de forme et/ou propriétés
mécaniques et ce au plus faible coût possible. Les problèmes du contrôle optimal ont
été étudié dans différents travaux scientifiques. Park et al. [138] utilisent la stratégie
du contrôle optimal pour contrôler la pression et le débit de l’écoulement d’un fluide
dans un canal afin de diminuer les effets de perturbations. Pour résoudre ce problème,
un algorithme de type gradient est proposé en utilisant une méthode de sensibilité
adjointe. Gelin et al [57] ont proposé de réaliser le contrôle optimal du chemin pression-
déplacement dans le cas de l’hydroformage d’un tube discrétisé avec des éléments
coques axisymétriques. Pour ce problème d’optimisation, les auteurs ont défini une
fonction objectif basée sur la variation d’épaisseur du tube. Cette fonction objectif est
minimisée avec un algorithme d’optimisation type de SQP. Yang et al. [195] utilisent la
même démarche pour optimiser la variation d’épaisseur d’une pièce de châssis automo-
bile. Cette pièce est obtenue par le pliage d’un tube provoqué par la fermeture de deux
matrices ouvertes et par la présence d’une pression interne. Yang et al déterminent ainsi
la loi de commande optimale de la pression en fonction de l’effort de fermeture. Concer-
nant le contrôle optimal du procédé de d’hydroformage d’une tube en T, Labergère
[94] a proposé l’approche en combinant la théorie du contrôle optimal avec l’approche
des surfaces de réponses. L’auteur a construit au cours de la simulation de courbes de
commande afin de minimiser à tout instant de la simulation une fonction coût basée sur
des critères de qualité du tube tel que l’épaisseur et l’endommagement.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 121

Figure 5.12 – Un acier inoxydable (SS 304) en forme de Y hydroformé au


SPS(Siempelkamp Pressen Systeme, Germany)

Dans le cadre de ce travail, on propose la méthodologie avancée pour contrôle


optimal du procédé d’hydroformage d’un tube en forme de Y basée sur le couplage
d’un métamodèle spatial et de l’algorithme d’optimisation dans le travail de thèse de
Labergère [94]. Cette procédure est effectuée par l’interface entre Abaqus-explicite et
Matlab pour le contrôle optimal d’hydroformage d’un tube en forme de Y. Le modèle
d’hydroformage du tube en forme de Y est basé sur le travail de la thèse de Jirathearanat
[77]. La figure 5.12 illustre la photo d’une forme d’un tube en Y qui a été hydroformé
par l’institut de recherche SPS (Siempelkamp Pressen Systeme, Germany) en Allemagne.

5.3.1 Description du procédé d’hydroformage du tube en forme de Y


Schéma d’hydroformage en forme de Y
Les formes en Y sont couramment utilisées dans le domaine de la canalisation ou
pour construire certaine partie de pot d’échappement automobile. Ces composants
tubulaires sont généralement faits en acier inoxydable 304, qui est plus résistant à
l’oxydation. Dans l’hydroformage de ces formes en Y, un contre-piston est souvent
utilisé pour guider et contrôler l’extrusion de la branche en Y du tube (figure 5.13a). Par
ce procédé, l’éclatement prématuré est retardé et augmente ainsi la hauteur utile de la
protubérance. Cependant, l’utilisation d’un contre-poinçon ajoute un autre paramètre
de processus à contrôler correctement avec les pistons axiaux et pression interne. La
forme en Y étudiée a une protubérance qui est inclinée de 60 degrés par rapport à l’axe
du tube. Les dimensions détaillées de la pièce sont données sur la figure 5.13b.

Procédure du procédé d’hydroformage d’un tube en forme de Y


La procédure du procédé d’hydroformage d’un tube en Y est montrée par des photos
sur la figure 5.14. Ces photos sont prises à partir d’expériences d’hydroformage en forme
de Y qui a été mené à l’institut de recherche de SPS, Allemagne et a été présenté par
122 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Contre-piston

Pression interne

Poinçons axiaux

(a) Schéma de l’outillage d’hydroformage en forme de Y [77]

(b) Caractéristiques géométriques de la forme en Y

Figure 5.13 – Schéma de l’outillage d’hydroformage et les dimensions détaillées de la


pièce.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 123

Counter Punch
Contre-poinçon
Axis (no de contre-poinçon
Axe (pas
counter
attaché)punch
attached)

Right Punch
Poinçon droit
Leftgauche
Poinçon Punch

Y-shape
Forme de Y
a)

Sealing d'étanchéité
Distance Distance
5 mm Tubede
Flan Blank
tube

1.5 mm

LLO LRO
b)

Y-shape
Forme de Y
Hp

40 mm 80 mm
c)
LLO LRO

Figure
Figure 3.2:– Procédure
5.14 Y-shape hydroforming
du procédé process procedure [SPS,
d’hydroformage Germany]
en forme de Y (SPS, Allemange).

22
124 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

PRESSE HYDROFORMAGE SPS

Force de fermeture 25,000 kN (2,500 tonne)

Max. Force axiale du cylindre 1250 kN (à Max. vitesse de poinçon)

Max. Force de contre-cylindre 24.7 kN

Max. Vitesse de poinçon axial 40 mm/s

Figure 3.3: SPS hydroforming press specifications


Figure 5.15 – Procédure du procédé d’hydroformage en forme de Y (SPS, Allemange)

3.1.1.2 Determination of the Process Parameters


Jirathearanat [77]. Les spécifications générales de la presse d’hydroformage SPS utilisée
A successful THF process largely depends on process parameters (loading paths), part
sont données sur la figure 5.15. Il convient de remarquer que pour ces expériences de
geometry, initial geometry of the tube, and interface friction conditions. In THF of a
formage, à partir desquelles les photos sont prises, le contre-poinçon n’a pas été utilisé.
given tubular part geometry, the main process parameters to be determined are the
La description du procédé est donnée ci-dessous.
following:
• Axial feeds vs. time
• Internal
1. Des inserts pressure vs.supérieures
des matrices time et inférieures ont été installés sur la presse.
Ces inserts
• Counter punch force vs. time (for some tube
imposent la forme finale du (dans notre
part geometries cas une forme en Y). Les
with protrusions)
pistons axiaux placés à chaque extrémité du tube servent à comprimer le tube
Initial
selon son estimates of thesel’étanchéité
axe et assure parameters canentre
be obtained
le tubefrom simple
et le metal
fluide forming
sous pressions. La
figure 5.14a montre l’insertion de la matrice inférieure.
equations. Typically, these estimated parameters are not accurate depending on the
complexity of part geometry and non-linearity of material properties. The parameters
2. Un plan du poinçon axial est montré sur la figure 5.14b. Dans ce cas, le tube a
will then bede
un diamètre tried
OD out=and
50“tuned”
mm, etthrough iterative FEAde
une épaisseur simulations
t0 = 1.5till
mm.satisfactory
Pour de bonnes
results are obtained.
performances It is certainly
d’étanchéité. preferred ont
Les pistons that the
uneinitial
forme process parameters
conique dansbela zone de
contact du piston/extrémités
reasonably well estimated. Thus, duthe
tube.
number of iterative simulations, necessary to
obtain the best process conditions, can be reduced. Design of the process parameters for
3. Les tubes ont été lubrifiés par pulvérisation avec un lubrifiant à film solide
Y-shape
(Gleitmo hydroforming is discussed here. Analytical equations were used to determine
965).
23
4. La figure 5.14b montre la mise en place du tube initial dans la cavité inférieure
de la matrice. Les pistons axiaux sont complètement écartés pour faciliter le
placement du tube, tandis que le contre-piston se trouve en position basse dans la
matrice.

5. La figure 5.14c montre un tube hydroformé selon une forme en Y. La longueur


axiale du tube a été raccourcie en raison des déplacements des pistons. Les déplace-
ments des pistons gauche et droit étant respectivement de 40 mm et de 80 mm. La
pression interne maximale du fluide était de 60 MPa. La hauteur de protubérance,
Hp , a été mesurée et est considérée comme "indice de formabilité" dans cette étude.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 125

Dp

D
t0

LL0 LR0

da L da R
α

LL1 LR1

Figure 5.16 – Paramètres géométriques


Geometry Description de la forme en YValue
[77]
α Protrusion angle 60 degrees
D Tube diameter (outside) 50.5 mm (1.988”)
Les paramètres du procédé
Dp Protrusion diameter (outside) 50.5 mm (1.988”)
La qualité detproduit
0 Tubehydroformage
obtenu par initial wall thickness 1.5 mm (0.059”)
dépend largement des paramètres
H Protrusion height to be designed
du procédé, de la géométrie finale de la pièce, de la géométrie initiale du tube et des
propriétés du matériau et les conditions de frottement aux interfaces. Les estimations
Geometry
initiales de ces paramètres Estimation
peuvent être obtenues à partir formulas
d’équations simples de mise
daL
en forme de métal. Typiquement, ces paramètres estimés ne sont H pas précis en fonction
de la complexité de la dgéométrie
aR 2H
de la pièce et de la non-linéarité des propriétés du
matériau. L L0 L L1 + d aL

LR0 LR1 + daR


Déplacement du piston : Les déplacements respectifs maximum des pistons gauches
Figure 3.4: Geometric parameters of the Y-shape
daL et droites daR sont estimés de manière à respecter la formale final du tube en Y, sur
la base des essais expérimentaux voir la figure 5.13 et tableau 5.6).
25
126 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Géométrie Description Valeur


α Angle de protubérance 60 °
D Diamètre du tube (extérieur) 50 mm
Dp Diamètre de protubérance (exté- 50 mm
rieur)
t0 Épaisseur de paroi initiale du tube 1.5 mm
H Hauteur de la protubérance être conçu

Tableau 5.6 – Paramètres géométriques de la forme en Y

Limite de pression interne : Une pression interne (Pi )y est utilisé pour générer une
poussé radiale sur la paroi interne du tube. La pression maximale acceptée par un tube
avant son éclatement varie en fonction du matériau et de la géométrie du tube. Une
équation pour approximer cette pression d’écoulement est dérivée à partir d’un modèle
d’expansion axisymétrique simple d’un tube avec des extrémités fixes :

2t0
(Pi )y = σy (5.12)
D 0 − t0

où σy est la limite d’élasticité du matériau du tube, t0 est l’épaisseur initiale et D0 est


le diamètre extérieur du tube. Bien que la limite de pression calculée ne soit précise
que pour une expansion du tube simple avec des extrémités fixes, c’est cependant
une bonne estimation initiale pour l’hydroformage de pièce plus complexes avec un
déplacement axial appliqué. La pression d’éclatement (Pi )b est la pression maximale
qui développe le tube sans éclatement. Lorsqu’aucun contre-poinçon n’est appliqué, la
pression d’éclatement pour un hydroformage en Y est estimée comme suit :

4t0
(Pi )b = σu (5.13)
D p − t0

où σu est la résistance à la rupture ultime, Dp est le diamètre de protubérance. La pres-


sion de calibration (Pi )max est le niveau de pression interne requis pour former/coincer
une paroi du tube dans les petits coins de la matrice. La pression de calibration peut
être estimée en utilisant l’équation (voir [89]) suivant :
[ ]
2 rb
(Pi )max = √ σf ln (5.14)
3 rb − t0

où σf est la contrainte d’écoulement et rb est le rayon de coin de la matrice. Cette équa-


tion est utilisée car un état de traction biaxiale équilibré prévaut, approximativement,
dans la partie supérieure de la protubérance en Y sans contre-poinçon appliqué. Claire-
ment, la pression d’éclatement devrait être plus grande que celle calculée par l’équation
5.14 lorsqu’un contre-poinçon est appliqué. Avec toutes les limites de pression estimées
tel que l’écoulement, l’éclatent et la pression de calibration, une courbe de pression
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 127

initiale pour l’hydroformage du tube en forme de Y peut être construit en utilisant


les lignes linéaires reliant ces limites de pression. La courbe de pression optimale sera
déterminée au moyen de simulations EF itératives.

Force de contre-poinçon : En raison de la complexité de la déformation, il n’y a pas


de formule simple disponible pour déterminer analytiquement la courbe de force de
contre-poinçon appropriée en fonction du temps. Cependant, le profil de la force du
contre-poinçon peut être estimé par des simulations EF. La courbe de déplacement
régissant le mouvement du contre-poinçon peut être modifiée jusqu’à ce qu’une bonne
forme en Y avec une hauteur de dôme conçu puisse être formée. Ensuite, la force
de contre-poinçon nécessaire peut être obtenue à partir de la force de contact entre
l’interface de contre-poinçon-protubérance. Alternativement, on peut également utiliser
la méthode de simulation basée sur l’optimisation pour déterminer la courbe de force
de contre-poinçon optimale en fonction du temps.

5.3.2 Modélisation par des éléments finis du procédé d’hydroformage en


forme de Y
La modélisation par éléments finis du procédé d’hydroformage a été développée
dans plusieurs logiciels différents dans le cadre d’une formulation dynamique non
linéaire explicite tel que LS-DYNA par Ray [144], PAM-STAMP par Jirathearanat [77],
avec une code "maison" par Labergère [95], [94]. L’avantage de la formulation dyna-
mique explicite est la gestion des différentes sources de non-linéarités (contact, grandes
déformations, modèles de comportement élasto-plastique, . . . .). Certains chercheurs
préfèrent appliquer la formulation statique implicite pour son schéma de résolution
plus rigoureux dans la détermination de l’équilibre à chaque étape de la déformation.
Cependant, il existe des problèmes intrinsèques associés à la formulation implicite tels
que la convergence et le temps de calcul long [107]. Cette section décrit la modélisa-
tion et la simulation du modèle d’hydroformage en forme de Y en utilisant le logiciel
Abaqus-explicite combiné avec des sous-routines de VUMAT. Le modèle du tube en Y
est inspiré de la thèse de Jirathearanat [77].

Modélisation par des éléments finis


En raison de l’existence d’un plan de symétrie naturel, on ne considère que la moitié
de la géométrie pour la construction du modèle numérique. Les différents composants
de l’outillage d’hydroformage du tube en Y sont généralement : une matrice qui impose
la forme finale du tube, des pistons axiaux, et d’un contre-piston comme sur la figure
5.17a. Les surfaces d’outillage tel que le contre-piston et la matrice (c’est-à-dire les
surfaces qui doivent être en contact avec le tube) sont discrétisées avec des éléments de
surface quadrilatéraux rigides. Le tube est discrétisé par un maillage de 3496 éléments
coque quadrangle à intégration réduite (nommé S4R). Le tube est en acier SS304 d’une
épaisseur de 1.5 mm, 320 mm de longueur et 50 mm de diamètre extérieur. La mise en
place du tube dans l’outillage est montrée sur la figure 5.17b). Les pistons axiaux sont
128 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

contre-poinçon

poinçon axial
matrice

tube

(a) Les composants d’un outillage de procédé d’hydrofromage d’un tube en Y

Maillage de matrice

Maillage de contre-poinçon

Maillage de Tube

(b) Modélisation du procédé d’hydroformage d’un tube en Y

Figure 5.17 – Modèle éléments finis d’un tube de forme en Y


5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 129

considérés comme rigides et modélisés avec une géométrie analytique. Les conditions
aux limites appliquées sur les outils sont illustrées sur la figure 5.17b. Tous les degrés
de liberté (DOF) de la matrice sont bloqués. Les pistons axiaux peuvent translater selon
l’axe Z, les autres DOF sont bloqués. Le contre-piston se déplace selon un axe incliné à
60◦ et les autres DOF sont bloqués. Une condition aux limites de symétrie est appliquée
sur la moitié du tube dans laquelle la translation Y et Z, la translation et la rotation
autour de l’axe X sont bloquées. Les déplacements des pistons axiaux et du contre-piston
sont contrôlés chacun par une loi de commande différente. Le modèle de frottement de
Coulomb est utilisé avec un coefficient de frottement statique égal à 0 05.

Modèle de comportement
Le modèle de comportement utilisé pour le procédé d’hydroformage a été développé
au sein du laboratoire LASMIS. Il s’agit d’un comportement élasto-plastique couplé à
l’endommagement ductile qui est représenté par des couples de variables d’état suivants :

— (εe , σ ) pour l’écoulement plastique.


— (α, X) pour l’écrouissage cinématique qui représentant le mouvement de la surface
de charge dans l’espace des contraintes.
— (r, R) pour l’écrouissage isotrope incluant le rayon de la charge surface change.
— (d, Y ) pour l’endommagement ductile isotrope.

Bien que l’endommagement ductile soit indéniablement de nature anisotrope, on utilise


la théorie de la mécanique des milieux continus et on associe à l’endommagement
isotrope une variable scalaire d comme une valeur moyenne d’endommagement dans
toutes les directions lorsque les microfissures et les microvides sont supposés être
uniformément répartis dans un élément de volume représentatif (VER) [151]. Il convient
de noter que la variable d’endommagement d a des valeurs comprises entre 0 et 1. Aussi
la rupture totale de du VER est accomplie lorsque d = dc = 0, 99. Le couplage fort entre
l’écoulement plastique et l’endommagement ductile conduit à la définition des variables
d’état effectives (ε̆e , σ̆ ), (ᾰ, X̆), (r̆, R̆) définies sur le VER fictif déformé (non endommagé)
dans la configuration tournée déformée comme suit :
√ σ
ε̆e = 1 − dεe σ̆ = √ (5.15)
1−d
√ X
ᾰ = 1 − dα X̆ = √ (5.16)
1−d
√ R
r̆ = 1 − d γ r R̆ = √ (5.17)
1 − dγ
Le paramètre γ permet notamment de ralentir la contribution de l’écrouissage isotrope
dans l’énergie motrice de l’endommagement.
130 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Les équations d’état et équations d’évolution

Les équations d’état : En supposant que l’énergie libre Ψ = Ψ (ϵe , α, r, d) s’écrive


comme une fonction isotrope des arguments avec des hypothèses de petite déformation
élastique et plastique et d’incompressibilité, les équations d’état suivantes peuvent être
facilement obtenues :
∂Ψ
σ (εe , d) = ρ = (1 − d)λe tr(εe )1 + 2µe (1 − d)εe (5.18)
∂εe
∂Ψ 2
X(α, d) = ρ = (1 − d)Cα (5.19)
∂α 3
∂Ψ
R(r, d) = ρ = (1 − d γ )Qr (5.20)
∂d
∂Ψ
Y (εe , α, r, d) = ρ = Ye +Yα +Yr (5.21)
∂d
1
Y e = (λe (εe : 1))2 + µe εe : εe (5.22)
2
1
Yα = α : α (5.23)
3
1
Y = γd γ−1 Qr 2
r
(5.24)
2
où µe et λe sont respectivement les coefficients de Lamé tandis que les paramètres C et
Q sont le module d’écrouissage cinématique et le module d’écrouissage isotrope. On
remarque que l’équation 5.21 représente le couplage avec l’endommagement induit
trois parties du taux de libération de la densité d’énergie où Y e est la contribution
du comportement élastique, Y α est la contribution de l’écrouissage cinématique et Y r
représente la contribution de l’écrouissage isotrope. En utilisant les variables effectives
définies au-dessus dans l’équation de l’énergie libre pris comme un potentiel d’état, la
nouvelle expression suivante de σ et Y e peut être facilement obtenue pour tenir compte
de l’effet de fermeture de microfissures :

e e e e
⎨σ = 2µe [(1 − d)⟨e ⟩+ + (1 − hd)⟨tr(e )⟩− ] + λ[ e [(1 − d)⟨tr(ϵ )⟩ − (1 −]hd)⟨−tr(ϵ )⟩] 1


(5.25)
⎩Y e = 2µe [⟨ee ⟩+ : ⟨ee ⟩+ + h⟨ee ⟩− : ⟨ee ⟩− ] + λe ⟨tr(ϵe )⟩2 + h⟨−tr(ϵe )⟩2

où h (0 ≤ h ≤ 1) est une constante qui caractérise l’effet de la fermeture des microfissures


sous un état de chargement en compression. Clairement, l’équation 5.25 montre que le
paramètre de fermeture des microfissures h sert à réduire la force de l’endommagement
élastique Y e pour la charge de compression si h < 1. Dans le cas h = 1, il n’y a plus
de contribution de la charge de compression sur la force de l’endommagement. C’est
la manière la plus simple de différencier le taux d’endommagement sous tension et
compression.

Les équations d’évolution : La règle de normalité appliquée à la fonction potentielle


5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 131

F conduit à obtenir les relations d’évolution. Les relations d’évolution sont calculées de
telle manière que l’inégalité résiduelle de Clausius-Duhem est a priori identiquement
satisfaite. Les relations d’évolution (le taux de déformation plastique D P , la vitesse
de déformation d’écrouissage cinématique α̇, la vitesse de déformation d’écrouissage
isotrope ṙ et l’évolution de l’endommagement d˙ sont donnés par :

∂F
D P = λ̇ = λ̇np (5.26)
∂σ
λ̇
α̇ = √ (nx − aα) (5.27)
1−d
ni
( )
ṙ = λ̇ √ − br (5.28)
1−d
[ ]s
˙ λ̇ ⟨Y − Y0 ⟩
d= (5.29)
(1 − d)β S

où λ̇ est le multiplicateur plastique. Les tenseurs normaux selon le potentiel plastique


sont respectivement np et nx à Cauchy et les espaces de stress arrière, tandis que ni
peut être considéré comme un variable scalaire d’écrouissage isotrope dans l’espace des
contraintes. Les coefficients a et b sont respectivement les non linéarités d’évolution des
écrouissages isotrope et cinématique. Enfin, les paramètres β, Y0 , s et le seuil S agissent
sur l’évolution de l’endommagement ductile. Finalement, le modèle comportement est
associé à un critère d’écoulement isotrope qui est décrit comme suit :

f (σ̆ , X̆, R̆) = ∥σ̆ − X̆∥ − R̆ − σy ≤ 0 (5.30)

où ∥σ̆ − X̆∥ est la norme de von Mises et σy la limite d’élasticité du matériau.

Détermination des paramètres du matériau

L’identification des paramètres du matériau est effectuée par un essai de gonflement


hydraulique. La procédure d’identification de la contrainte d’écoulement est représentée
schématiquement sur la figure 5.18. Un tube d’acier SS304 d’une épaisseur de 1.5 mm,
200 mm de longueur, et 50 mm de diamètre extérieur est utilisé pour l’essai. La dimen-
sion de matrice comprend une longueur de 220 mm, 50 mm de diamètre inférieur et
50.8 mm de longueur dans la zone de gonflement. Un capteur de déplacement permet
de mesurer la hauteur maximum (h) de gonflement du tube selon le niveau de pression
interne (P) appliqué à l’intérieur du tube hauteur de gonflement. La figure 5.19 montre
le résultat de simulation pour les propriétés du matériau dans tableau 5.7. La figure
5.20 montre la pression par rapport à la hauteur du gonflement mesurée à partir des
expériences de gonflement de SS304 (en rouge) et la simulation EF (en bleu) pour le mo-
dèle de comportement couplé à l’endommagement ductile (avec t0 =1.5 mm). La courbe
de contrainte d’écoulement est montrée sur la figure 5.21 qui est calculée à partir de
pression par rapport la hauteur de gonflement. Les propriétés du matériau déterminées
132 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Die Die Tube Tube

(a) (b)

Figure 5.18 – Les composants d’essai (a) et la procédure d’essai de gonflement hydrau-
lique (b)

Pi

hi

Figure 5.19 – La hauteur de gonflement par rapport à la pression interne

ont été utilisées dans les simulations du procédé d’hydroformage en forme de Y dans le
cadre de ce travail.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 133

50

40

Point d'éclatement
Pression (MPa)

30

20

10 Déformation commence

0 Données expérimentales
Simulation EF

-10
0 2 4 6 8 10 12
Hauteur de gonflement (mm)

Figure 5.20 – La pression par rapport à la hauteur du gonflement mesurée à partir des
expériences de gonflement de SS304 et la simulation EF pour les paramètres du modèle
dans tableau 5.7 (avec 50 mm de diamètre et t0 =1.5 mm d’épaisseur).

1000

900
Contrainte effective (MPa)

800

700

600

500

400

300

200
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
Déformation effective

Figure 5.21 – Courbe de déformation effective-efficace en contrainte, SS304 avec OD =


50 mm, t0 = 1.5 mm
134 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Paramètres Valeurs
Module de Young 220 GPa
Coefficient de poisson ν 0.29
Limite élastique σy 260 MPa
Écrouissage cinématique C 2900 MPa
Écrouissage isotrope Q 2800 MPa
Densité 7800 kg/m3
La constante a 55
La constante b 4.0
Pré-déformation 0.06
S 3.5 MPa
Coefficient s 1.2
Endommagement critique dc 0.98
β 2.0
Y0 0.8 MPa

Tableau 5.7 – Paramètres du modèle pour l’acier SS304 utilisés dans la simulation
numérique.

5.3.3 Validation du modèle numérique


Les paramètres du modèle identifiés pour matériau d’acier SS304 sont dans le tableau
5.7. La courbe de la pression interne expérimentale est montrée sur la figure 5.22a qui
se compose de deux étapes principales : l’étape de formage (1-11 secondes) (y compris
l’expansion libre et l’expansion contre le contre-poinçon) et l’étape de calibration (11-15
secondes). Au cours de la phase de formage, la pression interne monte de 0 à 80 MPa.
La courbe de contrôle des pistons axiaux est montrée sur la figure 5.22b avec 45 mm de
déplacement axial à gauche et 85 mm de déplacement axial à droite. Au cours de la
phase de calibration, il n’y a pas de déplacements des pistons axiaux. Le déplacement des
pistons axiaux ne sont pas appliqués pendant l’étape de calibration car la pression est
généralement très élevée, la force de frottement de l’interface entre le tube et la matrice
devient alors trop importante pour que le matériau soit chargé. La figure 5.22c montre la
force du contre-poinçon et le déplacement du contre-poinçon qui détermine la hauteur
de protubérance de la forme en Y. La figure 5.23 montre le résultat de la simulation
du procédé d’hydroformage d’un tube en forme de Y par le contrôle des paramètres
du procédé comme sur la figure 5.22 par rapport au temps. La figure 5.24 montre
la distribution d’épaisseur et d’endommagement aux nœuds. La figure 5.25 montre
une comparaison des distributions d’épaisseur de la forme en Y entre la simulation EF
et l’expérimental. On voit une similitude entre la courbe expérimentale et la courbe
numérique dans la zone de l’amincissement (comprise entre 40 mm et 170 mm). Cette
zone est associée à la partie d’expansion du dôme. Par conséquent, on peut utiliser ce
modèle numérique pour l’étude du contrôle optimal du procédé d’hydroformage d’un
tube en forme de Y.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 135

1400 90

80
1200
70

Déplacement axial (mm)


1000
60
Pression (bars)

800 50

600 40

30
400
20
200 Déplacement axial droit
10
Déplacement axial gauche
0 0
0 5 10 15 0 5 10 15
t(s) t(s)

(a) Courbe de la pression (b) Courbe de déplacement des pistons axiaux

140
La courbe de force de contre-poinçon
Déplacement de contre-poinçon (mm)

La courbe de déplacement de contre-poinçon


25
120
Force de contre-poinçon (kN)

100 20

80 15

60
10
40

5
20

0 0
2 4 6 8 10
t(s)

(c) Courbe de force et de contre-poinçon du contre-


poinçon.

Figure 5.22 – Contrôle des paramètres du procédé d’hydroformage en forme de Y.


136 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

(a) Temps=0s

(b) Temps=5s

(c) Temps=11s

(d) Temps=15s

Figure 5.23 – La simulation EF du procédé d’hydroformage d’un tube en forme de Y.


5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 137

(a) Distributions d’épaisseur (b) Distributions d’endomagement

Figure 5.24 – Les résultats de distribution d’épaisseur et d’endomagement.

2.6

2.4

2.2
Épaisseur (mm)

1.8

1.6

1.4

1.2
EXP( 2 échantillons)
Simulation EF
1
0 50 100 150 200
Position axiale (mm)

Figure 5.25 – Comparaison des distributions d’épaisseurs de la forme en Y SS304 de


simulation EF et des expériences le long de la direction longitudinale.
138 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

5.3.4 Stratégie de contrôle optimal du procédé d’hydroformage


La stratégie qu’on décrit ici consiste à utiliser la théorie du contrôle optimal. Ainsi,
plutôt que de se donner une approximation des lois de l’évolution, on détermine celles-ci
à pas à pas au cours de la simulation par éléments finis.

On va donc construire au cours de la simulation, les courbes de commande afin de


minimiser à tout instant de la simulation, une fonction cout basée sur de la qualité du
tube. Cet algorithme de contrôle permet d’obtenir uniquement des lois de commande en
fonction du temps. Trois paramètres du procédé sont considérés à savoir la pression p(t),
le déplacement sur deux pistons axiaux à gauche dL (t) et à droite dR (t).

Formulation du problème

Dans le contrôle d’hydroformage du tube, le problème peut être formulé comme


une suite de problèmes d’optimisation identiques. L’algorithme de contrôle consiste
à des étapes j successives du calcul de simulation, les valeurs de la pression pj+1 , du
j+1 j+1
déplacement à gauche dL et du déplacement à droite dR qui minimisent la fonction
objectif f j au j-ème étape :
j j+1 j+1 j+1 j+1 j+1
min fobj (xj+1 ) avec : xj+1 = (x1 , x2 , x3 ) = (dL , dR , pj+1 ) (5.31)
xj+1

en respectant les 4 contraintes inégalités (k = {1, . . . , 4}) :


j
gk (xj+1 ) ≤ 0 (5.32)
j j j
où x1 , x2 et x3 correspondent respectivement au déplacement axial à gauche dL (τ), au
déplacement axial à droite dR (τ) et à la pression p(τ) à valeur de chargement τj tel que :
⎧ j
⎪d = dL (τj )
⎪ Lj


(5.33)

d = dR (τj )
⎪ R


⎩pj = p(τ )

j

La fonction objectif caractérise la qualité finale du tube hydroformé et prend la forme


suivante [94] :
⎛ N (
e j+1
)2 ⎞ 21 ⎛ Ne ( j+1
)2 ⎞ 12
j 1 ⎜⎜
⎜ ∑ h0 − hi (x ) ⎟⎟ ⎟ 1 ⎜⎜
⎜ ∑ hi (x ) − h0 ⎟⎟⎟
fobj (xj+1 ) = ⎜⎜α ⎟⎟ + ⎜⎜(1 − α) ⎟⎟ (5.34)
Ne ⎝ h0 ⎠ Ne ⎝ h0 ⎠
i=1 i=1

j+1 j+1
où α est le coefficient de pondération. xj+1 = (dL , dR , pj+1 ), Ne désigne le nombre
d’éléments du tube hydroformé et où h0 représente l’épaisseur initiale et hi (xj+1 ) repré-
sente l’épaisseur de l’élément i. Cette fonction prend en compte l’amincissement par le
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 139

biais du premier terme et l’épaississement par l’intermédiaire du second. Cette fonction


permet d’éviter des variations importantes de l’épaisseur. En effet une trop grande
diminution d’épaisseur est propice à l’apparition de striction et un épaississement peut
correspondre à l’apparition d’un plissement.
Les fonctions de contraintes non-linéaires sont décrites comme suit :
⎧ j
⎪g (xj+1 ) = fc − Fc (xj+1 ) ≤ 0
⎪ 1j


⎪ j+1 j+1
⎨g2 (x ) = fR − FR (x ) ≤ 0


j (5.35)
⎪g3 (xj+1 ) = fL − FL (xj+1 ) ≤ 0




⎩g j (xj+1 ) = max(d

(xj+1 )) − d (xj+1 ) ≤ 0

4 endo c

où Fc (xj+1 ), FL (xj+1 ), et FR (xj+1 ) sont respectivement les efforts de réaction à l’étape


j + 1 du contre-piston, du piston axial à gauche et du poinçon axial à droite. fc , fR et
fL sont leur valeurs limites associées. Ces évoluent en fonction du temps pour assurer
le contact des pistons et le tube et permettre de respecter le forme en Y. Le champ
de l’endommagement est désigné par dendo (xj+1 ) et dc représente la valeur critique de
l’endommagement qui est réglée à 0.98. On construit le métamodèle spatial pour le
champ d’épaisseur h dans la fonction objectif 5.34 et le métamodèle de krigeage pour les
fonctions contraintes 5.35. Le problème d’optimisation séquentielle est résolu à chaque
étape j. Ensuite, la solution optimale trouvée sera mise à jours dans l’étape suivante
j + 1.

Choix des variables de conception


En pratique, le contrôle des courbes de pression p(τ), de déplacement axial des
opt opt
pistons dL (τ) et dR (τ) est effectué par leur optimaux incréments ∆popt , ∆dL et ∆dR
qui sont décrit comme suit :
⎧ opt
⎪∆d = dL (τi+1 ) − dL (τi )
⎪ Lopt


∆d = dR (τi+1 ) − dR (τi ) (5.36)

⎪ R


⎩∆popt = p(τ ) − p(τ )

i+1 i

Le plan d’expériences est effectué pour ces trois incréments dans l’espaces de conception
D = [0, ∆dLmax ] × [0, ∆dRmax ] × [0, ∆pmax ]. Dans chaque étape, le métamodèle spatial de
l’épaisseur est construit avec les 20 échantillonnages dans l’espaces des paramètres D.
En résolvant le problème d’optimisation basé sur le métamodèle spatial, on trouve une
valeur optimale de l’incrément. La figure 5.26 illustre une évolution de la pression à
l’étape j +1 qui est la somme de la pression pj à l’étape j et ∆popt , la solution trouvée dans
l’intervalle [0, ∆pmax ]. La figure 5.27 montre le plan d’expérience pour trois paramètres
en normalisé. Les incréments maximaux des paramètres sont réglés à 17 mm pour le
déplacement du piston à droite, à 12 mm pour le déplacement du piston à gauche et
à 15 MPa pour la pression interne. Leurs valeurs limites sont respectivement réglés à
85 mm, 45 mm et 130 MPa.
140 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

𝑝
𝑝max

𝑝𝑗+1
∆𝑝max
∆𝑝opt
𝑝𝑗

𝜏
0 𝜏𝑗 𝜏𝑗+1 𝜏max

Figure 5.26 – Exemple pour une évolution dans la procédure du contrôle optimal

0.8
p(Normalisé)

0.6

0.4

0.2

0
1
0.5 0.8 1
0.4 0.6
DL (Normalisé) 00 0.2
d R (Normalisé)

Figure 5.27 – Plan d’expériences pour trois paramètres en normalisé

Remarque : l’espace des paramètres D peut-être changé dans les dernières étapes.
Dans le cas de l’étape courant, la distance entre la valeur initiale et la valeur limite de
n’importe quel paramètre est plus petit que son incrément maximum ∆max , la borne
supérieure ∆max sont alors identifiées par le différence entre sa valeur initiale et sa
valeur limite.

L’hydroformage du tube en forme de Y est difficile car il est nécessaire de toujours


s’assurer du contact entre le flan et le contre-piston au cours du procédé. Autrement dit,
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 141

le procédé a besoins de satisfaire les contraintes que l’effort de réaction du contre-piston


est toujours supérieur à quelques kN. Cette pièce est ainsi très complexe à obtenir avec
un procédé classique d’hydroformage. Le but de la stratégie de contrôle proposée est
de déterminer les lois de commandes de la pression et les pistons axiaux de telle sorte
que l’on obtienne le minimum d’amincissement du flan pour éviter ainsi les risques de
rupture. Dans cette étude, le coefficient de pondération α dans la fonction 5.34 est règlé
à 0.9.

Résultats obtenus
La figure 5.28 montre l’évolution des formes du tube par rapport au facteur de
chargement au cours du procédé d’hydroformage. La figure 5.29 montre les évolutions
des trois paramètres de contrôle (dR , dL et p) par rapport au facteur de chargement τ.
Pour voir le comportement de l’évolution du contrôle par rapport aux paramètres du
procédé, on a considéré, par exemple, l’étape 2. Les figures 5.30-5.33 nous montrent
l’évolution de l’approximation par rapport aux paramètres de l’étape 2 au cours du
contrôle. Ces figures visualisent l’approximation de la fonction objectif fobj , la zone
faisable prédite, la probabilité de faisabilité de la solution Px et l’approximation de
la fonction objectif avec les contrainte fc prédites par rapport dR (normalisé) et dL
(normalisé) correspondant à différentes valeurs de p (normalisé). Pour p(normalisé) =
0.25, on observe que la région faisable de la solution n’existe pas (voir la figure 5.30b).
La probabilité de faisabilité est très faible (voir 5.30c). L’approximation de la fonction
objectif avec les contraintes ne change pas par rapport de l’approximation de la fonction
objectif. Pour p(normalisé) = 0.5, on voit que la région faisable prédite apparait un peu.
La probabilité de faisabilité augmente dans la zone faisable. La figure 5.30d visualise
l’approximation de la fonction objectif avec les contraintes et son optimum dans la zone
faisable. Lorsque la valeur p(normalisé) augmente à 0.75, la région faisable augment
plus large (voir la figure 5.32b), la probabilité de faisabilité est aussi plus grande (voir la
figure 5.32c). Enfin, la figure 5.33 visualise l’évolution de l’approximation par rapport dR
(normalisé) et dL (normalisé) à la valeur p(normalisé) = 1. On voit clairement la région
faisable est plus grand. Dans cette étape, l’optimum est trouvé au point x∗ = (0.9356,
0.5655, 0.7276) correspondant à valeurs de l’incrément : 15.9055 mm de déplacement
axial à droite, 6.7259 mm de déplacement à gauche et 17.4625 MPa. On se rend ainsi
compte qu’une montée important de pression et le déplacement axial à droite provoque
toujours une augmentation de la fonction objectif qu’à certains stades du procédé.

Ensuite, la figure 5.34 montre le résultat de l’évolution de l’effort de réaction sur


le piston au cours du procédé d’hydroformage. On remarque que le niveau d’effort du
contre-piston est respecte bien la contrainte indiquée en rouge (figure 5.34a). La courbe
de contrainte pour l’effort du contre-piston est imposée selon une forme linéaire. Elle
augmente à partir de l’étape 2 avec 1800 N de l’incrément pour chaque étape. Cette
contrainte est indispensable afin d’assurer le contact entre le contre-piston et le tube
déformé. La figure 5.34d montre que le maximum de l’endommagement est toujours
inférieur à la valeur critique (dc =0.98) de l’endommagement. Pour pouvoir visualiser
142 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

(a) τ = 1.2 (s) (b) τ = 2.4 (s)

(c) τ = 3.6 (s) (d) τ = 4.8 (s)

(e) τ = 6 (s) (f) τ = 7.2 (s)

(g) τ = 8.4 (s) (h) τ = 9.6 (s)

(i) τ = 10.8 (s) (j) τ = 12 (s)

Figure 5.28 – Évolution du tube en Y au cours de contrôle du procédé d’hydroformage


5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 143

Déplacement du poinçon axial à gauche (mm)


90
Déplacement du poinçon axial à droite (mm)

50

80

70 40

60
30
50

40
20
30

20
10
10 Loi de commande empirique Loi de commande empirique
Loi de commande contrôlée Loi de commande contrôlée
0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)

(a) (b)

140 104
3.5
Loi de commande empirique
120 3 Loi de commande contrôlée
Pression interne (MPa)

Effort contre-piston (N)

100 2.5

80 2

1.5
60

1
40

0.5
20 Loi de commande empirique
Loi de commande contrôlée 0
0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)

(c) (d)

Figure 5.29 – Comparaison de l’évolution du déplacement du piston à droite (a) et à


gauche (b) et la pression interne (c) et l’effort du contre-piston (d) donnée par l’algo-
rithme de contrôle et obtenue de façon empirique pour la forme en Y.
144 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

10-4 1

d L (normalisé)
2
0.5

1
1
1
0.5 0.5 0
0 0 0 0.2 0.4 0.6 0.8 1
d L (normalisé) d R (normalisé) d R (normalisé)

(a) (b)

10-4

0.05 2

0 1
1 1
1 1
0.5 0.5 0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)

(c) (d)

Figure 5.30 – Représentation de l’évolution de l’approximation à l’étape 2 avec


p(normalisé)=0.25 : l’approximation de la fonction objectif (a), la région faisable (b), la
probabilité faisable (c), l’approximation de la fonction objectif avec les contraintes (d)

10-4 1
Région faisable prédite
d L (normalisé)

2
0.5

1
1
1
0.5 0.5 0
0 0 0.2 0.4 0.6 0.8 1
0
d L (normalisé) d R (normalisé) d R (normalisé)

(a) (b)

10-4

0.5 2.5
2
1.5
0 1
1
1 0.5
0.5 0.5 1 1
0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)

(c) (d)

Figure 5.31 – Représentation de l’évolution de l’approximation à l’étape 2 avec


p(normalisé)=0.5 : l’approximation de la fonction objectif (a), la région faisable (b),
la probabilité faisable (c), l’approximation de la fonction objectif avec les contraintes (d)
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 145

10-4 1
Région faisable prédite

d L (normalisé)
3

0.5
2

1
1
0.5 0.5 0
0 0 0 0.2 0.4 0.6 0.8 1
d L (normalisé) d R (normalisé) d R (normalisé)

(a) (b)

10-4
1 3

0.5 2

1
0
1
1 0
0.5 0.5 1 1
0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)

(c) (d)

Figure 5.32 – Représentation de l’évolution de l’approximation à l’étape 2 avec


p(normalisé)= 0.75 : l’approximation de la fonction objectif (a), la région faisable (b), la
probabilité faisable (c), l’approximation de la fonction objectif avec les contraintes (d)

1
10-4
Région faisable prédite
d L (normalisé)

3
0.5
2.5

2
1
1
0.5 0
0.5 0 0.2 0.4 0.6 0.8 1
0 0
d L (normalisé) d R (normalisé) d R (normalisé)

(a) (b)

10-4

0.5 2

1
0
1 0
1 1
0.5 1
0.5 0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)

(c) (d)

Figure 5.33 – Représentation de l’évolution de l’approximation à l’étape 2 avec


p(normalisé)= 1 : l’approximation de la fonction objectif (a), la région faisable (b),
la probabilité faisable (c), l’approximation de la fonction objectif avec les contraintes (d)
146 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

104 105
3 2
Contrainte pour l'effort du contre-piston Effort du piston axial à droite
2.5 Effort du contre-piston contrôlé

1.5
2
Effort (MPa)

Effort (N)
1.5 1

1
0.5
0.5

0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)

(a) Evolution de l’effort du piston (b) Evolution de l’effort du pistion à droite

104 0.012
16
Effort du piston axial à gauche Valeur maximale de l'endommagement
14
0.01
12
Endommagement

0.008
10
Effort (N)

8 0.006

6
0.004
4
0.002
2

0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)

(c) Evolution de l’effort du pistion à gauche (d) Evolution d’une valeur maximale de l’endomma-
gement

Figure 5.34 – Evolution des fonctions de contraintes au cours du contrôle


5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 147

2.4

2.2
Épaisseur (mm)

1.8

1.6

1.4

Loi de commande empirique


1.2 Loi de commande contrôlée
L'épaisseur initiale
0 50 100 150 200
Position axiale (mm)

Figure 5.35 – Évolution de la variation de l’épaisseur obtenue avec une loi de commande
contrôlée et comparée à celle obtenue avec une loi de commande empirique

(a) (b)

Figure 5.36 – Répartition de l’épaisseur obtenue avec une loi contrôlée (a), Répartition
de l’épaisseur avec une loi empirique (b)
148 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

l’influence du contrôle sur le procédé d’hydroformage, la figure 5.35 permet de comparer


la variation d’épaisseur correspondant aux résultats de commande en déplacement des
piston dR , dL et de la pression p issus de l’algorithme de contrôle optimal et la variation
d’épaisseur obtenue avec une commande empirique précédent (figure 5.22). Les figures
5.36a et b visualisent la répartition de la variable d’épaisseur en appliquant la commande
contrôlée et l’empirique. On se rend compte que l’utilisation de la loi de commande
contrôlée produit une meilleure répartition de l’épaisseur au niveau du dôme du tube en
Y. En particulier, la commande contrôlée a permis de réduire la variation de l’épaisseur
dans la zone d’épaississement et d’augmenter l’épaisseur dans la zone d’amincissement
au cours du procédé d’hydroformage. Finalement, cet essai montre que le contrôle
des commandes (dR , dL , p et l’effort du contre-piston permet améliorer largement la
qualité finale du tube en respectant la forme de Y grâce à une meilleure répartition de
l’épaisseur.

5.4 Optimisation des surfaces additionnelles pour le procédé


d’emboutissage
Le procédé d’emboutissage consiste à fabriquer une pièce de forme complexe en
déformant une tôle mince à l’aide d’outils tels que le poinçon, la matrice, le serre-flan.
Pendant le procédé, la tôle subit une grande transformation impliquant des phénomènes
multi-physiques comme l’élasto-plasticité avec écrouissage et anisotropies, l’endomma-
gement et la rupture, le contact et le frottement, etc. Dans un tel procédé, de nombreux
paramètres peuvent être ajustés pour améliorer la formabilité et la qualité de la pièce
souhaitée. Ces paramètres sont soit les propriétés matériaux, les efforts de serrage, la
forme et la position des joncs de retenus, la direction de la balance 1 , soit des aspects
d’ordre géométriques tels que l’ajout de surfaces additionnelles (SA) et l’optimisation de
la forme du flan initial [126]. Cette section présente une méthodologie qui se focalise
sur la conception automatique et l’optimisation des surfaces additionnelles (SA). Les SA
ont une grande influence sur la formabilité de l’embouti. Une bonne conception des SA
permet :
(i) de faciliter l’équilibre global de la tôle,
(ii) de minimiser la quantité du matériau consommé,
(iii) d’assurer une surface lisse sans rayure,
(iv) et surtout d’éliminer les défauts pouvant apparaître sur la pièce utile (rupture et
plissement de la tôle.
Pour parvenir à des SA optimales, les outils numériques sont beaucoup plus rapides
et économiques que les essais expérimentaux longs, fastidieux et coûteux. Par ailleurs,
l’avancée des technologies informatiques et le nombre sans cesse croissant d’outils
numériques sont autant d’arguments pour encourager les industriels à tendre vers une
démarche numérique de conception et d’optimisation des SA. Cette étude présente
1. La direction de la balance ...
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 149

Figure 5.37 – Configuration de conception des surfaces additionnelles : S0 maillage en


rouge, S1 maillage en bleu, S2 maillage en vert et S3 maillage en jaune

la méthodologie pour l’optimisation des surfaces additionnelles du modèle d’aile de


Renault Safrane (voir la figure 5.39 grâce au code SIMEX™ 2 .

5.4.1 Conception des surfaces additionnelles


Bien que la géométrie de la matrice réelle soit un système de surfaces plutôt compli-
quées, certaines caractéristiques géométriques de base peuvent être identifiées (voir la
figure 5.38. De telles caractéristiques de base peuvent être résumées comme suit :

— Direction de l’emboutissage : identifiée sur la base de la contre-dépouille minimale,


moment d’inertie ou rectitude des lignes caractéristiques projetées.
— Ligne de rayon du poinçon : identifié après le développement de la bride et de la
protection.
— Ligne d’entrée de la matrice : joint la ligne du poinçon au serre-flan, avec un
angle d’ouverture pour éviter les contres-dépouilles (La pièce ne peut pas être
démoulée).
— Serre-flan : peut être développable (conique ou dirigée) ou quasi développable.
Les parties non développables peuvent produire des problèmes de rides pendant
la phase de maintien.
— Autres composants : habituellement, une surface de la matrice contient des élé-
ments locaux conçus pour contrôler l’impact du poinçon-pièce et/ou étirer locale-
ment le matériau.

La génération des surfaces additionnelles (SA) avec DieAdd™ nécessite la forme (S0 ) de
la pièce finale de l’aide de safrane (voir figure 5.39) et à réaliser et plusieurs paramètres
2. http ://simtech.fr
eface design

he simplified die addendum: basic geometry feature of the dieface

lthough an actual dieface is a rather complicated system of surfaces, some basic


eometry features can150 be identified. Such basic
CHAPITRE features can
5. Applications be summarized
à l’optimisation as
de procédés de mise en forme
ollows :
• Stamping direction : identified on
the basis of minimum undercut, ligne de rayon
du poinçon
inertia moment or straightness of
projected characteristic lines.
• Punch radius line : identified after
flange development and protection
• Die entry line : joins the punch line serre-flan
to the blankholder, with an opening
angle to avoid undercuts
• Blankholder : can be developable ligne d'entré
de la matrice
(conical or ruled) or quasi-
direction de l'emboutissage
developable. Non-developable
blankholders may give rise to
Figure 5.38
wrinkling problems during the– Caractéristique géométrique de base de surface de la matrice
holding phase.
• Other run-offs components.
Typically, a dieface contains local
elements (sausages) designed to
control punch/blank impact and/or
to stretch locally the material.

Figure 5.39 – Pièce finale (de la Renault Safrane).

"métiers" relatif aux procédés. La forme (S0 ) est définie via un maillage surfacique de
type NASTRAN™ dans un fichier *.nas, tandis que l’ensemble des paramètres "métiers"
est précisé dans un fichier *.cfg.
Le logiciel DieAdd™ génére trois types de surfaces additionnelles comme le montre
la figure 5.37). Les surfaces de mur de protection (S1 ), les surfaces de rayon d’entrée
matrice (S2 ) et les surfaces sous serre-flan (S3 ). Le résultat, sous forme d’une surface
maillé est écrit également dans un fichier *.nas au format NASTRAN™ (voir figure
5.37).
Dans le cadre de cette étude, les paramètres considérés pour optimiser les surfaces
additionnelles sont relatifs à : la direction de l’emboutissage, la direction de la linéarité
opyright © 2001 SimTech Simulation
pour et Technologie
le serre-flan All rights
et la direction de reserved page11/47
la balance,... La direction de l’emboutissage est
représentée par un vecteur unitaire comme sur la figure 5.40). Ce vecteur peut-être
paramétré par deux angles comme dans des coordonnées sphériques (voir la figure
5.41) : n = (sin ϕ cos θ, sin ϕ sin θ, cos ϕ). Le deuxième vecteur pour contrôler le procédé
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 151

direction de l'emboutissage

Figure 5.40 – Modèle d’éléments finis après avoir ajouté des surfaces additionnelles.

Figure 5.41 – Représentation du vecteur unitaire par deux angles en coordonnées


sphériques (r = 1).

d’emboutissage, c’est le vecteur unitaire de la direction pour serré-flan nf . Ce vecteur


est orienté proche de la perpendiculaire du vecteur de l’emboutissage et est représenté
par deux angles. Le choix de l’intervalle des angles est important pour éviter contre-
dépouille au cours de l’emboutissage. Dans le cas de l’étude, les angles ϕ et θ du
vecteur unitaire de direction de l’emboutissage varient de −10 ° à 10 ° et de 0 ° à 90 °,
respectivement. Les angles ϕ et θ du vecteur unitaire de la direction pour le serre-flan
variant de 80 ° à 90 °, respectivement. La profondeur de l’emboutissage est réglée à
20 mm.

5.4.2 Description d’Approche Inverse


L’approche inverse (AI) pour la simulation de mise en forme a été développée il
y a presque 30 ans par J.L Batoz [8], Y.Q. Guo [64], [65]. Cette méthode exploite la
152 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

connaissance de la forme finale de la pièce. Étant donné un maillage éléments finis


sur la pièce finale, on recherche les positions nodales dans le flan initial. Une solution
initiale peut être obtenue en cartographiant tous les nœuds sur le plan horizontal (pro-
jection verticale ou développement de longueur radiale). Ces positions de nœuds sont
ensuite modifiées de manière itérative afin de satisfaire l’équilibre dans la pièce finale.
Deux hypothèses principales sont retenues : l’hypothèse du chargement proportionnel
(Déformation Théorie de la Plasticité) permet d’éviter l’intégration incrémentale de la
plasticité et l’hypothèse d’actions d’outils simplifiées permettant d’éviter le traitement
de contact entre le flan et les outils. Ces hypothèses conduisent à une méthode en une
étape indépendante de l’historique des déformations. L’approche inverse permet de
réaliser des calculs rapides et ne nécessite pas beaucoup d’espace mémoire puisqu’il n’y
a que deux degrés de liberté par nœud, même si les effets de flexion sont pris en compte
(voir la figure 5.42). Le détail de fondements de l’Approche Inverse est décrit dans

n
Action des outils P
Embouti final
h, ε, σ = ?
A B
𝑾
𝑢

A0 P0 U, V flan initial plan h0 B0

Figure 5.42 – Description générale de l’Approche Inverse.

l’annexe A.4. Dans la section suivante, on va décrire cette approche de la simulation


inverse par le code SIMEX™ qui a été intégré dans les solutions de simulation des
procédés d’ESI Group.

5.4.3 Simulation d’emboutissage avec SIMEX™


Formulation du modèle de comportement
La simulation inverse mise en œuvre dans SIMEX™ est présentée par Di Pasquale
[44], [45] et est illustrée sur la figure 5.42. Le point de départ de la simulation inverse
est le modèle par éléments finis du flan embouti. L’algorithme de simulation inverse
permet à l’utilisateur de trouver la position des nœuds de la pièce emboutie sur la
géométrie initiale de flan. Cette recherche est réalisée sans prendre en compte l’histoire
de la déformation, d’où le nom de "une étape". Le champ de déplacements calculé assure
l’équilibre de la pièce emboutie, à travers les calculs de la déformation (amincissement,
allongement) et des contraintes. La principale caractéristique du problème inverse est
que le modèle EF est construit à partir de la forme finale, alors que les inconnues sont
réparties entre le flan (résultat du calcul) et la pièce emboutie (point de départ du calcul).
Le problème peut être posé en termes mathématiques comme trouver le déplacement
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 153

dans les directions x et y dans le plan de l’ébauche originale, de sorte que la pièce
emboutie sont en équilibre sous l’action des contraintes internes, des efforts de réaction,
des efforts de frottement et des efforts de retenue. Dans SiMEX™ , le modèle du maté-
riau implémenté est basé sur la simulation en une étape qui relie sur deux hypothèses
simplificatrices :

— La composante de déformation peut être négligée par rapport à la composante de


déformation plastique.
— Les chemins de déformation sont considérés proportionnels et monotone (figure
5.43), par ex. à chaque instant t > 0 :

ε1 (t)
= α(constant) (5.37)
ε2 (t)

𝜀2
Chemin de
déformation radial

Chemin de
déformation réelle
𝜀1

Figure 5.43 – Chemin de déformation radiale et réelle.

Sur la base de ces hypothèses, les équations de l’écoulement du matériau (plasticité


associative de Von Mises et Hill, [9]) peuvent être intégrées pour donner lieu à une
relation explicite entre les valeurs propres de la contrainte et les tenseurs de déformation
par :
[ ] [ ]
σ1 −1 ε1
= Es P (5.38)
σ2 ε2

où Es est le module d’élasticité sécant, et P est une matrice, fonction du critère de


plasticité choisi. La relation entre σ et εp est décrite par une loi de Swift :

σ = K(ε0 + εp )n (5.39)

Pour le critère de Von-Mise, la matrice de P est donnée par :


⎡ 2 ⎤
⎢⎢ (1+r) r(1+r) ⎥
1+2r
P −1 = ⎢⎢⎢ (1+r)(1+2r)
⎥⎥
(5.40)
⎢ ⎥⎥
2
⎣ r(1+r) (1+r) ⎥⎦
1+2r (1+r)(1+2r)
154 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Paramètres Valeurs
Module de Young 210 GPa
Epaisseur 1 mm
Coefficient de Krupkovsky K 550 MPa
Coefficient de Krupkovsky ϵ0 0.0035
Coefficient de Krupkovsky n 0.23
Coefficient de Lankford R̄ 1.43
Coefficient de frottementR̄ 0.15

Tableau 5.8 – Les données d’acier XES donné par Renault

où r est le coefficient d’anisotropie de Lankford. Pour le contact de frottement, la loi de


Coulomb est utilisée pour deux modèles à contact-frottement :

— Contact unilatéral entre le flan et le poinçon.


— Contact bilatéral entre le flan et la matrice, le serre-flan.

Modèle d’élément finis


Le modèle d’élément finis représente la forme finale de la pièce et des surfaces
additionnelles. La pièce finale est composée de deux type d’élément : triangulaire et
quadrangle comme sur la figure 5.40. La pièce finale est maillée avec 1397 éléments
(35 éléments triangulaires et 1362 éléments rectangulaires) et le maillage des surfaces
additionnelles est changé en dépendant des paramètres du procédé. Le matériau utilisé
est l’acier XES dont les caractéristiques sont montrées dans tableau 5.8

5.4.4 Optimisation des surfaces additionnelles et du volume de l’outillage


Définition des fonction objectifs
Dans le cas de l’emboutissage avec les surfaces additionnelles, l’objectif est d’optimi-
ser et d’économiser les matières d’habillages. Nous traduirons cela par la minimisation
de l’aire des surfaces additionnelles et du volume de l’outillage. Le problème d’optimisa-
tion est alors défini comme suit :

min(S(x), V (x)) (5.41)


x∈D

où x représente le vecteur variable des paramètres et D est l’espaces des paramètres. Les
fonctions objectifs S et V représentent l’aire des surfaces additionnelles et le volume de
l’outillage respectivement. L’aire des surfaces additionnelles et du volume de l’outillage
sont calculés par la somme de l’aire et le volume de l’outillage de tous des éléments. Pour
le calcul du volume de l’outillage, chaque le volume d’élément est calculé basé sur le
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 155

direction de l'emboutissage

Figure 5.44 – Procédure de calcul du volume d’outillage.

Figure 5.45 – Procédure de calcul du volume d’élément.

volume inclus en utilisant le théorème de divergence 3 comme sur la figure 5.45 (section
10.7 dans [93]). Ces volumes inclus sont formés par la projection de chaque élément
sur la surface P qui passe par le point le plus bas et perpendiculaire à la direction de
l’emboutissage. La procédure de calcul du volume est illustrée sur la figure 5.44. Le
modèle de krigeage est utlisé pour construire le métamodèle des deux fonctions objectifs.

Définition de fonction contrainte

La fonction contrainte du problème d’optimisation se base sur l’utilisation d’une


courbe limite de formage (CLF) pour vérifier que l’ensemble des points matériels de la
tôle se forme correctement sans plis ou fissures. La figure 5.46 illustre la formulation de
la fonction contrainte. La ligne noire désigne la courbe de limite de formage de l’acier
XES. Le point i représente les coordonnées de déformation principales d’un élément i.
Pour éviter la rupture, tous les points i doivent se situer en dessous de la CLF. Cette
condition peut être évaluer avec la disctance maximale entre le point de coordonnées
(ε2i , ε1i ) et le point de coordonnées (ε2i , ε1flc ) en tenant compte de la marge de sécurité

3. https ://fr.wikiversity.org/wiki/Analyse_vectorielle/Divergence
156 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Déformation majeure
0.6 flc
1 2
)
d
0.4
i i
2 1
)
0.2
Courbe limite de formage
Point de coordonnées
0 2
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure

Figure 5.46 – Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF)

considéré. Ce principe peut être formulé comme suit :

g(x) = max di = max (ε1i − ε1flc ) ≤ 0 avec : ε1flc = ϕ(ε2i ) (5.42)


1≤i≤m 1≤i≤m

où ε1i et ε2i sont le i-ème composant du champ de déformation majeure ε1 et de déforma-


tion mineure bmε2 respectivement. Le métamodèle spatial est construit pour le champ
de distance d = ε1 −ϕ(ε2 ). Ce métamodèle est ensuite utilisé pour le calcul de probabilité
de faisabilité de contrainte pour le critère de remplissage.

Chox des variables de conception


Le vecteur de variables x des paramètres de conception est composé de 5 pa-
ramètres : deux angles θ et ϕ permettant de contrôler la direction de l’emboutis-
sage, deux angles α et β permettant de contrôler la direction du serre-flan et la force
du serre-flan F. Les angles θ et ϕ varient de −10 ° à 10 ° et de 0 ° à 90 ° respecti-
vement. Les angles α et β varient de 80 ° à 90 ° et de 0 ° à 90 ° respectivement. La
force de serre-flan varie de 5000 N à 50 000 N. L’espace de paramètres est défini par
D = [−10, 0, 80, 0, 5000] × [10, 90, 90, 90, 50000]. Les échantillonnages initiaux pour la
construction du plan d’expérience numérique sont choisis en utilisant la technique
LCVT.

5.4.5 Résultats d’optimisation et discussion


Le processus d’optimisation est initialisé par 50 simulations. Un métamodèle de
krigeage est construit pour chaque fonction objectif basées soit sur l’aire de surface
additionnelles et soit par le volume d’outillage. Le métamodèle spatial est construit
pour le champ de mesure des deux déformations pour la fonction de contrainte. Les
simulations sont ensuite enrichies en utilisant les trois critères de remplissage de la sec-
tion 4.4.3 : l’amélioration de la distance euclidienne EI Me , l’amélioration de la distance
maximin EI Mm et l’amélioration de l’hypervolume EI Mh . Le budget total d’évaluation
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 157

108
2.2

1.8

V(mm3 )
1.6

1.4

1.2 Points initiaux


Points enrichis
1 Points optimaux de Pareto

5 6 7 8 9 10
S(mm2 ) 105

(a) Amélioration de la distance euclidienne EIMe

108
2.2

1.8
V (mm3 )

1.6

1.4

1.2
Points initiaux
Points enrichis
1 Points optimaux de Pareto

5 6 7 8 9 10
S(mm )3 105

(b) Amélioration de la distance maximin EIMm

108
2.2

1.8
V(mm3 )

1.6

1.4

1.2
Point Initiaux
Points enrichies
1 Points optimaux de Pareto

5 6 7 8 9 10
S(mm2 ) 105

(c) Amélioration de l’hypervolume EIMh

Figure 5.47 – Résultats issus du processus d’optimisation basée sur trois critères de
remplissage.
158 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Critère d’amélioration de la distance euclidienne EI Me


Conception Paramètres optimaux x∗ = (φ, θ, α, β, F) Valeurs objectifs (S, V )
Minimum S (5.52, 70.04, 86.21, 88.35, 50000) (4.5208 × 105 , 1.2225 × 108 )
Minimum V (3.85, 83.75, 80.00, 5.71, 41250) (5.0418 × 105 , 9.6501 × 107 )
Compromis (5.81, 61.48, 85.73, 87.67, 39956) (4.5324 × 105 , 1.1465 × 108 )
Critère d’amélioration de la distance maximin EI Mm
Conception Paramètres optimaux x∗ = (ϕ, θ, α, β, F) Valeurs objectifs (S, V )
Minimum S (8.93, 40.89, 80.23, 87.95, 47322) (4.5318 × 105 , 1.2914 × 108 )
Minimum V (3.75, 76.76, 83.67, 6.40, 12377) (5.1567 × 105 , 9.7929 × 107 )
Compromis (6.35, 55.53, 83.22, 87.17, 5024) (4.6235 × 105 , 1.1715 × 108 )
Critère d’amélioration de l’hypervolume EI Mh
Conception Paramètres optimaux x∗ = (ϕ, θ, α, β, F) Valeurs objectifs (S, V )
Minimum S (8.93, 40.89, 80.23, 87.94, 47322) (4.4393 × 105 , 1.3741 × 108 )
Minimum V (3.13, 89.97, 85.71, 5.54, 48806) (5.0758 × 105 , 1.0025 × 108 )
Compromis (5.67, 86.26, 81.27, 89.31, 37900) (4.5303 × 105 , 1.1527 × 108 )

Tableau 5.9 – Résultat issus du processus d’optimisation basée sur trois critères de
remplissage.

des fonctions est de 200 dont 50 simulations initiales. La figure 5.47 montre les résultats
issus du processus d’optimisation en utilisant les trois critères de remplissage. Les points
rouges (triangle) représentent les 50 conceptions initiales. Les points verts désignent les
conceptions enrichies et les points bleus sont les conceptions optimales de Pareto. Il faut
remarquer que le critère de remplissage EI Me donne 7 solutions optimales de Pareto
(voir la figure 5.47a), le critère de remplissage EI Mm donne 10 solutions optimales de
Pareto (voir la figure 5.47b) et le critère de remplissage EI Mh donne 9 solutions opti-
males de Pareto (voir la figure 5.47c). On observe que les solutions optimales de Pareto
basées sur le critère de remplissage EI Mh et EI Mh sont distribuées plus uniformément
que le critère de remplissage EI Me .

Le tableau 5.4.5 montre le détail de résultats de conception optimale de l’aire des


surfaces additionnelles et du volume d’outillage dans trois critères de remplissage.
Le critère de remplissage EI Me donne un meilleur résultat de conception optimale
du volume d’outillage avec 9.6501 × 107 mm3 au point x =(3.85 °, 83.75 °, 80 °, 5.71 °,
41 250 N). Pour la conception optimale de l’aire des surfaces additionnelles, le critère
de remplissage EI Me donne un meilleur résultat avec 4.4393 × 105 mm2 au point : x =
(8.93 °, 40.89 °, 80.23 °, 87.94 °, 47 322 N). Le meilleur des compromis entre les deux
fonctions objectifs s’est trouvé au point x =(5.67 °, 86.26 °, 81.27 °,89.31 °, 37 900 N) avec
4.5303 × 105 mm2 de l’aire des surfaces additionnelles et 1.1527 × 108 mm3 du volume
d’outillage.

Les figures 5.48-5.50 montrent les courbes limites de formages pour toutes les
conceptions optimales en utilisant trois critères de remplissage. Les coordonnées de
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 159

Courbe limite de formage Courbe limite de formage


0.7 0.7
Déformation des surfaces additionnelles Déformation des surfaces additionnelles
Déformation de pièce final Déformation de pièce final
0.6 0.6

Déformation majeure
Déformation majeure
0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure

(a) Conception optimale de S (b) Conception optimale de V

Courbe limite de formage


0.7
Déformation des surfaces additionnelles
Déformation de pièce final
0.6
Déformation majeure

0.5

0.4

0.3

0.2

0.1

0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure

(c) Compromise entre S et V

Figure 5.48 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance euclidienne.

Courbe limite de formage Courbe limite de formage


0.7 0.7
Déformation des surfaces additionnelles Déformation des surfaces additionnelles
Déformation de pièce final Déformation de pièce final
0.6 0.6
Déformation majeure
Déformation majeure

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure

(a) Conception optimale de S (b) Conception optimale de V

Courbe limite de formage


0.7
Déformation des surfaces additionnelles
Déformation de pièce final
0.6
Déformation majeure

0.5

0.4

0.3

0.2

0.1

0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure

(c) Compromise entre S et V

Figure 5.49 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance maximin.
160 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

Courbe limite de formage Courbe limite de formage


0.7 0.7
Déformation des surfaces additionnelles Déformation des surfaces additionnelles
Déformation de pièce final Déformation de pièce final
0.6 0.6

Déformation majeure

Déformation majeure
0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure

(a) Conception optimale S (b) Conception optimale V

Courbe limite de formage


0.7
Déformation des surfaces additionnelles
Déformation de pièce final
0.6
Déformation majeure

0.5

0.4

0.3

0.2

0.1

0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure

(c) Compromise entre S et V

Figure 5.50 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de l’hypervolume.

0.02 0.18

0.16
0
0.14

0.12
-0.02
500
0.1
400
z(mm)

-0.04 0.08
300
1400
200 0.06
1200 -0.06
0
1000 0.04
200
800
400
600 -0.08 0.02
600
400
800 y(mm) 0
x(mm) 200
1000 -0.1

(a) (b)

Figure 5.51 – (a) Configuration de conception optimale d’aire des surfaces additionnelles
et (b) distribution de la déformation mineure (à gauche) et majeure (à droite)
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 161

0.16
0.04

0.14
0.02

0.12
0
500

400 -0.02 0.1


z(mm)

300
-0.04 0.08
200
1400 0.06
100 -0.06
1200
0
1000 -0.08 0.04
200
800
400
600 y(mm) -0.1 0.02
600
x(mm) 400
800 -0.12
200 0
1000

(a) (b)

Figure 5.52 – Configuration de conception optimale de volume d’outillage (a) et distri-


bution de la déformation mineure (à gauche) et majeure (à droite) (b)

0.02
0.16

0 0.14

0.12
500 -0.02
0.1
400
z(mm)

-0.04 0.08
300
1400
200 0.06
1200 -0.06
0
1000 0.04
200
800
400 -0.08 0.02
600 y(mm)
600
x (mm) 400 0
800
200 -0.1
1000

(a) (b)

Figure 5.53 – Configuration de conception compromise entre S et V (a) et distribution


de la déformation mineure (à gauche) et majeure (à droite) (b)
162 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme

déformation mineure et majeure de la pièce finale sont présentées par les points en
bleus. Alors que les points rouges désignent la coordonnée de déformation des surfaces
additionnelles. On voit que tous les points de coordonnées de déformation majeure
et mineure sont en bas de la CLF de l’acier XES. Autrement dit, l’ensemble des points
matériels se situent en dessous de la courbe limite de formage.

Les figures 5.51a-5.53a montrent respectivement les meilleures configurations de


conception optimale pour l’aire des surfaces additionnelles, le volume d’outillages et
le compromis entre S et V. Les données associées à ces meilleures conceptions corres-
pondent donc aux critères d’amélioration de l’hypervolume EI Mh , critère d’amélioration
de la distance euclidienne EI Me et le critère EI Mh (voir le tableau 5.4.5). On peut voir
que l’aire des surfaces additionnelles dans la configuration de la conception optimale
de S et la conception compromise entre S et V ne sont pas très différentes, malgré la
différence remarquable de leur volume (voir le tableau 5.4.5). Cela est dû au fait que leur
point plus bas sont différents par l’habillage d’outil. Les figures 5.51b-5.53b permettent
de visualiser les distribution de déformation mineure (à gauche) et majeure (à droite)
pour ces trois conceptions associées. Il est à noter que leur valeur sont très petites. Par
conséquent, les conceptions proposées permettent de respecter la qualité de la pièce
finale et d’économiser les matières.

5.5 Conclusion
Les applications présentées dans ce chapitre confirment l’intérêt pratique de l’opti-
misation basée sur le métamodèle. En effet, l’utilisation le métamodèle couplé ont fait
preuve d’une efficacité supérieure aux approches qui utilise le métamodèle traditionnel
dans première application. Les stratégies différentes sont appliquées aux problèmes
d’optimisation de forme de l’emboutissage d’une tôle en U. Cependant, l’intégration du
métamodèle spatial couplé l’algorithme EGO dépende une manière de formulation de
la fonction objectif. Lorsque la fonction objectif est formulé en forme plus compliqué,
cette approche est limite.

Dans deuxième application, l’utilisation du métamodèle couplé montre son efficacité


pour contrôler les différentes lois de commandes (Les piston axiaux, la pression interne
et l’effort du contre-piston). Le processus de contrôle permet de construire de manière in-
crémentale les courbes de commande afin d’obtenir, au final, un composant de meilleure
qualité. De plus, les évolutions des courbes de commande montrent que le contrôle a un
rôle important sur l’état final de déformation plastique du tube. Cependant, on parle de
contrôle et non d’optimisation car dans le cas du contrôle, on cherche à minimiser la
fonction objectif à tout instant du processus de chargement, tandis qu’avec le processus
d’optimisation, on minimise généralement la fonction objectif à l’état final.

Pour la dernière application, on a appliqué la stratégie multi-objectif au problème


industriel de l’optimisation de l’aile voiture. Cette approche est inspirée par les travaux
5.5. Conclusion 163

de recherche développés précédent [54], [34], [196], travaux plûtot appliqués aux pro-
blème de grandes dimensions. Le métamodèle de la fonction de contrainte est construit
basé pour le champ de mesure de la déformation par le couplage la POD et le modèle de
krigeage.
164 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Conclusion et perspectives

Sommaire du chapitre
Contributions 165
Perspectives 166

Contributions
Le principal objectif de cette thèse est l’optimisation des procédés de mise en forme
via le couplage de modèles adaptatifs et la réduction dimensionnelle. Les utilisations
du métamodèle et de la méthode d’optimisation se sont portés respectivement sur la
méthode de réduction dimensionnelle, le modèle de krigeage et la stratégie d’optimisa-
tion séquentielle, comme le détaille le chapitre 4. Pour améliorer les performances des
méthodes choisies et les adapter à notre contexte, un travail sur les aspects théoriques
de ces méthodes a été réalisé.

La méthodologie proposée en combinant la méthode de réduction dimensionnelle


et le modèle de krigeage a permis de réduire le nombre des évaluations de la fonction
couteux. Une grande partie des travaux de thèse a été consacrée à ce dernier point.
L’utilisation du métamodèle spatial couplé avec l’algorithme d’optimisation ainsi que
l’algorithme EGO s’est montré plus efficace d’évaluation par rapport l’utilisation du
métamodèle de krigeage seul. Cette comparaison a été démontrée dans le chapitre 4
avec les exemples académiques. Ce chapitre a aussi permis de décrire les stratégies
d’optimisation pour les problème avec les contraintes non-linéaires et l’optimisation
multi-objectif. Cela occupe une place importante dans cette thèse pour les application
aux autres cas d’optimisation des procédés de mise en forme.

Le chapitre 5 a traité les applications dans les procédés de mise en forme. Dans
une première application, cette stratégie s’est montrée efficace pour l’optimisation de
l’emboutissage d’une tôle en U proposé de la conférence Numisheet2011. Ce problème
a été traité en utilisant deux stratégies : séquentielle directe et EGO. Les stratégies
d’optimisation sont implémentées dans le code Matlab ayant une interface avec Abaqus

165
166 Conclusion et perspectives

standard/explicite sur la machine local dans l’environnement de Windown.

Dans une deuxième application, l’utilisation du métamodèle a permis de réaliser


le contrôle des différentes commandes qui sont composées de : la pression interne, le
déplacement axial des pistons et effort de contre-piston intervenant dans le procédé
d’hydroformage de tube en forme de Y. La stratégie repose sur le couplage du métamo-
dèle spatial et de l’algorithme d’optimisation qui intervient de manière incrémentale
à différents sous-intervalles du facteur de chargement. La stratégie consiste dans un
premier temps, à construire un métamodèle du champ d’épaisseur en fonction des
différentes commandes à contrôle, et dans seconde temps à déterminer les valeurs de
commandes qui résolvent le problème d’optimisation de la fonction objectif approximée
avec contrainte non-linéaire au sous-intervalle contrôlé. Cette stratégie de contrôle
permet la construction de manière incrémentale des différentes lois de commande qui
permettent de respecter des critères de qualité ou de forme au cours du procédé. Le
résultat montre les capacités de l’approche proposée pour obtenir une pièce de meilleure
qualité. Le contrôle optimale est réalisée à travers une interface entre le code matlab
et Abaqus-explicite dans l’environnement de Linux sur le serveur de calcul au sein de
laboratoire LASMIS.

La dernière application, la stratégie d’optimisation multi-objectif a permis d’optimi-


ser et réduire le matière nécessaire pour concevoir des surfaces additionnelles lors de
l’emboutissage de l’aile de voiture. Dans ce problème, le modèle de krigeage est utilisé
pour construire l’approximation de deux fonctions objectifs. Le métamodèle spatial
est utilisé pour construire une approximation du champ de mesure de la déformation
majeure et mineure qui est ensuite intégrée dans la fonction de contrainte. Cette fonction
est basée sur le critère de rupture à travers la courbe limite de formage. Le processus
d’optimisation est implémenté grâce à l’interface entre la routine de Matlab et deux
logiciels commerciaux : SIMEX et DIEADD fournis par ESI-Group et la résolution se
déroule sur les serveurs à distance d’ESI-Group.

Perspectives
Les travaux présentés dans ce mémoire ne sont que le point de départ de la construc-
tion des stratégies basées sur le métamodèle spatial pour l’optimisation de fonctions
coûteuses en général et l’application aux procédés de mise en forme en particulier. L’amé-
lioration de ces stratégies d’optimisation nécessite encore de répondre à de nombreuses
questions.

Nous avons discuté de l’utilisation pratique du couplage de réduction dimension-


nelle et du modèle d’approximation traditionnel dans de nombreux contextes de procédé
de mise en forme, mais pour la plupart de ceux-ci, des questions restent en suspens.
Par exemple, le choix de la fonction objectif et les fonctions de contrainte qui permet
Perspectives 167

d’intégrer le métamodèle spatial au sein du processus d’optimisation. De plus, on n’a


pas eu l’occasion de traiter un problème d’optimisation robustes et fiabiliste. Il importe
aussi d’étudier avec davantage d’attention l’impact du passage de l’apparition d’erreur
dans le processus de simulation du procédé de mise en forme.

Sur un plan plus technique, le couplage du métamodèle spatial et de l’algorithme


EGO a encore des limites pour les problèmes d’optimisation. Par exemple, dans le pro-
blème du contrôle d’hydroformage, la fonction objectif est une combinaison de deux
fonctions : une fonction qui décrit l’épaississement et une fonction qui décrit l’amin-
cissement du tube. L’approximation d’une fonction objectif complexe à partir d’un
métamodèle POD+Krigeage rend difficile le calcul de la variance. Par conséquent, pour
pouvoir appliquer cette stratégie, il faut souvent simplifier l’écriture de la fonction objec-
tif. Une possibilité pour évaluer la variance d’une fonction objectif complexe approchée
reste encore à étudier.

Deux stratégies d’enrichissement du métamodèle ont été discutées (directe et EGO).


D’autres solutions sont encore à étudier comme l’utilisation d’autres critères (maximiser
la probabilité d’amélioration ou minimiser une borne inférieure [54]) pour enrichir
l’évaluation du modèle haute-fidélité dans l’espace de conception.

Un dernier point d’attention, les stratégies d’optimisation ont été codées sous le
logiciel Matlab et interfacés avec différents logiciels commerciaux (ABAQUS™ , SIMEX™
). Pour des raisons d’exploitation en environnement industriel et d’efficacité, il serait
intéressant d’intégrer la construction de ces métamodèles directement dans le code
éléments finis afin de le rendre plus intrusifs.
168 Conclusion et perspectives
Bibliographie

[1] A. C. Aitken. « IV.—On Least Squares and Linear Combination of Observations ».


In : Proceedings of the Royal Society of Edinburgh 55 (1936), p. 42-48.
[2] N. Alberti et L. Fratini. « Innovative sheet metal forming processes : nume-
rical simulations and experimental tests ». In : Journal of Materials Processing
Technology 150.1-2 (2004), p. 2-9.
[3] N. M. Alexandrov et al. « Approximation and model management in aerody-
namic optimization with variable-fidelity models ». In : Journal of Aircraft 38.6
(2001), p. 1093-1101 (cf. p. 64).
[4] P. J. Angeline. « Evolutionary optimization versus particle swarm optimization :
Philosophy and performance differences ». In : Evolutionary Programming VII.
Sous la dir. de V. W. Porto et al. Berlin, Heidelberg : Springer Berlin Heidelberg,
1998, p. 601-610 (cf. p. 21).
[5] C. Audouze, F. De Vuyst et P. Nair. « Reduced-order modeling of parameterized
PDEs using time–space-parameter principal component analysis ». In : Inter-
national journal for numerical methods in engineering 80.8 (2009), p. 1025-1057
(cf. p. 5).
[6] C. Audouze, F. De Vuyst et P. B. Nair. « Nonintrusive reduced-order modeling
of parametrized time-dependent partial differential equations ». In : Numerical
Methods for Partial Differential Equations 29.5 (2013), p. 1587-1628 (cf. p. 5).
[7] R. R. Barton et M. Meckesheimer. « Metamodel-based simulation optimization ».
In : Handbooks in operations research and management science 13 (2006), p. 535-574
(cf. p. 63).
[8] J.-L. Batoz, Y. Qiao Guo et F. Mercier. « The inverse approach with simple
triangular shell elements for large strain predictions of sheet metal forming
parts ». In : Engineering Computations 15.7 (1998), p. 864-892 (cf. p. 151).
[9] D. C. Bautista. A sequential design for approximating the pareto front using the
expected pareto improvement function. The Ohio State University, 2009 (cf. p. 93,
95).
[10] G. Berkooz, P. Holmes et J. L. Lumley. « The proper orthogonal decomposition
in the analysis of turbulent flows ». In : Annual review of fluid mechanics 25.1
(1993), p. 539-575 (cf. p. 49).

169
170 Bibliographie

[11] R. Białecki, A. Kassab et A. Fic. « Proper orthogonal decomposition and modal


analysis for acceleration of transient FEM thermal analysis ». In : International
journal for numerical methods in engineering 62.6 (2005), p. 774-797 (cf. p. 49).
[12] B. J. Bichon. « Efficient surrogate modeling for reliability analysis and design ».
Thèse de doct. Vanderbilt University, 2010 (cf. p. 75, 92).
[13] L. Blasi et G. D. Core. « Particle Swarm Approach in Finding Optimum Aircraft
Configuration ». In : Journal of Aircraft 44.2 (2007), p. 679-683 (cf. p. 21).
[14] H. Block. « A review of perceptrons : An introduction to computational geo-
metry ». In : Information and Control 17.5 (1970), p. 501-522. issn : 0019-9958
(cf. p. 45).
[15] P. Boisse, P. Bussy et P. Ladeveze. « A new approach in non-linear mechanics : The
large time increment method ». In : International journal for numerical methods in
engineering 29.3 (1990), p. 647-663 (cf. p. 48).
[16] R. Bouclier, F. Louf et L. Chamoin. « Real-time validation of mechanical models
coupling PGD and constitutive relation error ». In : Computational Mechanics
52.4 (2013), p. 861-883 (cf. p. 48).
[17] G. E. P. Box et K. B. Wilson. « On the Experimental Attainment of Optimum
Conditions ». In : Journal of the Royal Statistical Society. Series B (Methodological)
13.1 (1951), p. 1-45. issn : 00359246 (cf. p. 45).
[18] G. Box, W. Gordon Hunter et J. Stuart Hunter. « Statistics for experimenters :
an introduction to design, and model building ». In : (mar. 1978) (cf. p. 45).
[19] M. Bramer. Principles of data mining. T. 180. Springer, 2007 (cf. p. 49).
[20] P. Breitkopf et al. « Computers & Structures ». In : 83 (2005), p. 1411-1428
(cf. p. 4, 47).
[21] C. G. BROYDEN. « The Convergence of a Class of Double-rank Minimization
Algorithms2. The New Algorithm ». In : IMA Journal of Applied Mathematics 6.3
(1970), p. 222-231 (cf. p. 16).
[22] M. D. Buhmann et M. Powell. Radial basis function interpolation on an infinite
regular grid. University of Cambridge. Department of Applied Mathematics et
Theoretical Physics, 1988 (cf. p. 32).
[23] T. Bui-Thanh, M. Damodaran et K. E. Willcox. « Aerodynamic data reconstruc-
tion and inverse design using proper orthogonal decomposition ». In : AIAA
journal 42.8 (2004), p. 1505-1516 (cf. p. 49).
[24] V. Buljak et G. Maier. « Proper orthogonal decomposition and radial basis
functions in material characterization based on instrumented indentation ». In :
Engineering Structures 33.2 (2011), p. 492-501 (cf. p. 49).
[25] M. Caramia et P. Dell’Olmo. Introduction to Optimum Design. Jan. 2011. isbn :
978-0-12-381375-6 (cf. p. 24).
Bibliographie 171

[26] M. Caramia et P. Dell’Olmo. Multi-objective Management in Freight Logistics :


Increasing Capacity, Service Level and Safety with Optimization Algorithms. Jan.
2008. isbn : 978-1-84800-381-1 (cf. p. 24).
[27] F. Chinesta, A. Ammar et E. Cueto. « Proper generalized decomposition of mul-
tiscale models ». In : International Journal for Numerical Methods in Engineering
83.8-9 (2010), p. 1114-1132 (cf. p. 48).
[28] F. Chinesta et P. Ladevèze. « Separated Representations and PGD-Based Model
Reduction ». In : Fundamentals and Applications, International Centre for Mechani-
cal Siences, Courses and Lectures 554 (2014) (cf. p. 47).
[29] F. Chinesta, P. Ladeveze et E. Cueto. « A short review on model order reduction
based on proper generalized decomposition ». In : Archives of Computational
Methods in Engineering 18.4 (2011), p. 395 (cf. p. 32, 47, 48).
[30] F. Chinesta et al. « Alleviating mesh constraints : Model reduction, parallel
time integration and high resolution homogenization ». In : Computer methods in
applied mechanics and engineering 197.5 (2008), p. 400-413 (cf. p. 5).
[31] F. Chinesta et al. Nouvelles avancées dans les méthodes sans maillage : le couplage
des techniques des éléments naturels et des moindres carrés mobiles. 2007 (cf. p. 46).
[32] K. Choi, B. D. Youn et R.-J. Yang. « Moving least square method for reliability-
based design optimization ». In : Proc. 4th World Cong. Structural & Multidiscipli-
nary Optimization (2001) (cf. p. 47).
[33] A. Conn, N. Gould et P. Toint. Trust Region Methods. Society for Industrial et
Applied Mathematics, 2000 (cf. p. 16).
[34] I. Couckuyt, D. Deschrijver et T. Dhaene. « Fast calculation of multiobjective
probability of improvement and expected improvement criteria for Pareto opti-
mization ». In : Journal of Global Optimization 60.3 (2014), p. 575-594 (cf. p. 93,
99, 163).
[35] I. Couckuyt et al. « Surrogate-based infill optimization applied to electroma-
gnetic problems ». In : International Journal of RF and Microwave Computer-Aided
Engineering 20.5 (2010), p. 492-501 (cf. p. 63).
[36] M. Couplet, C. Basdevant et P. Sagaut. « Calibrated reduced-order POD-Galerkin
system for fluid flow modelling ». In : Journal of Computational Physics 207.1
(2005), p. 192-220 (cf. p. 5).
[37] A. Courard. « PGD-Abaques virtuels pour l’optimisation géométrique des struc-
tures ». Thèse de doct. Université Paris-Saclay, 2016 (cf. p. 48).
[38] A. Courard et al. « Integration of PGD-virtual charts into an engineering design
process ». In : Computational Mechanics 57.4 (2016), p. 637-651 (cf. p. 48).
[39] M. Cremonesi et al. « A PGD-based homogenization technique for the resolution
of nonlinear multiscale problems ». In : Computer Methods in Applied Mechanics
and Engineering 267 (2013), p. 275-292 (cf. p. 48).
172 Bibliographie

[40] W. C. Davidon. « Variable Metric Method for Minimization ». In : SIAM Journal


on Optimization 1.1 (1991), p. 1-17 (cf. p. 16).
[41] F. De Vuyst. « PDE Metamodeling using Principal Component Analysis ». In :
Multidisciplinary Design Optimization in Computational Mechanics (2009), p. 65-
117 (cf. p. 51).
[42] K. Deb et D. Kalyanmoy. Multi-Objective Optimization Using Evolutionary Algo-
rithms. 2001. isbn : 047187339X (cf. p. 25).
[43] K. Deb et al. « A fast and elitist multiobjective genetic algorithm : NSGA-I ».
In : IEEE Transactions on Evolutionary Computation 6.2 (2002), p. 182-197. issn :
1089-778X (cf. p. 25, 93).
[44] E. Di Pasquale. « Multi Scale Models for Flexure Deformation in Sheet Metal
Forming ». In : MATEC Web of Conferences. T. 80. EDP Sciences. 2016, p. 06002
(cf. p. 152).
[45] E. Di Pasquale. « Semi-analytical models for flexure deformation in one-step
simulation of sheet metal forming ». In : International Journal of Material Forming
(2017), p. 1-14 (cf. p. 152).
[46] R. Dornberger, D. Büche et P. Stoll. « Multidisciplinary optimization in turbo-
machinery design ». In : European Congress on Computational Methods in Applied
Sciences and Engineering, Barcelona, Spain. 2000 (cf. p. 4).
[47] R. Eberhart et Y. Shi. « A new optimizer using particle swarm theory. » In :
Proceedings of the sixth international symposium on micro machine and human
science (1995), p. 39-43 (cf. p. 20).
[48] M. Ejday. « Optimisation Multi-Objectifs à base de Métamodèle pour les Procédés
de Mise en Forme ». Thèse de doct. École Nationale Supérieure des Mines de
Paris, 2011 (cf. p. 4).
[49] M. Ejday et L. Fourment. « Optimisation Multi-Objectifs à base de Métamodèle
pour des applications en Mise en Forme des Métaux ». In : Mechanics & Industry
11.3-4 (2010), p. 223-233 (cf. p. 4).
[50] M. Emmerich. « Single-and multi-objective evolutionary design optimization
assisted by gaussian random field metamodels ». In : Dissertation, LS11, FB
Informatik, Universität Dortmund, Germany (2005) (cf. p. 96).
[51] M. T. Emmerich, A. H. Deutz et J. W. Klinkenberg. « Hypervolume-based ex-
pected improvement : Monotonicity properties and exact computation ». In :
Evolutionary Computation (CEC), 2011 IEEE Congress on. IEEE. 2011, p. 2147-
2154.
[52] M. T. Emmerich, K. C. Giannakoglou et B. Naujoks. « Single-and multiobjective
evolutionary optimization assisted by Gaussian random field metamodels ». In :
IEEE Transactions on Evolutionary Computation 10.4 (2006), p. 421-439 (cf. p. 4,
96).
Bibliographie 173

[53] S.-k. S. Fan, Y.-c. Liang et E. Zahara. « Hybrid simplex search and particle
swarm optimization for the global optimization of multimodal functions ». In :
Engineering Optimization 36.4 (2004), p. 401-418 (cf. p. 21).
[54] A. I. Forrester et A. J. Keane. « Recent advances in surrogate-based optimiza-
tion ». In : Progress in Aerospace Sciences 45.1 (2009), p. 50-79. issn : 0376-0421
(cf. p. 4, 26, 62, 63, 71, 72, 88, 93, 95, 99, 163, 167).
[55] A. Forrester, A. Keane et al. Engineering design via surrogate modelling : a practical
guide. John Wiley & Sons, 2008 (cf. p. 89, 93, 102).
[56] M. W. Gardner et S. Dorling. « Artificial neural networks (the multilayer per-
ceptron)—a review of applications in the atmospheric sciences ». In : Atmospheric
environment 32.14-15 (1998), p. 2627-2636.
[57] J. Gelin, O. Ghouati et C. Labergere. « From optimal design to control of
process in sheet forming and tube hydroforming ». In : Proceedings of ECCOMAS,
Barcelona, Spain (2000) (cf. p. 120).
[58] M. Gibbs. « Bayesian Gaussian Processes for Regression and Classification ».
Thèse de doct. University of Cambridge, 1997 (cf. p. 34).
[59] C. Gilkeson et al. « Multi-objective aerodynamic shape optimization of small
livestock trailers ». In : Engineering Optimization 45.11 (2013), p. 1309-1330
(cf. p. 47).
[60] A. Giunta et M. Eldred. « Implementation of a trust region model manage-
ment strategy in the DAKOTA optimization toolkit ». In : 8th Symposium on
Multidisciplinary Analysis and Optimization. 2000, p. 4935 (cf. p. 64).
[61] A. Giunta, S. Wojtkiewicz et M. Eldred. « Overview of modern design of expe-
riments methods for computational simulations ». In : 41st Aerospace Sciences
Meeting and Exhibit. 2003, p. 649 (cf. p. 56).
[62] P. K. Gudla et R. Ganguli. « An automated hybrid genetic-conjugate gradient
algorithm for multimodal optimization problems ». In : Applied Mathematics and
Computation 167.2 (2005), p. 1457-1474. issn : 0096-3003 (cf. p. 19).
[63] S. Gunn. « Support Vector Machines for Classification and Regression ». In : 14
(jan. 1998).
[64] Y. Guo et al. « Finite element procedures for strain estimations of sheet metal
forming parts ». In : International Journal for Numerical Methods in Engineering
30.8 (1990), p. 1385-1401 (cf. p. 151).
[65] Y. Guo et al. « Recent developments on the analysis and optimum design of sheet
metal forming parts using a simplified inverse approach ». In : Computers &
Structures 78.1-3 (2000), p. 133-148 (cf. p. 151).
[66] M. Hamdaoui et al. « POD surrogates for real-time multi-parametric sheet metal
forming problems ». In : International journal of material forming 7.3 (2014),
p. 337-358 (cf. p. 49).
174 Bibliographie

[67] S. Haykin. Neural Networks : A Comprehensive Foundation. 2nd. Upper Saddle


River, NJ, USA : Prentice Hall PTR, 1998. isbn : 0132733501 (cf. p. 45, 46).
[68] N. Henkenjohann et J. Kunert. « An efficient sequential optimization approach
based on the multivariate expected improvement criterion ». In : Quality Engi-
neering 19.4 (2007), p. 267-280 (cf. p. 92).
[69] F. Heppner et U. Grenander. « A stochastic nonlinear model for coordinated bird
flocks ». In : The ubiquity of chaos. Sous la dir. d’E. Krasner. AAAS Publications,
1990, p. 233-238 (cf. p. 20).
[70] N. J. Higham. Accuracy and Stability of Numerical Algorithms. 690 : Society for
Industrial et Applied Mathematics, 1996. isbn : 978-0-89871-521-7 (cf. p. 42).
[71] R. Hill. « A theory of the yielding and plastic flow of anisotropic metals ». In :
Proc. R. Soc. Lond. A 193.1033 (1948), p. 281-297 (cf. p. 109).
[72] J. H. Holland. « Outline for a Logical Theory of Adaptive Systems ». In : J. ACM
9.3 (juil. 1962), p. 297-314. issn : 0004-5411 (cf. p. 18).
[73] I. Hupkens et al. « Faster exact algorithms for computing expected hypervolume
improvement ». In : International Conference on Evolutionary Multi-Criterion
Optimization. Springer. 2015, p. 65-79 (cf. p. 93, 95, 99).
[74] E. Iuliano et D. Quagliarella. « Proper orthogonal decomposition, surrogate
modelling and evolutionary optimization in aerodynamic design ». In : Computers
& Fluids 84 (2013), p. 327-350 (cf. p. 49).
[75] D. J. J. Toal et al. « Geometric filtration using proper orthogonal decomposition
for aerodynamic design optimization ». In : AIAA journal 48.5 (2010), p. 916-928
(cf. p. 49).
[76] J. Jakumeit, M. Herdy et M. Nitsche. « Parameter optimization of the sheet metal
forming process using an iterative parallel Kriging algorithm ». In : Structural
and Multidisciplinary Optimization 29.6 (2005), p. 498-507 (cf. p. 112).
[77] S. Jirathearanat. « Advanced methods for finite element simulation for part and
process design in tube hydroforming ». Thèse de doct. The Ohio State University,
2004 (cf. p. 121, 122, 124, 125, 127).
[78] D. R. Jones. « A taxonomy of global optimization methods based on response
surfaces ». In : Journal of global optimization 21.4 (2001), p. 345-383 (cf. p. 74).
[79] D. R. Jones, M. Schonlau et W. J. Welch. « Efficient Global Optimization of
Expensive Black-Box Functions ». In : Journal of Global Optimization 13.4 (1998),
p. 455-492 (cf. p. 26, 63, 92, 186).
[80] D. R. Jones, M. Schonlau et W. J. Welch. « Efficient global optimization of
expensive black-box functions ». In : Journal of Global optimization 13.4 (1998),
p. 455-492 (cf. p. 74, 78).
[81] E. J. Kansa. « Motivation for using radial basis functions to solve PDEs ». In : RN
64.1 (1999), p. 1 (cf. p. 32).
Bibliographie 175

[82] A. Keane. « Genetic algorithm optimization of multi-peak problems : studies in


convergence and robustness ». In : Artificial Intelligence in Engineering 9.2 (1995),
p. 75-83. issn : 0954-1810 (cf. p. 19, 63).
[83] A. J. Keane. « Statistical improvement criteria for use in multiobjective design
optimization ». In : AIAA journal 44.4 (2006), p. 879-891 (cf. p. 93, 95).
[84] J. Kennedy et R. Eberhart. « Particle swarm optimization ». In : IEEE Internatio-
nal Conference on Neural Networks 4 (1995), p. 1942-1948 (cf. p. 20).
[85] G. Kerschen, F. Poncelet et J.-C. Golinval. « Physical interpretation of inde-
pendent component analysis in structural dynamics ». In : Mechanical Systems
and Signal Processing 21.4 (2007), p. 1561-1575 (cf. p. 49).
[86] S. Kirkpatrick, C. D. Gelatt et M. P. Vecchi. « Optimization by Simulated
Annealing ». In : Science 220.4598 (1983), p. 671-680 (cf. p. 19).
[87] J. Knowles. « ParEGO : A hybrid algorithm with on-line landscape approxima-
tion for expensive multiobjective optimization problems ». In : IEEE Transactions
on Evolutionary Computation 10.1 (2006), p. 50-66.
[88] J. Knowles et E. J. Hughes. « Multiobjective optimization on a budget of 250
evaluations ». In : International Conference on Evolutionary Multi-criterion Optimi-
zation. Springer. 2005, p. 176-190 (cf. p. 63, 93).
[89] M. Koc et T. Altan. « Prediction of forming limits and parameters in the tube hy-
droforming process ». In : International Journal of Machine Tools and Manufacture
42.1 (2002), p. 123-138 (cf. p. 126).
[90] T. G. Kolda, R. M. Lewis et V. Torczon. « Optimization by Direct Search : New
Perspectives on Some Classical and Modern Methods ». In : SIAM Review 45.3
(2003), p. 385-482.
[91] A. Konak, D. W. Coit et A. E. Smith. « Multi-objective optimization using genetic
algorithms : A tutorial ». In : Reliability Engineering & System Safety 91.9 (2006),
p. 992-1007. issn : 0951-8320 (cf. p. 25).
[92] S. Koziel, J. W. Bandler et K. Madsen. « Space Mapping With Adaptive Res-
ponse Correction for Microwave Design Optimization ». In : IEEE Transactions on
Microwave Theory and Techniques 57.2 (fév. 2009), p. 478-486. issn : 0018-9480.
[93] E. Kreyszig. Advanced engineering mathematics. John Wiley & Sons, 2010 (cf.
p. 155).
[94] C. Labergère. « Contribution à la modélisation, à l’optimisation et au contrôle
des procédés d’hydroformage de tubes et flans ». Thèse de doct. Université de
Franche-comté. UFR des sciences et techniques, 2003 (cf. p. 7, 113, 120, 121, 127,
138).
[95] C. Labergere et J.-C. Gelin. « Numerical simulation of sheet hydroforming
taking into account analytical pressure and fluid flow ». In : Journal of Materials
Processing Technology 212.10 (2012), p. 2020-2030 (cf. p. 127).
176 Bibliographie

[96] P. Ladevèze. « Mécanique non linéaire des structures ». In : Hermès (1996) (cf.
p. 47, 48).
[97] P. Ladevèze. Nonlinear computational structural mechanics : new approaches and
non-incremental methods of calculation. Springer Science & Business Media, 2012
(cf. p. 32, 48).
[98] P. Ladevèze. « The large time increment method for the analysis of structures
with non-linear behavior described by internal variables ». In : COMPTES REN-
DUS DE L ACADEMIE DES SCIENCES SERIE II 309.11 (1989), p. 1095-1099
(cf. p. 47).
[99] P. Lafon, P. A. Adragna et V. D. Nguyen. « Multi-objective optimization under
uncertainty for sheet metal forming ». In : MATEC Web of Conferences. T. 80. EDP
Sciences. 2016, p. 10004 (cf. p. 4, 112).
[100] P. Lancaster et K. Salkauskas. « Surfaces generated by moving least squares
methods ». In : Mathematics of computation 37.155 (1981), p. 141-158 (cf. p. 46).
[101] E. Larsson et B. Fornberg. « A numerical study of some radial basis function
based solution methods for elliptic PDEs ». In : Computers & Mathematics with
Applications 46.5-6 (2003), p. 891-902 (cf. p. 32).
[102] L. Laurent. « Multilevel optimisation of structures using a multiparametric
strategy and metamodels ». Theses. École normale supérieure de Cachan - ENS
Cachan, déc. 2013 (cf. p. 4, 42).
[103] L. Laurent. « Stratégie multiparamétrique et métamodèles pour l’optimisation
multiniveaux de structures ». Thèse de doct. École normale supérieure de Cachan-
ENS Cachan, 2013 (cf. p. 4).
[104] G. Le Quilliec, B. Raghavan et P. Breitkopf. « A manifold learning-based redu-
ced order model for springback shape characterization and optimization in sheet
metal forming ». In : Computer Methods in Applied Mechanics and Engineering 285
(2015), p. 621-638 (cf. p. 49).
[105] S. J. Leary, A. Bhaskar et A. J. Keane. « A Derivative Based Surrogate Mo-
del for Approximating and Optimizing the Output of an Expensive Computer
Simulation ». In : Journal of Global Optimization 30.1 (2004), p. 39-58 (cf. p. 26).
[106] J. A. Lee et M. Verleysen. Nonlinear dimensionality reduction. Springer Science &
Business Media, 2007 (cf. p. 54).
[107] L.-P. Lei et al. « Analysis and design of hydroforming processes by the rigid–
plastic finite element method ». In : Journal of Materials Processing Technology
114.3 (2001), p. 201-206 (cf. p. 127).
[108] J. Lemaitre et al. Mécanique des matériaux solides-3eme édition. Dunod, 2009
(cf. p. 195).
[109] D. Levin. « The Approximation Power of Moving Least-squares ». In : Math.
Comput. 67.224 (oct. 1998), p. 1517-1531. issn : 0025-5718.
Bibliographie 177

[110] Y. Liang et al. « Proper orthogonal decomposition and its applications—Part I :


Theory ». In : Journal of Sound and vibration 252.3 (2002), p. 527-544 (cf. p. 49,
51).
[111] J. Lundqvist. « Numerical simulation of tube hydroforming : adaptive loading
paths ». Thèse de doct. Luleå tekniska universitet, 2004.
[112] H. V. Ly et H. T. Tran. « Modeling and control of physical processes using proper
orthogonal decomposition ». In : Mathematical and computer modelling 33.1-3
(2001), p. 223-236 (cf. p. 49).
[113] L. Malagón-Borja et O. Fuentes. « Object detection using image reconstruction
with PCA ». In : Image and Vision Computing 27.1-2 (2009), p. 2-9 (cf. p. 52).
[114] G. Matheron. « Principles of geostatistics ». In : Economic geology 58.8 (1963),
p. 1246-1266 (cf. p. 36).
[115] W. S. McCulloch et W. Pitts. « A logical calculus of the ideas immanent in
nervous activity ». In : The bulletin of mathematical biophysics 5.4 (1943), p. 115-
133 (cf. p. 45).
[116] M. D. McKay, R. J. Beckman et W. J. Conover. « Comparison of three methods
for selecting values of input variables in the analysis of output from a computer
code ». In : Technometrics 21.2 (1979), p. 239-245 (cf. p. 57).
[117] F. Meng. « Multi-objective optimization of several stages forging by using ad-
vanced numerical simulation and Meta-model ». Thèse de doct. Troyes, 2012
(cf. p. 4).
[118] F. Meng, C. Labergere et P. Lafon. « Methodology of the shape optimization of
forging dies ». In : International Journal of Material Forming 3.1 (2010), p. 927-930
(cf. p. 4).
[119] L. Meng et al. « Identification of material properties using indentation test and
shape manifold learning approach ». In : Computer Methods in Applied Mechanics
and Engineering 297 (2015), p. 239-257 (cf. p. 49).
[120] N. Metropolis et al. « Equation of State Calculations by Fast Computing Ma-
chines ». In : The Journal of Chemical Physics 21.6 (1953), p. 1087-1092 (cf. p. 19).
[121] J. Močkus. « On Bayesian methods for seeking the extremum ». In : Optimization
Techniques IFIP Technical Conference. Springer. 1975, p. 400-404 (cf. p. 74).
[122] M. Mongillo. « Choosing Basis Functions and Shape Parameters for Radial Basis
Function Methods ». In : SIAM Undergraduate Research Online (2011) (cf. p. 34).
[123] A. W. Moore. « Cross-validation for detecting and preventing overfitting ». In :
School of Computer Science Carneigie Mellon University (2001) (cf. p. 36).
[124] M. D. Morris et T. J. Mitchell. « Exploratory designs for computational experi-
ments ». In : Journal of Statistical Planning and Inference 43.3 (1995), p. 381-402.
issn : 0378-3758 (cf. p. 20).
178 Bibliographie

[125] H. Naceur, Y. Guo et S. Ben-Elechi. « Response surface methodology for design


of sheet forming parameters to control springback effects ». In : Computers &
structures 84.26-27 (2006), p. 1651-1663 (cf. p. 112).
[126] H. Naceur et al. « Optimization of drawbead restraining forces and drawbead
design in sheet metal forming process ». In : International Journal of Mechanical
Sciences 43.10 (2001), p. 2407-2434 (cf. p. 148).
[127] S. M. Nazeer et al. « Arlequin based PGD domain decomposition ». In : Compu-
tational Mechanics 54.5 (2014), p. 1175-1190 (cf. p. 48).
[128] A. Nealen. « An as-short-as-possible introduction to the least squares, weighted
least squares and moving least squares methods for scattered data approximation
and interpolation ». In : URL : http ://www. nealen. com/projects 130.150 (2004),
p. 25 (cf. p. 47).
[129] D. Néron, P.-A. Boucard et N. Relun. « Time-space PGD for the rapid solution
of 3D nonlinear parametrized problems in the many-query context ». In : Inter-
national Journal for Numerical Methods in Engineering 103.4 (2015), p. 275-292
(cf. p. 48).
[130] V. D. Nguyen. « Validation and robust optimization of deep drawing process by
simulation in the presence of uncertainty ». Thèse de doct. Troyes, 2015 (cf. p. 4,
107, 112).
[131] H. Niederreiter. Random number generation and quasi-Monte Carlo methods. T. 63.
Siam, 1992 (cf. p. 57).
[132] H. Ninomiya et Q. J. Zhang. « Particle with ability of local search swarm op-
timization : PALSO for training of feedforward neural networks ». In : 2008
IEEE International Joint Conference on Neural Networks (IEEE World Congress on
Computational Intelligence). Juin 2008, p. 3009-3014 (cf. p. 21).
[133] J. Nocedal et S. J. Wright. Sequential quadratic programming. Springer, 2006
(cf. p. 64).
[134] M. M. Noel et T. C. Jannett. « Simulation of a new hybrid particle swarm
optimization algorithm ». In : Thirty-Sixth Southeastern Symposium on System
Theory, 2004. Proceedings of the. 2004, p. 150-153 (cf. p. 21).
[135] H. Nowacki. « Modelling of design decisions for CAD ». In : Computer Aided
Design Modelling, Systems Engineering, CAD-Systems. Springer, 1980, p. 177-223
(cf. p. 100).
[136] Y. S. Ong, P. B. Nair et A. J. Keane. « Evolutionary optimization of computatio-
nally expensive problems via surrogate modeling ». In : AIAA journal 41.4 (2003),
p. 687-696 (cf. p. 4).
[137] A. Oyama, T. Nonomura et K. Fujii. « Data mining of Pareto-optimal transonic
airfoil shapes using proper orthogonal decomposition ». In : Journal of Aircraft
47.5 (2010), p. 1756-1762 (cf. p. 49).
Bibliographie 179

[138] H. Park, W. Lee et J. Chung. « Boundary optimal control of the Navier–Stokes


equations—-a numerical approach ». In : International journal of engineering
science 40.19 (2002), p. 2119-2135 (cf. p. 120).
[139] J. Parr et al. « Infill sampling criteria for surrogate-based optimization with
constraint handling ». In : Engineering Optimization 44.10 (2012), p. 1147-1166.
[140] J.-C. Passieux et al. « Multiscale displacement field measurement using digital
image correlation : Application to the identification of elastic properties ». In :
Experimental Mechanics 55.1 (2015), p. 121-137 (cf. p. 48).
[141] B. Raghavan et al. « A bi-level meta-modeling approach for structural optimiza-
tion using modified POD bases and Diffuse Approximation ». In : Computers &
Structures 127 (2013), p. 19-28 (cf. p. 5).
[142] B. Raghavan et al. « Towards a space reduction approach for efficient structural
shape optimization ». In : Structural and Multidisciplinary Optimization 48.5
(2013), p. 987-1000 (cf. p. 49).
[143] C. E. Rasmussen. « Gaussian processes for machine learning ». In : MIT Press,
2006 (cf. p. 28, 36, 41, 43, 44).
[144] P. Ray. « Computer aided optimization of tube hydroforming processes ». Thèse
de doct. Dublin City University, 2005 (cf. p. 127).
[145] T. Ray et H. M. Tsai. « Swarm Algorithm for Single- and Multiobjective Airfoil
Design Optimization ». In : AIAA Journal 42.2 (2004), p. 366-373 (cf. p. 21).
[146] R. G. Regis et C. A. Shoemaker. « A stochastic radial basis function method
for the global optimization of expensive functions ». In : INFORMS Journal on
Computing 19.4 (2007), p. 497-509 (cf. p. 33).
[147] R. G. Regis et C. A. Shoemaker. « Combining radial basis function surrogates
and dynamic coordinate search in high-dimensional expensive black-box optimi-
zation ». In : Engineering Optimization 45.5 (2013), p. 529-555 (cf. p. 33).
[148] D. Rempfer. « On low-dimensional Galerkin models for fluid flow ». In : Theore-
tical and Computational Fluid Dynamics 14.2 (2000), p. 75-88 (cf. p. 5).
[149] V. J. Romero et al. « Comparison of pure and “Latinized” centroidal Voronoi
tessellation against various other statistical sampling methods ». In : Reliability
Engineering & System Safety 91.10-11 (2006), p. 1266-1280 (cf. p. 57).
[150] S. T. Roweis et L. K. Saul. « Nonlinear dimensionality reduction by locally linear
embedding ». In : science 290.5500 (2000), p. 2323-2326 (cf. p. 54).
[151] K. Saanouni. Damage mechanics in metal forming : Advanced modeling and numeri-
cal simulation. John Wiley & Sons, 2013 (cf. p. 129).
[152] Y. Saeys, I. Inza et P. Larrañaga. « A review of feature selection techniques in
bioinformatics ». In : bioinformatics 23.19 (2007), p. 2507-2517 (cf. p. 49).
180 Bibliographie

[153] Y. Saka, M. Gunzburger et J. Burkardt. « Latinized, improved LHS, and CVT


point sets in hypercubes ». In : International Journal of Numerical Analysis and
Modeling 4.3-4 (2007), p. 729-743 (cf. p. 57).
[154] T. J. Santner, B. J. Williams et W. I. Notz. The design and analysis of computer
experiments. Springer Science & Business Media, 2013 (cf. p. 56, 57).
[155] M. J. Sasena, P. Papalambros et P. Goovaerts. « Exploration of metamodeling
sampling criteria for constrained global optimization ». In : Engineering optimiza-
tion 34.3 (2002), p. 263-278.
[156] B. Schölkopf, A. Smola et K.-R. Müller. « Kernel principal component analysis ».
In : International Conference on Artificial Neural Networks. Springer. 1997, p. 583-
588 (cf. p. 54).
[157] B. Schölkopf, A. Smola et K.-R. Müller. « Nonlinear component analysis as a
kernel eigenvalue problem ». In : Neural computation 10.5 (1998), p. 1299-1319
(cf. p. 54).
[158] M. Schonlau. « Computer experiments and global optimization ». In : (1997)
(cf. p. 75, 92).
[159] A. Sherif, O. Madara et P. Richard. « Inverse Transonic Airfoil Design Using
Parallel Simulated Annealing and Computational Fluid Dynamics ». In : AIAA
Journal 40.4 (2002), p. 791-794. issn : 0021-8669 (cf. p. 20).
[160] A. Sherif, O. Madara et P. Richard. « Stochastic approach to optimal aero-
dynamic shape design ». In : Journal of Aircraft 33.5 (1996), p. 956-961. issn :
0021-8669 (cf. p. 20).
[161] H. SHWCH et K. Chung. « Benchmark study of the 8th international conference
and workshop on numerical simulation of 3d sheet metal forming processes ».
In : Proceedings of Numisheet 2011 37 (2011), p. 8930-8945 (cf. p. 106, 110, 111).
[162] J. N. Siddall. Optimal engineering design : principles and applications. CRC Press,
1982 (cf. p. 64).
[163] T. W. Simpson et al. « Metamodels for computer-based engineering design : survey
and recommendations ». In : Engineering with computers 17.2 (2001), p. 129-150
(cf. p. 31).
[164] T. Simpson et al. « Metamodels for Computer-based Engineering Design : Survey
and recommendations ». In : 17 (juil. 2001), p. 129-150 (cf. p. 46).
[165] P. Singh et al. « A constrained multi-objective surrogate-based optimization
algorithm ». In : Evolutionary Computation (CEC), 2014 IEEE Congress on. IEEE.
2014, p. 3080-3087 (cf. p. 92).
[166] P. Singh et al. « Constrained multi-objective antenna design optimization using
surrogates ». In : International Journal of Numerical Modelling : Electronic Networks,
Devices and Fields 30.6 (2017) (cf. p. 92).
Bibliographie 181

[167] L. Sirovich. « Turbulence and the dynamics of coherent structures. I. Coherent


structures ». In : Quarterly of applied mathematics 45.3 (1987), p. 561-571 (cf.
p. 49).
[168] L. Sirovich et M. Kirby. « Low-dimensional procedure for the characterization
of human faces ». In : Josa a 4.3 (1987), p. 519-524 (cf. p. 49).
[169] A. J. Smola et B. Schölkopf. « A tutorial on support vector regression ». In :
Statistics and Computing 14.3 (août 2004), p. 199-222. issn : 1573-1375.
[170] J. Snoek, H. Larochelle et R. P. Adams. « Practical bayesian optimization of
machine learning algorithms ». In : Advances in neural information processing
systems. 2012, p. 2951-2959 (cf. p. 63).
[171] A. Sóbester, S. J. Leary et A. J. Keane. « On the Design of Optimization Strategies
Based on Global Response Surface Approximation Models ». In : Journal of Global
Optimization 33.1 (sept. 2005), p. 31-59. issn : 1573-2916 (cf. p. 34, 63).
[172] A. Sóbester, S. J. Leary et A. J. Keane. « A parallel updating scheme for approxi-
mating and optimizing high fidelity computer simulations ». In : Structural and
multidisciplinary optimization 27.5 (2004), p. 371-383 (cf. p. 92).
[173] A. Sóbester et al. « Engineering design applications of surrogate-assisted opti-
mization techniques ». In : Optimization and Engineering 15.1 (2014), p. 243-265
(cf. p. 92).
[174] S. Sundararajan et S. S. Keerthi. « Predictive App roaches for Choosing Hy-
perparameters in Gaussian Processes ». In : Neural computation 13 5 (1999),
p. 1103-18 (cf. p. 44).
[175] J. Svenson et T. Santner. « Multiobjective optimization of expensive-to-evaluate
deterministic computer simulator models ». In : Computational Statistics & Data
Analysis 94 (2016), p. 250-264 (cf. p. 93, 95, 99).
[176] H. Swift. « Plastic instability under plane stress ». In : Journal of the Mechanics
and Physics of Solids 1.1 (1952), p. 1-18 (cf. p. 109).
[177] D. Tang et al. « System identification and proper orthogonal decomposition
method applied to unsteady aerodynamics ». In : AIAA journal 39.8 (2001),
p. 1569-1576 (cf. p. 49).
[178] J. B. Tenenbaum, V. De Silva et J. C. Langford. « A global geometric framework
for nonlinear dimensionality reduction ». In : science 290.5500 (2000), p. 2319-
2323 (cf. p. 54).
[179] A. Tharwat et al. « Ear recognition using block-based principal component
analysis and decision fusion ». In : International Conference on Pattern Recognition
and Machine Intelligence. Springer. 2015, p. 246-254 (cf. p. 49).
[180] L. N. Trefethen et D. B. III. Numerical Linear Algebra. 2001. isbn : 978-0898713619
(cf. p. 34).
182 Bibliographie

[181] M. Turk et A. Pentland. « Eigenfaces for recognition ». In : Journal of cognitive


neuroscience 3.1 (1991), p. 71-86 (cf. p. 51).
[182] Z. Ugray et al. « Scatter search and local NLP solvers : A multistart framework
for global optimization ». In : INFORMS Journal on Computing 19.3 (2007), p. 328-
340 (cf. p. 64).
[183] V. N. Vapnik. The Nature of Statistical Learning Theory. New York, NY, USA :
Springer-Verlag New York, Inc., 1995. isbn : 0-387-94559-8.
[184] A. Vardi. « A Trust Region Algorithm for Equality Constrained Minimization :
Convergence Properties and Implementation ». In : SIAM Journal on Numerical
Analysis 22.3 (1985), p. 575-591 (cf. p. 16).
[185] G. Venter et J. Sobieszczanski-Sobieski. « Particle Swarm Optimization ». In :
AIAA Journal 41.8 (2004), p. 1583-1589 (cf. p. 21).
[186] J. Villemonteix et al. « Global optimization of expensive-to-evaluate functions :
an empirical comparison of two sampling criteria ». In : Journal of Global Optimi-
zation 43.2-3 (2009), p. 373-389 (cf. p. 63).
[187] M. Vitse, D. Néron et P.-A. Boucard. « Virtual charts of solutions for parametri-
zed nonlinear equations ». In : Computational Mechanics 54.6 (2014), p. 1529-1539
(cf. p. 48).
[188] T. Wagner et al. « On expected-improvement criteria for model-based multi-
objective optimization ». In : International Conference on Parallel Problem Solving
from Nature. Springer. 2010, p. 718-727 (cf. p. 93).
[189] G. Wahba. Spline Models for Observational Data. Society for Industrial et Applied
Mathematics, 1990 (cf. p. 36).
[190] L. While, L. Bradstreet et L. Barone. « A fast way of calculating exact hypervo-
lumes ». In : IEEE Transactions on Evolutionary Computation 16.1 (2012), p. 86-95
(cf. p. 96).
[191] L. While et al. « A faster algorithm for calculating hypervolume ». In : IEEE
transactions on evolutionary computation 10.1 (2006), p. 29-38 (cf. p. 96).
[192] B. Wilson et al. « Efficient Pareto frontier exploration using surrogate approxi-
mations ». In : Optimization and Engineering 2.1 (2001), p. 31-50 (cf. p. 93).
[193] L. Xia et al. « Numerical material representation using proper orthogonal decom-
position and diffuse approximation ». In : Applied Mathematics and Computation
224 (2013), p. 450-462 (cf. p. 5).
[194] M. Xiao et al. « Model reduction by CPOD and Kriging ». In : Structural and
multidisciplinary optimization 41.4 (2010), p. 555-574 (cf. p. 5).
[195] J.-B. Yang, B.-H. Jeon et S.-I. Oh. « Design sensitivity analysis and optimization
of the hydroforming process ». In : Journal of Materials Processing Technology
113.1-3 (2001), p. 666-672 (cf. p. 120).
Bibliographie 183

[196] D. Zhan, Y. Cheng et J. Liu. « Expected improvement matrix-based infill criteria


for expensive multiobjective optimization ». In : IEEE Transactions on Evolutionary
Computation 21.6 (2017), p. 956-975 (cf. p. 93, 97, 163).
184 Bibliographie
Annexe A
Annexes

Sommaire du chapitre
A.1 Principe de l’EGO 185
A.2 Schéma de résolution 188
A.2.1 Schéma dynamique explicite . . . . . . . . . . . . . . . . . 189
A.2.2 Schéma statique implicite . . . . . . . . . . . . . . . . . . . 191
A.3 Algorithme de calcul de la distance de projection sur la surface
de l’élément 192
A.4 Fondements de l’Approche Inverse (AI) 194

A.1 Principe de l’EGO


Suppose qu’on cherche le minimum global de fonction objectif f sur D, l’ensemble
S des N premières points DoE d’évaluation, et fmin = minxi ∈DN f (xi ) l’estimateur de
f ∗ défini comme le minimum des résultats des évaluations. Alors, avec la fonction de
perte :

l(DN , f ) = |fmin − f ∗ | = fmin − f ∗ (A.1)

(Remarque f ∗ est le minimum global sur l’espace de paramètre et fmin est le le minimum
des résultats des évaluations), le risque (ou perte attendue) associé à une évaluation
en un point x ∈ D s’écrit conditionnellement aux résultats des évaluations précédentes
comme :

E(l(DN ∪ x), f ) = E(min{fmin , f (x)}) − E(f ∗ ) (A.2)

Avec E indice l’opérateur d’espérance. Cette quantité n’est pas calculable analytiquement,
cependant, la minimiser est équivalent à maximiser le critère de l’EI sous la forme où

185
186 ANNEXE A. Annexes

l’on le retrouve généralement (cf. par exemple Jones et al. [79]), à savoir,

EI(x) = E[(I(x)] (A.3)

avec

I(x) = max(fmin − f (x), 0) (A.4)

On peut développe

⎨fmin − f (x) for − ∞ < f < fmin


max(fmin − f (x)) = ⎪ (A.5)
⎩0 for fmin < f < +∞

Pour le reste de cette dérivation, nous omettons la dépendance sur x parce que nous
effectuons la dérivation comme si nous étions à un seul emplacement de l’espace de
conception. L’espérance E peut être calculer par l’intégration sur l’intervalle où la
fonction est non nulle.
∫ fmin
EI(x) = (fmin − f )Y (f )df (A.6)
−∞
∫ fmin ∫ fmin
= fmin Y (f )df − f Y (f )df
−∞ −∞
⎛ ⎞ ∫f
⎜⎜ fmin−fˆ ⎟⎟ min
= fmin Φ ⎜⎝⎜ ⎟⎟ − f Y (f )df
ŝ ⎠ −∞

Où Y (f ) ∼ N (fˆ(x), ŝ2 (x)) suit la loi normale de probabilité (avec ŝ2 est la variance de
l’erreur de la prédiction et fˆ est l’espérance de la prédiction de f (x)), Φ est la fonction
de la loi de probabilité. Mettre le second terme de l’équation, on a suivant :

⎢⎢ 1 f − fˆ 2 ⎥⎥
∫ fmin ∫ fmin ⎡ ( ) ⎤
f
f Y (f )df = √ exp ⎢⎢⎢⎣− ⎥⎥ df (A.7)
2 ŝ
⎥⎦
−∞ −∞ ŝ 2π

f −fˆ
En utilisant la transformation de variable υ = ŝ qui donne df = ŝdυ. En remplaçant,
on a
∫ fmin ∫ υmin
1 υ
[ 2]
f Y (f )df = (υŝ + fˆ) exp − dυ (A.8)
−∞ −∞ 2π 2

fmin −fˆ
où υmin = ŝ . L’équation peut être développé par
∫ fmin ∫ υmin ∫ υmin
ŝ υ 1 υ
[ 2] [ 2]
f Y (f )df = υ exp − dυ + fˆ exp − dυ (A.9)
−∞ 2π −∞ 2 −∞ 2π 2
A.1. Principe de l’EGO 187

On voit que le deuxième terme est l’intégrale de norme normale PDF (est la fonction
de la loi de probabilité), qui peut être exprimé en utilisant la fonction de répartition
donnée :
∫ fmin ∫ υmin
ŝ υ
[ 2]
f Y (f )df = υ exp − dυ + fˆΦ(υmin ) (A.10)
−∞ 2π −∞ 2
υ
Dans le premier terme de cette équation, on change le variable wc = 2, qui donne
dυ = υ1 dwc . Réduire l’intégrale, on a :
∫ υmin ∫ wmin
υ
[ 2]
υ exp − dυ = exp(−wc )dwc (A.11)
−∞ 2 −∞

1 fmin −fˆ
( )
où wmin = 2 ŝ . La borne inférieure est changée à partir de −∞ à +∞. Cela donne
∫ υmin
υ
[ 2]
υ exp − dυ = − exp[−wmin ] (A.12)
−∞ 2

On revient
∫ fmin

f Y (f )df = − √ exp[−wmin ] + fˆΦ(υmin ) (A.13)
−∞ 2π
Cette équation peut être écrit dans termes de la fonction de la loi de probabilité comme
suit :
∫ fmin
f Y (f )df = −ŝφ(υmin ) + fˆΦ(υmin ) (A.14)
−∞

Finalement, on obtient

fmin − fˆ fmin − fˆ fmin − fˆ


) ( ( ) ( )
EI = fmin Φ + ŝφ ˆ
−f Φ (A.15)
ŝ ŝ ŝ
ou
ˆ ˆ
( ) ( )
fmin − f fmin − f
EI = (fmin − fˆ)Φ + ŝφ − (A.16)
ŝ ŝ

où fˆ et ŝ sont respectivement la prédiction et l’erreur de prédiction.


188 ANNEXE A. Annexes

A.2 Schéma de résolution


La résolution des équations d’équilibre local d’un solide, se résume à la recherche
d’un champ de déplacements et de contraintes tels que :



⎪{div[σ ]} + {fv } = ρ{ü} dans V


⎨u = ū sur Su


⎪ (A.17)



⎪[σ ]{n} = {fs } sur Sf

⎩{σ } = {H(ε)} + {σ0 }

La dernière relation de l’équation A.17 traduit de manière simplifiée les relations de


comportement (contraintes-déformations) et des conditions initiales à t = 0. Le principe
des puissances virtuelles ou la forme faible associée au problème local s’écrit dans le
cadre d’une discrétisation par éléments finis :

W= W e ∀{u ∗ } et {u}cinématiquement admissible (A.18)
e

Avec

{u̇} = {u̇0 } et {u} = {u0 } à t = 0 (A.19)

W e = Wint
e e
− Wext (A.20)

e
Wint = ⟨ε∗ ⟩{σ }dv (A.21)
ve

∫ ∫ ∫
e ∗ ∗
Wext = ⟨u ⟩{fv }dv + ⟨u ⟩{fs }ds − ρ⟨u ∗ ⟩{ü}dv (A.22)
ve Sfe ve

où :

— W e : travail élémentaire,
— {u ∗ } : vecteur de déplacements virtuels cinématiquement admissible vérifiant
{u ∗ } = {0} sur Su
— {σ } : vecteur des contraintes de Cauchy
— fv et fs : respectivement force volumique et force surfacique,
— ρ : masse volumique,
— {ü} : vecteur des accélérations,
— v e : volume élémentaire actuel,
— {ε∗ } : vecteur des déformations virtuels, en composante cartésienne il est définies
A.2. Schéma de résolution 189

par :

∂uj∗ ⎟⎟
⎛ ⎞
1
ε∗ ij = ⎜⎜⎝∂ui∗ ∂xj +

(A.23)
⎜ ⎟⎟
2 ∂xi ⎠

En discrétisant par élément finis et après assemblage, l’expression A.17-A.18 peut


s’écrire sous la forme d’un système matriciel d’équations différentielles en temps :

[M]{ü} + [C]{u̇} + {Fint } − {Fe xt} = {R(u)} (A.24)

avec {u} = {ū} sur Su et {R(u)} est le vecteur résidu global. Dans le cas statique, l’expres-
sion A.24 s’écrira sous la forme :
¯ sur S
{Fint } − {Fext } = {R(u)} avec {u} = {u} (A.25)
u

Dans la mise en forme par emboutissage, il existe plusieurs techniques d’intégration


temporelle dont les deux les plus utilisées sont le schéma explicite dynamique et le
schéma implicite statique

A.2.1 Schéma dynamique explicite

Le schéma dynamique explicite est basé sur l’utilisation d’incréments de temps très
petits, permettant l’actualisation continuelle des conditions aux limites relatives au
contact. Ce schéma consiste à obtenir une solution sans construction d’une matrice
tangente et itérations d’équilibre. Il permet d’obtenir une solution à l’instant t + δt en
fonction des quantités connues {ui }, {u̇i }, üi à l’instant ti , il est conditionnellement stable
en fonction de la taille du pas δt. A l’instant ti le système d’équations s’écrit sous la
forme :

[M]üi + [C]{u̇i } = {Fext } − {Fint } + {R(ui )} (A.26)

où [M] est la matrice de masse qui est assemblé à partir de matrice de masse élémentaire.
Elle s’appelle matrice cohérente ou consistante dans le sens où elle est calculée avec les
fonctions d’interpolation ⟨N ⟩ de l’élément ayant servi au calcul de la matrice de rigidité.
Cependant, pour les problèmes de grande taille, il est bien connu qu’une matrice masse
concentrée ou diagonale possède des avantages appréciables. [C] est la matrices d’amor-
tissement qui est assemblé à partir de matrice d’amortissement élémentaire introduite
avec l’hypothèse d’un amortissement visqueux proportionnel à la vitesse. Fint est le
vecteur des force internes qui est assemblé à partir de vecteur des force internes élémen-
taires et Fext est le vecteur de force externes assemblé par vecteur des force externes
élémentaire.

La solution numérique de ce système est obtenue à l’aide d’un schéma de différences


190 ANNEXE A. Annexes

finies centrales, il s’agit de chercher {ui }, {u̇i }, üi vérifiant l’équation A.24, en utilisant :

1
üi = ({ui+1 } − 2{ui } + u{ui−1 }) (A.27)
∆t 2

1
{u̇i } = ({u } − {ui−1 }) (A.28)
2∆t i+1
Connaissant {u̇i } et {üi }, l’équation A.26 à l’instant ti s’écrit :

[K̄]{ui+1 } = {R} (A.29)

1 1
[K̄] = 2
[M] + [C] (A.30)
∆t 2∆t

1 1
{R(ui )} = {Fiext − {Fi int} + 2
[M](2{ui } − {ui−1 }) + [C]{ui−1 } (A.31)
∆t 2∆t
Si la matrice d’amortissement [C] s’écrit sous la forme α[M] alors la matrice [K] est
diagonale, la résolution de l’équation A.26 est donc triviale. Pour amorcer la récurrence
il faut calculer la solution initiale connaissant u0 et u̇0

∆t 2
{u−1 } = {u0 } − ∆t{u̇0 } + {ü} (A.32)
2

{ü0 } = [M]−1 ({F0ext } − {F0int } − [C]{u̇0 }) (A.33)

Stabilité

Dans le cas de l’analyse dynamique explicite, la résolution des équations se fait sans
vérification de l’équilibre du système, d’où l’inconvénient de son utilisation. L’exactitude
des résultats dépend de la taille du pas de temps. Les méthodes explicites sont condition-
nellement stables : la taille du pas de temps dépend de la géométrie de l’élément et du
matériau. La stabilité de la solution n’est assurée que pour un ∆t inférieur à une valeur
qui est liée à la plus petite période caractéristique de résonance du système physique
étudié. Cette valeur limite peut s’écrire, en fonction de la valeur propre maximale du
système comme :

2
∆t ≤ (A.34)

où ω est la pulsation propre maximale du système. Cette condition de stabilité est


valable pour la dynamique linéaire (élasticité). Pour les cas non linéaires, il est nécessaire
d’actualiser à chaque pas la condition de stabilité. Pour contrôler les oscillations de
A.2. Schéma de résolution 191

haute fréquence, nous introduisons un peu de viscosité. Dans ce cas, la condition de


stabilité devient :
2 √
( )
∆t ≤ 2
1−ζ −ζ (A.35)
ωmax

où ζ est une fraction d’amortissement dans le mode le plus élevé du système. La limite
de stabilité peut s’écrire aussi sous la forme :
( )
2 L
∆tmax = = min e (A.36)
ωmax cd

où Le est une longueur caractéristique de l’élément et cd est la vitesse du son dans le


matériau, définie pour un solide par :

E
cd = (A.37)
ρ

avec ρ, la masse volumique du matériau considéré et E, le module d’élasticité. Il est pos-


sible d’augmenter le pas de temps en augmentant la masse des éléments artificiellement.
Il existe deux méthodes :

— augmenter uniformément la masse.


— augmenter la masse des éléments dans la limite de stabilité inférieure à une limite
fixée par l’utilisateur.

Cette opération est efficace à condition de contrôler les effets d’inertie afin qu’ils ne
deviennent pas trop importants.

A.2.2 Schéma statique implicite

Il s’agit d’utiliser la méthode classique de Newton-Raphson pour résoudre le système


non linéaire. Le principe de base de ce schéma est :

En supposant que la solution à l’itération i − 1 est {ui−1 } la différence entre cette


solution approchée et la solution du problème discrétisé décrit par A.24 est {∆ui }. Le
résidu peut être écrit sous la forme :

{R(ui−1 + {∆ui })} = 0 (A.38)

La linéarisation de cette équation autour de la solution approchée {ui−1 } grâce à un


développement en série de Taylor d’ordre 1, donne :

∂{R(ui−1 })}
{R({ui−1 } + {∆ui })} = {R({ui−1 })} + {∆ui } (A.39)
∂{ui−1 }
192 ANNEXE A. Annexes

ou

{R({ui−1 })} = −[K({ui−1 })]T .{∆ui } (A.40)


∂{R({ui−1 })}
[K({ui−1 })]T = − : matrice tangente (A.41)
∂{ui−1 }

On procède à l’actualisation après résolution du système linéarisé :

{ui } = {yi−1 } + {∆ui } (A.42)

L’expression du résidu s’écrit sous la forme :


∑ (∫ ∫ )
ext int T T
{R({ui })} = {Fi − Fi } = [N ] {fext }Js dηdξ − [B] {σ }Jv dζdηdξ (A.43)
e Ar vr

avec Jv et Js sont respectivement les déterminants de la matrice jacobienne de transfor-


mation de volume et de surface entre l’élément de référence et l’élément réel actuel.
En grandes déformations, ces deux quantités ne sont pas constantes : ils dépendent du
vecteur déplacement {ui }

A chaque itération, l’équation A.43 est résolue à l’aide de la méthode directe (mé-
thode de Newton) qui consiste à évaluer la matrice tangente à chaque incrément. Cette
méthode ayant un ordre de convergence quadratique est plus précise que la méthode
itérative (Jacobi, Gauss Seidel, etc.), mais elle nécessite un temps CPU et un espace
mémoire plus importants. La méthode implicite est performante si la matrice tangente
est consistante.

A.3 Algorithme de calcul de la distance de projection sur la


surface de l’élément

La détermination d’une projection P d’un nœud M du blanc sur l’élément de surface


de la surface de référence est décrite sur la figure A.1. Premièrement, on doit calculer
les normales à chaque nœud du maillage de la surface de référence (nA , nB , nC ). Pour
assurer la continuité des normales, on effectue un lissage en définissant la normale au
nœud comme la moyenne des normales des facettes qui lui sont connectées. Ce lissage
des normales assure une meilleure continuité lorsque le contact d’un noeud passe d’une
facette à l’autre. Soit (ξ, η) les coordonnées naturelles associées aux facettes, XM la
position de tout point M et XP la position de sa projection sur la facette. Comme le
vecteur de projection n est interpolé à partir des normales (nA , nB , nC ) des sommets de
la facette, on obtient ainsi :
A.3. Algorithme de calcul de la distance de projection sur la surface de l’élément 193

n = N1 (ξ, η)nA + N2 (ξ, η)nB + N3 (ξ, η)nC (A.44)


où N1 , N2 , N3 sont les fonctions d’interpolation classiques des éléments avec trois nœuds
comme, ⎧


⎪ N1 (ξ, η) = 1 − ξ − η

N2 (ξ, η) = ξ (A.45)




⎩N (ξ, η) = η

3
avec ⎧
⎨ξ ≥ 0, η ≥ 0


⎪ (A.46)
⎩ξ + η ≤ 1

Le vecteur de position XM peut alors être décomposé dans le formulaire :

nA

M nC

A g2
n
nB
g1
z C
P

B
O x
y

Figure A.1 – Projeter un nœud de blanc sur un élément de la surface de référence.

XM = XP + ρn = XA + ξg1 + ηg2 + ρn (A.47)

où g1 = XB − XA , g2 = XC − XA et ρ est la distance de projection non surfaite . Les


inconnues sont les coordonnées naturelles (ξ, η) du point P et la distance de projection
ρ. On conduit donc à résoudre un système non-linéaire d’équations qui représentent les
projections de l’équation vectorielle (A.47) le long des axes x, y et z comme suit :



⎪ Rx (ξ, η, ρ) = (XA − XM )x + ξg1 x + ηg2 x + ρnx = 0

Ry (ξ, η, ρ) = (XA − XM )y + ξg1 y + ηg2 y + ρny = 0 (A.48)




⎩R (ξ, η, ρ) = (X − X )z + ξg z + ηg z + ρnz = 0

z A M 1 2

avec n = (1 − ξ − η)nA + ξnB + ηnC . L’équation du système (A.48) est résolue en utilisant
l’algorithme de Newton qui permet de converger en quelques itérations pour trouver la
solution (ξ, η, ρ). Pour obtenir la distance de projection réelle d proj , il suffit de multiplier
la distance de projection ρ par la norme de n, donc on a,

d proj = ρ∥n∥ = ρ∥(1 − ξ − η)nA + ξnB + ηnC ∥ (A.49)


194 ANNEXE A. Annexes

Dans le cas où la solution de n’importe quel nœud ne satisfait pas la condition (A.46), le
point de projection de ce nœud tombe en dehors de l’élément de surface. En conséquence,
la distance de projection réelle sur l’élément de surface ne serait pas prise en compte.
On peut remarquer que dans le cas nA = nB = nC = n, ce qui arrive quand on discrétise
une surface plane, la résolution est simplifiée et réduite à la résolution d’un système
linéaire avec trois équations.

A.4 Fondements de l’Approche Inverse (AI)


L’AI consiste à chercher la position des points matériels dans le flan initial en se
basant sur la connaissance de la forme finale de l’embouti. Plusieurs hypothèse sont
considérées dans l’AI
— Etat de contraintes planes,
— Grande déformations logarithmiques avec incompressibilité totale,
— Matériau élasto-plastique anisotrope transverse,
— Pression nodale des outils sur l’embouti,
— Evolution radiale des contraintes en considérant la loi de comportement élasto-
plastique intégrée de type Hencky-Hill,
— Résolution du système d’équations non linéaires par la méthode de Newton-
Raphson (méthode statique implicite).

Configuration Quantités connues Quantités inconnues


Flan initial épaisseur h0 position initiale des points P0
plan et contour C 0
position des points P (x, yz) épaisseur h
Pièce embou- déplacement vertical de Effort exercé par les outils
tie chaque point W
direction de chargement n ⃗ état des contraintes
contour C état des déformations

Tableau A.1 – Données et inconnues du problème de l’AI.

Cinématique et calcul de déformation


Le calcul des déformations totales sur une configuration finale dans l’AI se fait en
une seule étape en comparant directement le flan initial C 0 et la configuration d’embouti
final C. Les vecteurs de position initiale et finale d’un point matériel q peut être exprimé
comme suit (figure A.2) :

0 0 0 ⃗0 = x ⃗p + z 0 n
⃗0
⎨x⃗q = x⃗p + z n ⃗p = x⃗p − u
⃗p − u


⎪ (A.50)
⎩x⃗q = x⃗p + z⃗
⎪ n
A.4. Fondements de l’Approche Inverse (AI) 195

n, z

h q

p
Embouti final C t

xq
uq up
Z

n0 , z0
h0
q0

p0 t0

𝒙𝟎𝒒
Flan initial
Y
X

Figure A.2 – Cinématique d’une coque mince

où u ⃗ 0 et n
⃗p est le vecteur déplacement du point matériel p à la surface moyenne, n ⃗ sont
0
le vecteur unitaire normal à la surface moyenne de la configuration initiale C et finale
C respectivement. Puisque le point p est situé sur la surface moyenne connue, il est plus
pratique de le prendre comme référence. Les tenseurs du gradient de déformation aux
points q0 et q par rapport au point p sont définis par :

xq0 = F−1
d⃗ xp0 ; x⃗q = Fz d⃗
0 d⃗ xp (A.51)

Ces deux tenseurs, F0 et Fz sont liés à la membrane et les effets de flexion, respectivement.
Ensuite, le tenseur de gradient de déformation de q0 à q et le tenseur de Cauchy Green
gauche correspondant sont obtenus :

xq0 = F−1
d⃗ −1
xq = F−1 d⃗
0 Fz d⃗ xq : B−1 = F−T F−1 (A.52)

Les élongations principales λ1 et λ2 sont obtenues à partir des valeurs propres de B−1 ,
la troisième élongation λ3 est calculé avec l’hypothèse d’incompressibilité. Ensuite, Les
déformations logarithmiques principales ln λ1 , ln λ2 , ln λ3 sont obtenues.

Loi de comportement pour un isotrope planaire du flan d’élasto-plastique

Dans l’AI, seulement la configuration initiale C 0 et la configuration final C sont


considérées. La déformation élasto-plastique est supposée indépendante du chemin
de chargement. Sous l’hypothèse de chargement proportionnelle [108] la théorie de
la déformation Hencky de la plasticité est adopté pour éviter le schéma d’intégration
plastique. La critère de plasticité est décrit par le critère de Hill avec l’hypothèse de
contraintes planes :
1
φ = ⟨σ ⟩[P ]σ 2 −σ̄ avec : ⟨σ ⟩ = ⟨σx σy σxy ⟩ (A.53)
196 ANNEXE A. Annexes

où σ̄ est la contrainte limite et ⟨σ ⟩ = ⟨σx σy σxy ⟩ est le tenseur des contraintes de Cauchy.
La matrice P est donnée par :

⎢⎢ 1 − 1+r̄ r̄ 0
⎡ ⎤
⎥⎥
⎢ r̄
[P ] = ⎢⎢⎢⎢− 1+r̄ 1 0 (A.54)
⎥⎥
⎥⎥
2(1+r̄) ⎥
0 0
⎣ ⎦
1+r̄

où r̄ est le coefficient d’anisotropie moyen défini par :

1
r̄ = (r0 + 2r45 + r90 ) (A.55)
4
où (r0 , 2r45 , r90 ) sont les coefficients de Lankford. L’hypothèse de charge proportionnelle
(ou radiale) permet d’obtenir les contraintes plastiques totales en termes de contraintes
totales :
ε̄p 1
{εp } = [P ]σ = (⟨εp ⟩[P ]−1 {εp }1/2 ) 2 (A.56)
σ̄
Si l’on suppose que l’anisotropie et l’incompressibilité ci-dessus valent également pour
la (petite) déformation élastique, le coefficient de Poisson est alors lié au coefficient
d’anisotropie moyenne :

ν= (A.57)
(1 + r̄)

Donc, la déformation plastique totale prend la suivante forme simple :


σ̄
{σ } = Es [P ]−1 {ε} avec : Es = (A.58)
ε̄
où Es est le module sécant de la courbe de contrainte-déformation uniaxiale. Avec
une estimation des déformation totales ε, on peut calculer ε̄ et Es , puis estimer les
contraintes. Cette opération est effectuée pour chaque point d’intégration numérique à
travers l’épaisseur.

Discrétisation par éléments finis

L’embouti final est discrétisé par des éléments finis triangulaires de facettes planes à
six nœuds DKT12 (Discrete Kirchhoff Triangular)comme sur la figure A.3 (trois nœuds
au sommets P1, P2, P3 et trois sur les cotés P4, P5, P6). L’expression du Principe des
Travaux Virtuels (PTV) s’écrit sous la forme :
∑ ∑
W= We = e
Wint e
− Wext (A.59)
elt elt
avec ε = ε x ε y ε xy

4.2.5 Discrétisation par éléments finis

L’embouti final est discrétisé par des éléments finis triangulaires de facettes planes à six
A.4. Fondements de l’Approche
nœuds DKT12 Inverse
(Discrete Kirchhoff (AI)comme le montre la figure 4.3 (trois nœuds au
Triangular) 197
sommets P1, P2, P3 et trois sur les cotés P4, P5, P6).

z,w*
y,v*
P3
n t2
X1 6 C θs
P1 Y1 5
Z1
t1 P2
4
U1
u1 V1 u3 x,u*
W1
P3 0 u2
X1-U1
P10 Y1-V1
C0 Projection
Z0
suivant Z
P20

Figure 4.3 – Elément de coque DKT12 à 12 d.d.l.


Figure A.3 – Elément de coque DKT12 à 12 d.d.l.
L’expression du Principe des Travaux Virtuels (PTV) s’écrit sous la forme :

W = ∑ We = ∑ Wint − Wext (4.38)


elts elts

- 86 -

e e
où Wint est le travail virtuel interne élémentaire, Wext est le travail virtuel externe
élémentaire associé aux actions des outils. L’expression du travail virtuel interne élé-
mentaire est :
⎡ ⎤
∫ ∫ ⎢⎢ σx ⎥⎥
e
Wint = ⟨ε∗ ⟩{σ }dV = ⟨εx∗ εy∗ εxy
∗ ⎢
⟩ ⎢⎢⎢ σy ⎥⎥⎥⎥ dzdA (A.60)
⎢ ⎥
v e v e
σxy
⎣ ⎦

avec ⟨ε∗ ⟩ = ⟨εx∗ εy∗ εxy


∗ ⟩ le vecteur des déformations virtuelles infinitésimales. Les défor-

mations virtuelles suivant l’épaisseur sont exprimées par :

⟨ε∗ ⟩ = ⟨e∗ ⟩ + z⟨X ∗ ⟩ (A.61)

où ⟨e∗ ⟩ est le vecteur des déformations virtuelles de membrane, ⟨X ∗ ⟩ est le vecteur des
courbures virtuelles de flexion. Le champ des déplacements virtuelles est rapproché
par :

{u ∗ } = [N ]{un∗ } (A.62)

où [N ] est la matrice des fonctions d’interpolation d’un élément triangulaire à trois


nœuds, elle s’écrit sous la forme :
⎡ ⎤
⎢⎢N1 0 0 N2 0 0 N3 0 0 ⎥⎥
[N ] = ⎢⎢⎢ 0 N1 0 0 N2 0 0 N3 0 ⎥⎥⎥⎥ (A.63)
⎢⎢ ⎥
0 0 N1 0 0 N2 0 0 N3
⎣ ⎦
198 ANNEXE A. Annexes

avec :
1
N1 = ((y − y )(x − x) − (x3 − x2 )(y2 − y)) (A.64)
2A 3 2 2
1
N2 = ((y − y )(x − x) − (x1 − x3 )(y3 − y)) (A.65)
2A 1 3 3
1
N3 = ((y − y )(x − x) − (x2 − x1 )(y1 − y)) (A.66)
2A 2 1 1
1
A = ((y3 − y2 )(y1 − y2 ) − (x1 − x2 )(y3 − y2 )) (A.67)
2
où A est l’aire de l’élément et xi , yi les coordonnées locales. La discrétisation du P.T.V se
fait avec des éléments de coque triangulaires à 3 nœuds de type DKT12. Les déformations
virtuelles de membrane sont exprimées en fonction des déplacements virtuels nodaux
en utilisant des approximations linéaires et en considérant l’élément de membrane CST :
⎡ ∗
u,x
⎤ ⎡ ⎤
⎢⎢ ⎥⎥ ⎢⎢N1,x 0 0 N2,x 0 0 N3,x 0 0⎥⎥

{ε∗ } = ⎢⎢⎢⎢ v,y ⎥⎥ = ⎢⎢ 0 N1,y 0 0 N2,y 0 0 N3,y 0⎥⎥⎥⎥ {un∗ } (A.68)
⎢ ⎥⎥ ⎢⎢ ⎥
∗ + v∗
⎥ ⎢
u,y N1,y N1,x 0 N2,y N2,x 0 N3,y N3,x 0
⎣ ⎦ ⎣ ⎦
,x

d’où :
⎡ ⎤
⎢⎢y23 0 0 y31 0 0 y12 0 0⎥⎥
1 ⎢⎢
{ε∗ } = ⎢⎢ 0 x32 0 0 x13 0 0 x21 0⎥⎥⎥ {un∗ } = [Bm ]{un∗ } (A.69)

2A ⎣ ⎢ ⎥⎦
x32 y23 0 x12 y31 0 x21 y12 0

avec yij = yi − yj , i, j = 1, 2, 3. Le vecteur de déplacement nodal et la matrice de déforma-


tion s’écrivent sous la forme :

{un∗ } = ⟨u1∗ v1∗ w1∗ u2∗ v2∗ w2∗ u3∗ v3∗ w3∗ ⟩ (A.70)

⎡ ⎤
⎢⎢y23 0 0 y31 0 0 y12 0 0⎥⎥
1 ⎢⎢
[Bm ] = ⎢⎢ 0 x32 0 0 x13 0 0 x21 0⎥⎥⎥ (A.71)

2A ⎣ ⎢ ⎥⎦
x32 y23 0 x12 y31 0 x21 y12 0

Les déformations virtuelles de flexion sont définies à l’aide d’un élément de plaque
mince (DKT6) caractérisé par six degrés de liberté (trois translations transversales w1 , w2 ,
w3 et trois rotations θ1 , θ2 , θ3 ) comme le montre la figure A.4. Les courbures virtuelles
de l’élément DKT6 sont déterminées à l’aide d’une approximation semi C 0 linéaire des
A.4. Fondements de l’Approche Inverse (AI) 199

3 |𝑤3
𝑦
5 | 𝜃5
𝑠 𝛽𝑥5

𝛽𝑦5 𝛼𝑠
6 | 𝜃6 2 |𝑤2 𝑥
𝛽𝑛5
𝑛 𝛽𝑠5
4 | 𝜃4

1 |𝑤1

Figure A.4 – Déplacements et rotations de l’élément DKT6

rotations des nœuds du milieu :


6

βx∗ = ∗
Nk βxk (A.72)
k=4
∑6
βy∗ = ∗
Nk βyk (A.73)
k=4
(A.74)

avec

N4 = 1 − 2η , N5 = −1 + 2ξ + 2η et N6 = 1 − 2ξ (A.75)

où η, ξ étant les coordonnées de l’élément de référence (voir la figure A.5). La rotation de


chaque coté d’élément est exprimée en fonction des déplacements des nœuds sommets
wi∗ et wj∗ . Les rotation virtuelles βnk
∗ ∗
et θsk sont nulles car les rotations aux nœuds milieux
sont connues dans la configuration déformée C.
∫ Lk ∫ Lk (wi∗ − wj∗ )

γsk ds = (w,s∗ + βs∗ )ds = 0, avec : βsk

= (A.76)
0 0 Lk

Le vecteur des courbures virtuelles peut s’écrire sous la forme :

⟨X ∗ ⟩ = ⟨βx,x
∗ ∗
βy,y ∗
βx,y ∗
βy,x ⟩ = [Bf ]un∗ avec : βnl

=0 (A.77)

et
⎡ ⎤
S4 C4 − S6 C6 S5 C5 − S4C 4 S6 C6 − S5 C5 ⎥⎥
1 ⎢⎢⎢

[Bf ] = ⎢⎢⎢ −S4 C4 + S6 C6 S5 C5 − S4C 4 S6 C6 − S5 C5 ⎥⎥⎥⎥ (A.78)

A⎣
−C42 + S42 + C62 − S62 −C52 + S52 + C42 − S42 −C62 + S62 + C52 − S52

200 ANNEXE A. Annexes

𝜂
3 (0,1)

6 5

𝜉
1 (0,0) 4 2(0,1)

Figure A.5 – Déplacements et rotations de l’élément DKT6

Donc, L’expression du vecteur des déformations virtuelles est :


e e
Wint = ⟨un∗ ⟩{fint } (A.79)

e
avec fint = V e ([Bm ]T + z[Bf ]T ){σ }dzdA le vecteur des forces internes élémentaires. Le
vecteur des déplacements élémentaires {un∗ } est transformé dans le repère global :

{un∗ } = [T ]{Un∗ } (A.80)

avec :

⟨Un∗ ⟩ = ⟨Ui∗ Vi∗ W̄i∗ = 0, i = 1, 2, 3⟩ (A.81)

[T ] la matrice de passage du repère global au repère local, telle que :


⎡ ⎤
⎢⎢[Q] ⎥⎥
[T ] = ⎢⎢⎢⎢ [Q] ⎥⎥ , [Q] = [⃗t1 ⃗t2 n
⃗] (A.82)
⎢ ⎥⎥
⎥⎦
[Q]

Les déformations et contraintes relatives à chaque élément restent constantes pour une
valeur donnée de z, donc on peut écrire :
e
{Fint } = [T ]T ([Bm ]T {N } + [Bf ]T {M})A (A.83)

où les forces de membrane et les moments de flexion s’expriment comme suit :


∫ 1
h
{N } = {σ }dζ ; − 1 ≤ ζ ≤ 1 (A.84)
2 −1
A.4. Fondements de l’Approche Inverse (AI) 201

et
∫ 1
h
{M} = {σ }ζdζ (A.85)
2 −1

Les forces résultantes sont calculées par intégration numérique suivant l’épaisseur de la
pièce au centre de l’élément en considérant 5 points d’intégration de Lobatto.

Les sollicitations externes correspondent aux forces de pression exercées par le


poinçon sur la pièce, les forces de frottement sont négligées. L’hypothèse appliquée
dans ce cas, consiste à représenter le chargement par une pression nodale au nœud
i d’intensité inconnue P et de direction connue {n} normale à la surface moyenne de
l’embouti final.
⎡ i⎤ ⎡ i ⎤
⎢⎢Fx ⎥⎥ ⎢⎢P .nx ⎥⎥
i i
{Fint } − {Fext } = ⎢⎢⎢⎢Fyi ⎥⎥⎥⎥ − ⎢⎢⎢⎢P .niy ⎥⎥⎥⎥ = {0} (A.86)
⎢ ⎥ ⎢ ⎥
⎣ i⎦ ⎣ i
Fz P .nz

Le déplacement suivant la direction d’emboutissage est connu, donc la dernière égalité


de l’équation A.86 nous donne la valeur de P au nœud i :

1
⃗ f avec : n
P =Pn ⃗f = √ n − µ⃗t)
(⃗ (A.87)
1 + µ2

⃗ est le vecteur normal, ⃗t est le vecteur tangentiel et µ est le coefficient de frottement.


où n
Donc le vecteur de la force externe associé à chaque nœud peut s’écrire sous la forme :
⎡ i⎤
⎢⎢ nni ⎥⎥
{Fext } = (Fz )int ⎢⎢⎢⎢ nniz ⎥⎥⎥⎥
i i
(A.88)
⎢ ⎥
⎣ yi ⎦
nz

Le calcul du vecteur des forces externes et internes permet d’écrire l’expression du


vecteur résidu élémentaire dans le repère global :

e e
{R} {Fint } − {Fext }=0 (A.89)
e

La résolution du système d’équation non linéaire A.89 se fait à l’aide de la méthode


statique implicite de Newton–Raphson.

Version du 10 septembre 2018, 17 h 20 CEST


202 ANNEXE A. Annexes
Table des matières

Résumé v

Sommaire vii

Liste des tableaux ix

Table des figures xi

1 Introduction 1
1.1 Cadre de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Contexte scientifique et industriel de la thèse . . . . . . . . . . . . . . . 2
1.2.1 Contexte industriel . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Contexte scientifique . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Problème d’optimisation des procédés de mise en forme . . . . . . . . 5
1.3.1 Optimisation de forme . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Optimisation du produit . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Optimisation de l’engagement matière ou de la surface initiale de la
pièce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Fonction qualités construites à partir des courbes limites de formage 8
1.4 Objectif et organisation de la thèse . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . . . . 9

2 Méthodes d’optimisation : état de l’art 11


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Méthode d’optimisation de type déterministe . . . . . . . . . . . . . . . 14
2.2.1 Méthodes de descente de gradient . . . . . . . . . . . . . . . . . 14
2.2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Méthode de quasi-Newton . . . . . . . . . . . . . . . . . . . . . . 15
2.2.4 Méthode de la région de confiance . . . . . . . . . . . . . . . . . 16
2.3 Méthodes pour l’optimisation sous contraintes . . . . . . . . . . . . . . 17
2.4 Méthodes stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Algorithme génétique . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

203
204 Table des matières

2.4.3 Optimisation par essaims particulaires . . . . . . . . . . . . . . . 20


2.5 Multi-objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.1 La dominance de Pareto . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Optimum de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.3 Front de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Résoudre l’ensemble de Pareto optimal . . . . . . . . . . . . . . 24
2.6 Optimisation et métamodèle . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Construction d’un métamodèle 31


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Métamodèles d’une fonction scalaire . . . . . . . . . . . . . . . . . . . 32
3.2.1 Fonctions de base radiale (RBF) . . . . . . . . . . . . . . . . . . . 32
3.2.2 Krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Autres métamodèles . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Métamodèles d’un champ spatial . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Méthode de la PGD . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Métamodèle spatial basée sur la POD . . . . . . . . . . . . . . . 49
3.4 Plan d’expériences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4 Stratégies d’optimisation basées sur l’utilisation de métamodèle 61


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2 Stratégie séquentielle directe . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.1 Formulation du problème . . . . . . . . . . . . . . . . . . . . . . 64
4.2.2 Résolution du problème séquentiel approximatif . . . . . . . . . 64
4.2.3 Critères d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.4 Organigramme d’optimisation . . . . . . . . . . . . . . . . . . . 66
4.2.5 Exemple numérique . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3 Stratégie séquentielle basée sur l’algorithme EGO . . . . . . . . . . . . 74
4.3.1 Critère de l’amélioration espérée . . . . . . . . . . . . . . . . . . 75
4.3.2 L’algorithme EGO pour le problème d’optimisation avec les contraintes
de bornes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.3 L’algorithme EGO pour le problème d’optimisation avec des fonc-
tions contraintes non-linéaires . . . . . . . . . . . . . . . . . . . 88
4.3.4 Critères d’arrêts . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4 Stratégie séquentielle d’optimisation multi-objectif . . . . . . . . . . . 92
4.4.1 Rappel des critères d’espérance de l’amélioration multi-objectifs 93
4.4.2 Critère de matrice d’espérance de l’amélioration . . . . . . . . . 97
4.4.3 Multi-objectif avec constraints non-linéarité . . . . . . . . . . . . 99
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Table des matières 205

5 Applications à l’optimisation de procédés de mise en forme 105


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.2 Optimisation du procédé d’emboutissage d’une tôle en U . . . . . . . . 106
5.2.1 Description du problème d’emboutissage . . . . . . . . . . . . . 107
5.2.2 Modélisation du procédé d’emboutissage par éléments finis . . . 107
5.2.3 Stratégie d’optimisation pour la forme après retour élastique . . 112
5.2.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3 Contrôle optimal d’un procédé d’hydroformage de tube en Y . . . . . . 120
5.3.1 Description du procédé d’hydroformage du tube en forme de Y . 121
5.3.2 Modélisation par des éléments finis du procédé d’hydroformage en
forme de Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.3.3 Validation du modèle numérique . . . . . . . . . . . . . . . . . . 134
5.3.4 Stratégie de contrôle optimal du procédé d’hydroformage . . . . 138
5.4 Optimisation des surfaces additionnelles pour le procédé d’emboutissage 148
5.4.1 Conception des surfaces additionnelles . . . . . . . . . . . . . . 149
5.4.2 Description d’Approche Inverse . . . . . . . . . . . . . . . . . . 151
5.4.3 Simulation d’emboutissage avec SIMEX™ . . . . . . . . . . . . . 152
5.4.4 Optimisation des surfaces additionnelles et du volume de l’outillage 154
5.4.5 Résultats d’optimisation et discussion . . . . . . . . . . . . . . . 156
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

Conclusion et perspectives 165


Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

Bibliographie 169

A Annexes 185
A.1 Principe de l’EGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
A.2 Schéma de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
A.2.1 Schéma dynamique explicite . . . . . . . . . . . . . . . . . . . . 189
A.2.2 Schéma statique implicite . . . . . . . . . . . . . . . . . . . . . . 191
A.3 Algorithme de calcul de la distance de projection sur la surface de l’élément 192
A.4 Fondements de l’Approche Inverse (AI) . . . . . . . . . . . . . . . . . . 194

Table des matières 203


206 Table des matières

You might also like