Professional Documents
Culture Documents
Titre de la thèse
Composition du jury
Rapporteurs Mme. Nathalie Boudeau Professeur à l’ENSMM Lab.
FEMTO-ST
M. Piotr Breikopf Ingénieur de Recherche - CNRS -
HDR - à l’UTC Lab. Roberval
Examinateurs M. Francisco Chinesta Professeur à l’ENSAM ParisTech
M. Jean-Louis Duval Docteur - ESI Group
Directeurs de thèse M. Pascal Lafon Professeur à l’UTT
M. Carl Labergère Professeur à l’UTT
L’Université de Technologie de Troyes n’entend donner aucune approbation ni im-
probation aux opinions émises dans les thèses : ces opinions devront être considérées
comme propres à leurs auteurs.
Résumé v
Résumé v
Sommaire vii
1 Introduction 1
Bibliographie 169
A Annexes 185
vii
viii Sommaire
Liste des tableaux
4.1 Tableau des variables et valeurs optimaux pour les 10 DOE initiaux. . . . 73
4.2 Tableau de comparaison des variables et valeurs optimales entre l’algo-
rithme 2 et 3 pour 10 DOE initiaux différents de l’exemple 4.2.5. . . . . . 86
4.3 Tableau de comparaison des variables et valeurs optimaux entre l’algo-
rithme 2 et 3 pour 10 cas de DOE initiaux de l’exemple 4.18. . . . . . . . 88
ix
x Liste des tableaux
Table des figures
xi
xii Table des figures
5.7 Les valeurs propres et les erreurs de troncature pour la POD de l’ensemble
des simulations EF initiales. . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.8 La convergence de la fonction objectif basée sur le métamodèle : Évolution
des valeurs objectives avec les points rouges désignent les 10 valeurs
objectif initiales (a) et trajectoire de convergence de la fonction objectif (b)115
5.9 Évolution de forme de la tôle en U après retour élastique . . . . . . . . . . 116
5.10 Évolution de profil-2D de la tôle en U après retour élastique . . . . . . . . 117
5.11 Evolution de meilleure conception à chaque cycle . . . . . . . . . . . . . . 119
5.12 Un acier inoxydable (SS 304) en forme de Y hydroformé au SPS(Siempelkamp
Pressen Systeme, Germany) . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.13 Schéma de l’outillage d’hydroformage et les dimensions détaillées de la
pièce. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.14 Procédure du procédé d’hydroformage en forme de Y (SPS, Allemange). . 123
5.15 Procédure du procédé d’hydroformage en forme de Y (SPS, Allemange) . 124
5.16 Paramètres géométriques de la forme en Y [77] . . . . . . . . . . . . . . . 125
5.17 Modèle éléments finis d’un tube de forme en Y . . . . . . . . . . . . . . . 128
5.18 Les composants d’essai (a) et la procédure d’essai de gonflement hydrau-
lique (b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.19 La hauteur de gonflement par rapport à la pression interne . . . . . . . . 132
5.20 La pression par rapport à la hauteur du gonflement mesurée à partir
des expériences de gonflement de SS304 et la simulation EF pour les
paramètres du modèle dans tableau 5.7 (avec 50 mm de diamètre et
t0 =1.5 mm d’épaisseur). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.21 Courbe de déformation effective-efficace en contrainte, SS304 avec OD =
50 mm, t0 = 1.5 mm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.22 Contrôle des paramètres du procédé d’hydroformage en forme de Y. . . . 135
5.23 La simulation EF du procédé d’hydroformage d’un tube en forme de Y. . 136
5.24 Les résultats de distribution d’épaisseur et d’endomagement. . . . . . . . 137
5.25 Comparaison des distributions d’épaisseurs de la forme en Y SS304 de
simulation EF et des expériences le long de la direction longitudinale. . . 137
5.26 Exemple pour une évolution dans la procédure du contrôle optimal . . . 140
5.27 Plan d’expériences pour trois paramètres en normalisé . . . . . . . . . . . 140
5.28 Évolution du tube en Y au cours de contrôle du procédé d’hydroformage 142
5.29 Comparaison de l’évolution du déplacement du piston à droite (a) et à
gauche (b) et la pression interne (c) et l’effort du contre-piston (d) donnée
par l’algorithme de contrôle et obtenue de façon empirique pour la forme
en Y. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.30 Représentation de l’évolution de l’approximation à l’étape 2 avec p(normalisé)=0.25 :
l’approximation de la fonction objectif (a), la région faisable (b), la proba-
bilité faisable (c), l’approximation de la fonction objectif avec les contraintes
(d) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Table des figures xv
Sommaire du chapitre
1.1 Cadre de la thèse 1
1.2 Contexte scientifique et industriel de la thèse 2
1.2.1 Contexte industriel . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Contexte scientifique . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Problème d’optimisation des procédés de mise en forme 5
1.3.1 Optimisation de forme . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Optimisation du produit . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Optimisation de l’engagement matière ou de la surface initiale
de la pièce . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Fonction qualités construites à partir des courbes limites de
formage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Objectif et organisation de la thèse 9
1.4.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . 9
1
2 CHAPITRE 1. Introduction
Figure 1.1 – Un exemple de composant de mise en forme présents dans une voiture
Audi RS 7
d’optimisation ont été développées sur différents logiciels comme Matlab et Abaqus.
Différentes applications académiques et industriels ont été modélisées et optimisées
pour valider les différentes méthodologies proposées dans ce mémoire de thèse.
Par ailleurs, les industriels utilisent maintenant de manière assez systématique les
outils de simulation numérique pour finaliser la conception de ces composants. Des
outils nécessaires et la mise au point des gammes, sont parfois complexes car nécessitant
de nombreuses opérations de mise en forme. Cependant, en raison de la complexité des
1.2. Contexte scientifique et industriel de la thèse 3
modèles de comportement utilisés dans les outils de simulation les plus performants,
les temps de simulation restent significatifs. Cette contrainte limite l’usage de ces outils
dans des démarches itératives des plans d’expériences numériques souvent nécessaires
lorsque l’on souhaite optimiser ces procédés. A cette contrainte se rajoute d’autres dif-
ficultés liées à la prise en compte des technologies différentes des machines utilisées,
les spécificités métiers et du fait que pour des composants complexes, les procédés
primaire mettent en œuvre non pas une opération mais plusieurs opérations de mise en
forme, toutes interdépendantes. Ces éléments montrent que finalement l’optimisation
de ces procédés soulève deux classes de problématiques. La première classe concerne
la simulation numérique du procédé et les techniques d’optimisation associées. Ici on
peut distinguer plusieurs niveaux : celui des modèles de comportements des matériaux,
celui des outils numériques permettant d’évaluer ces modèles et celui lié aux techniques
numériques d’optimisation. La seconde classe est relative à la formulation de problème
d’optimisation prenant en compte une réalité industrielle toujours très complexe et
toujours fortement dépendante d’une expérience métier propre à une entreprise. Le
projet proposé se situe dans la première classe de problématique et adresse les niveaux
liés aux outils numériques d’évaluation des modèles de comportement et aux techniques
numériques d’optimisation.
(a) (b)
Figure 1.2 – Emboutissage d’aile voiture : (a) expérience, (b) simulation numérique
Enfin, on peut citer les travaux de Meng [118] [117] qui a cherché la meilleure combi-
naison surface de réponse/algorithme d’optimisation pour des problèmes d’optimisation
paramétrique d’outillages de forgeage combinant plusieurs opérations de mise en forme.
Nguyen [130], [99] a utilisé les métamodèles pour l’optimisation robuste d’un procédé
d’emboutissage. Ces travaux ont étés effectués au sein de l’équipe LASMIS de l’ICD de
l’Université de Technologie de Troyes.
— De façon intrusive, en opérant dans le cœur du modèle éléments finis avec l’ap-
proche POD-Galerkin [148], [36], au prix d’une plus grande complexité algorith-
mique mais en garantissant une meilleure restitution de la physique du modèle.
Le modèle haute-fidélité évalué très coûteux sera alors remplacé par le métamodèle
d’un champ spatial qui permet d’évaluer très rapidement au cours du processus d’opti-
misation.
simulation par éléments finis). De plus, aucune information sur les gradients associés
n’est disponible (les logiciels commerciaux ne fournissent pas ce type d’information).
Il est nécessaire de faire le pré-calcul pour les échantillons initiaux dans l’espace de
conception D. Ensuite, la base de données des pré-calcul est utilisée pour construire un
modèle réduit, puis le métamodèle de u(x). Pour ce faire, une technique de réduction
dimensionnelle permet de construire le modèle réduit qui est composé des bases réduites
et des coefficients modaux. Ensuite, le modèle d’approximation est utilisé pour chaque
coefficient en utilisant les métamodèles d’une fonction scalaire sur l’espace de concep-
tion (krigeage, fonctions de base radial, réseau de neurones, etc.). En combinant les bases
réduites et les modèles d’approximation construits, le modèle haute-fidélité peut être
remplacé par le métamodèle d’un champ spatial à tout point sur l’espace des paramètres.
où û(x) désigne le métamodèle d’un champ spatial. Le problème 1.2 est résolu très
rapidement par les méthodes d’optimisation stochastique grâce à la disponibilité de
l’information et l’évaluation rapide de û(x). La solution optimale x̂∗ de ce problème
devient un nouveau point qui est ensuite évalué par le modèle haute-fidélité dans l’étape
suivante. En même temps, ce nouveau point est ajouté dans le plan d’expériences pour
avoir une meilleure approximation du métamodèle dans les zones prometteuses, i.e.
les zones susceptibles de contenir les optima, ou dans les zones non explorées. De
plus, lorsque le métamodèle û(x) est construit, on peut aussi utiliser les informations
exploitées pour les critères de remplissage au cours de l’optimisation. Les stratégies
d’optimisation seront présentées en détail dans le chapitre 4.
où X CAD représente la position géométrique founie par le modèle CAO, X FEM repré-
sente la position géométrique résultant de la simulation, N représente le nombre de
points géométriques pris en compte pour évaluer la distance, α est le coefficient de
pondération,p et q définissent la norme utilisée pour évaluer la distance, (.)+ est l’opéra-
teur partie positive défini par : (A)+ = A si A > 0 et A = 0 sinon. Cet opérateur permet de
distinguer les points selon que l’on se trouve en dessous ou au-dessus de valeurs X CAD .
avec les mêmes définitions que pour l’équation 1.3 et où h0 représente l’épaisseur initiale
et hi représente l’épaisseur au nœud i du point considéré pour la composante.
Déformation majeure
0.6 flc
1 2
)
d
0.4
i i
2 1
)
0.2
Courbe limite de formage
Point de coordonnées
0 2
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure
Figure 1.3 – Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF)
Fobj = Ae (1.5)
e=1
⎧ max(h −h )
i 0
⎪
⎪ h0 ≤ htolh
avec les contraintes ⎪ (1.6)
⎨
min(h0 −h i )
⎪
⎩ ≥ −htolb
h0
La figure 1.3 illustre le principe du critère de rupture basé sur la courbe limite de
formage, en présentant des exemples de point acceptables.
1.4. Objectif et organisation de la thèse 9
Sommaire du chapitre
2.1 Introduction 11
2.2 Méthode d’optimisation de type déterministe 14
2.2.1 Méthodes de descente de gradient . . . . . . . . . . . . . . 14
2.2.2 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Méthode de quasi-Newton . . . . . . . . . . . . . . . . . . . 15
2.2.4 Méthode de la région de confiance . . . . . . . . . . . . . . 16
2.3 Méthodes pour l’optimisation sous contraintes 17
2.4 Méthodes stochastiques 18
2.4.1 Algorithme génétique . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 Recuit simulé . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.3 Optimisation par essaims particulaires . . . . . . . . . . . . 20
2.5 Multi-objectif 21
2.5.1 La dominance de Pareto . . . . . . . . . . . . . . . . . . . . 21
2.5.2 Optimum de Pareto . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.3 Front de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Résoudre l’ensemble de Pareto optimal . . . . . . . . . . . . 24
2.6 Optimisation et métamodèle 25
2.7 Conclusion 28
2.1 Introduction
Dans le contexte de l’optimisation en ingénierie mécanique, le point d’entrée est
souvent le problème d’optimisation à résoudre. Il paraît alors naturel de présenter les
grandes familles d’algorithmes en fonction des types de problèmes qu’elles peuvent
11
12 Méthodes d’optimisation : état de l’art
Où x est le vecteur Np des paramètres tel que x = {x1 , x2 , ..., xNp } et D le domaine des so-
lutions du problème (D ⊂ RNp ). L’objectif de ce problème consiste à trouver le minimum
ou les minimas x∗ de la fonction f (x) que l’on nommera fonction objectif. Généralement,
on préfère une écriture laissant apparaître explicitement la nature de D, l’ensemble des
solutions en le définissant par plusieurs fonctions d’inégalités ou d’égalités. Il est alors
nécessaire de considérer un problème d’optimisation sous contraintes qui s’écrit dans le
cadre général sous la forme suivante :
Où h(x) et g(x) sont les fonctions contraintes. La recherche des minimas d’une fonction
peut faire apparaître deux types de minimas : des minimas globaux et locaux (voir Figure
2.1). Dans quasiment tous les domaines scientifiques, chimie, physique, mathématique,
ingénierie, économie, on souhaite trouver le minimum global de la fonction objectif
sans pour autant être pénalisé par la présence de minimas locaux. En effet, parmi les
méthodes d’optimisation numériques, on peut distinguer deux catégories : les méthodes
capables de trouver le minimum quasi-global d’une fonction tout en étant capable de
s’affranchir des minimas locaux et celles dédiées à la recherche locale de minima autour
d’un point initial. Les méthodes de la deuxième catégorie, du fait de leur comportement,
ne parviennent généralement pas à trouver le minimum global d’une fonction si le point
initial n’est pas judicieusement choisi. Dans cette section, on résume brièvement deux
méthodes permettant de résoudre un problème d’optimisation déterministe.
D’autres problèmes que l’on rencontre bien souvent, sont des problèmes multicritères
au sens où l’on cherche fréquemment un compromis parmi des critères contradictoires.
2.1. Introduction 13
8
f(x)
6 Trajectoire de locale optimisation
Minimum local
Minimum global
4
0
f(x)
-2
-4
-6
-8
-10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
Figure 2.1 – Un exemple des pièges de l’optimisation locale compte tenu de la fonction
Forrester multimodale, f (x) = 0.5(6x − 2)2 sin(12x − 4) + 10(x − 0.5) − 5 où x ∈ [0, 1]
Où m est le nombre de fonctions objectifs et h(x) et g(x) sont des fonctions contraintes.
Dans la majorité des problèmes d’optimisation multi-objectif, il n’existe pas de solution
unique qui optimise simultanément tous les objectifs. Dans ce cas, les fonctions objectifs
sont dites contradictoires et il existe un nombre de solutions optimales de Pareto. Une
solution est appelée non-Pareto optimale si aucune des fonctions objectifs ne peut être
améliorée sans dégrader les autres objectives. Sans informations supplémentaires sur les
préférences subjectives, toutes les solutions optimales de Pareto sont considérées aussi
bonnes. Le résultat d’un processus d’optimisation, mono-objectif ou multi-objectif, est
une solution qui correspond le mieux aux exigences formellement et/ou informellement
spécifiées. Dans le cas où plusieurs critères d’optimisation sont énoncés dans le problème
d’optimisation, une solution de compromis doit être recherchée parmi un ensemble de
plusieurs solutions optimales.
14 CHAPITRE 2. Méthodes d’optimisation : état de l’art
∇f (xk )
xk+1 = xk − λk , λk > 0 (2.6)
∥∇f (xk )∥
Une suite de point x0 , x1 , ..., xn est alors obtenue. On s’approche de l’optimum. λk définit
le pas de déplacement à chaque itération. Si le pas de déplacement a une valeur donnée,
la méthode s’appelle à pas déterminé.
1
f (xk + ∆x) ≃ f (xk ) + ∇f T (xk )∆x + ∆xT ∇2 f (xk )∆x (2.7)
2
xk + sk . On obtient alors :
Cette méthode est bien reconnue par son efficacité. Mais le principal inconvénient réside
dans le calcul des dérivées secondes de f qui s’avère le plus souvent coûteux et très
difficile à réaliser. Un certain nombre d’algorithmes se proposent ainsi de contourner
cette difficulté en utilisant des approximations de la matrice Hessienne. On peut men-
tionner le cas particulier où f peut s’écrire sous forme de moindres carrés. On obtient
alors une approximation de la matrice Hessienne en ne considérant que les produits
des gradients. Cette méthode est bien adaptée surtout pour les problèmes de petites
dimensions puisque le calcul de la matrice Hessienne est facile. Alors que si le pro-
blème présente un grand nombre de variables, il est généralement conseillé de coupler
celle-ci avec la méthode du gradient conjugué ou une méthode de Quasi-Newton. Ou
bien, lorsque l’amélioration relative de la fonction objectif devient trop faible, on passe
automatiquement à la méthode du gradient conjugué.
Les méthodes de Quasi-Newton sont des méthodes d’ordre 1 qui s’obtiennent par
des approximations successives à la méthode de Newton. Il s’agit de retrouver une
approximation de la matrice Hessienne pour chaque itération sans calcul des dérivées
seconde ni de l’inverse de ces dernières. Si on considère le développement en série de
Taylor à l’ordre 1 du vecteur gradient défini dans le paragraphe précède autour du point
xk :
On remplace ces deux dernières expressions dans l’équation 2.9 pour obtenir :
Pour une nouvelle approximation des paramètres xk+1 telle que g (k+1) est nul, on déduit
que :
y k = −g (k) (2.14)
Cette dernière équation est identique à celle formulée dans le cas de la méthode de
Newton décrite comme l’équation 2.8. Le principe donc des méthodes de Quasi-Newton
est de remplacer l’inverse de la matrice Hessienne par une matrice s(k) qui sera actualisée
pour chaque itération et que celle-ci soit une approximation de l’inverse de la matrice
Hessienne. Le principe de ces méthodes a été proposés par Broyden, Fletcher, Goldfarb
et Shanno nommée BFGS [21], [40].
L’idée de la méthode dite de région de confiance est développée au fil des années
avec de nombreux articles importants par une douzaine de pionniers. Une bonne revue
historique des méthodes de la région de confiance peut être trouvée dans [184], [33].
Dans l’algorithme de région de confiance, une étape fondamentale consiste à approxi-
mer la fonction objectif non-linéaire en utilisant des expansions de Taylor tronquées,
souvent sous une forme quadratique qui est la forme de la région de confiance d’un
hyperellipsoïde. L’approximation de la fonction objectif dans la région de confiance
simplifiera la recherche de la solution d’essai suivante xk+1 de la solution actuelle xk .
Ensuite, on a l’intention de trouver xk+1 avec une diminution suffisante de la fonction
objectif. L’approximation φk à l’objectif réel f (x) peut être mesurée par le rapport de la
diminution obtenue et de la diminution prévue :
f (xk ) − f (xk+1 )
γk = (2.16)
φk (xk ) − φk+1 (xk+1 )
Si ce rapport est proche de l’unité, on a une bonne approximation, puis on doit déplacer
la région de confiance vers xk . La région de confiance doit se déplacer et se mettre à jour
de manière itérative jusqu’à ce que l’optimalité soit trouvée ou jusqu’à ce qu’un nombre
fixe d’itérations soit atteint.
Tous ces algorithmes sont déterministes, car ils n’ont pas de composantes aléatoires.
Ainsi, ils ont généralement quelques inconvénients à traiter des problèmes d’optimisa-
tion globaux non-linéaires, multimodaux. En fait, une certaine randomisation est plus
utile et nécessaire dans les algorithmes, et les algorithmes méta-heuristiques sont des
techniques aussi puissantes.
2.3. Méthodes pour l’optimisation sous contraintes 17
Pour les problèmes d’optimisations sous contraintes, on peut classer deux techniques de
manipulation de contraintes non-linéaires suivant :
où c est une constante positive et P (x) est une fonction de pénalité prenant des
valeurs importantes lorsque les contraintes ne sont pas vérifiées. Le choix de valeur
c influence au la résolution du problème d’optimisation. Bien sûr, cette influence
est contrebalancée par f (x). Par conséquent, si l’ampleur du terme de pénalité est
faible par rapport à l’amplitude de f (x), la minimisation de fc (c, x) ne conduira
presque certainement pas à un x qui serait une solution faisable au problème
original. Cependant, si la valeur de c est suffisamment grande, le terme de pénalité
exigera un coût si lourd pour toute violation de contrainte que la minimisation de
la fonction objectif augmentée donnera une solution faisable.
18 CHAPITRE 2. Méthodes d’optimisation : état de l’art
Généralement deux individus, choisis au hasard dans le "mating pool", sont sélectionnés
pour le croisement. Dans le cas d’une population codée en binaire, le processus du
croisement implique l’échange de bits entre les parents qui aboutit à deux descendants.
Ces descendants forment alors la population de la prochaine génération.
La procédure finale est celle de la mutation qui implique l’altération d’une variable
choisie au hasard par une petite quantité pour une petite proportion de la progéniture.
Le processus de mutation implique une marche aléatoire à travers l’espace de conception
permettant à l’optimisation d’échapper des régions de minimas locaux et d’introduire un
niveau d’exploration globale. Les performances des algorithmes génétiques sont régies
par quatre paramètres importants, la taille de la population, la probabilité de croisement,
la probabilité de mutation et le nombre de générations pour lesquelles l’algorithme est
exécuté. La sélection des valeurs appropriées de ces paramètres affecte grandement la
convergence d’une optimisation. Beaucoup de temps et d’efforts peuvent être consacrés
à ajuster manuellement ces paramètres pour obtenir la meilleure performance d’un
algorithme génétique sur une gamme de problèmes, Keane [82], Gudla and Ganguli
[62].
Pour éviter que l’optimisation ne soit piégée dans les optimums locaux, une approche
probabiliste de la sélection de la position de l’atome qui entraîne une fonction objective
pire est introduite. Si la perturbation aléatoire d’un atome entraîne une fonction objective
plus mauvaise, la probabilité que ce mouvement soit accepté est donnée par le facteur
20 CHAPITRE 2. Méthodes d’optimisation : état de l’art
de probabilité de Boltzmann,
( )
−∆f
P = exp (2.19)
kB T
Cet impact peut être vérifié quand on considère l’équation du facteur de probabilité.
Pour une température donnée, les perturbations dans un atome qui produisent de lé-
gères augmentations de la fonction objective sont plus susceptibles d’être acceptées que
celles qui entraînent une augmentation importante de la fonction objective. Lorsque la
température réduit la probabilité que ces perturbations soient acceptées, elle est réduite,
ce qui oblige l’optimisation à se déplacer vers les minimas locaux. Une température de
départ trop élevée entraîne une exploration globale de l’espace de conception avec peu
d’exploitation. Le taux de refroidissement détermine donc le taux d’optimisation d’une
exploration globale à une exploitation plus locale. Par conséquent, un examen attentif
de ces deux paramètres est nécessaire pour une optimisation efficace.
Comme l’algorithme génétique, le recuit simulé a été utilisé dans une variété de
problèmes d’optimisation impliquant un grand nombre de variables, par exemple l’op-
timisation de Latin Hypercubes, Morris et Mitchell [124], et a trouvé de nombreuses
applications dans la conception aérodynamique, Sherif et al. [160], Wang and Damoda-
ran [159].
2.5 Multi-objectif
Dans le problème d’optimisation multi-objectif 2.3, on vise à déterminer parmi
l’ensemble P ⊆ D (P est la région possible de l’espace de recherche D) de tous les
vecteurs qui satisfont aux contraintes ceux qui donnent les valeurs optimales pour
toutes les m fonctions objectifs, simultanément. L’ensemble des contraintes du problème
définit P . Une variables x qui satisfait toutes les contraintes, elle est alors une solution
faisable. Dans la suite, quelques concepts de base et définitions adoptés seront rappelés
dans l’optimisation multi-objectif et les méthodes pour la résolution des problèmes
multi-objectifs.
Définition 1
Un vecteur de variables de décision x ∈ D domine un autre vecteur de variables de
décision x′ ∈ D, (dénoté par x ≼ x′ ) si et seulement si x est partiellement inférieur à x′ ,
22 CHAPITRE 2. Méthodes d’optimisation : état de l’art
c’est à dire :
Définition 2
Définition 3
En termes de mots, cette définition dit que x∗ est Pareto optimal s’il n’existe pas de
vecteur possible x qui diminuerait un objectif sans provoquer une augmentation simul-
tanée d’au moins un autre objectif (en supposant une minimisation). Cette définition
ne nous fournit pas une seule solution (dans l’espace des variables de décision), mais
l’ensemble de solutions qui forme le soi-disant ensemble optimal de Pareto P ∗ dont la
définition formelle est donnée par :
Définition 4
Les vecteurs qui correspondent aux solutions incluses dans l’ensemble optimal de Pareto
sont dits non-dominés.
min 𝑓2 (𝒙)
𝒙1∗
𝒙′𝑛
𝒙3∗
𝒙4∗
𝒙𝑛∗
min 𝑓1 (𝒙)
Définition 5
P F ∗ = {f (x) ∈ Rm |x ∈ P ∗ } (2.21)
À partir de la définition 1, une solution est meilleure que l’autre si elle est meilleure
dans un objectif et dans l’autre est égale.
On a deux solutions (x3 et x4 ) avec deux objectifs chacun dont x3 est meilleur dans
l’objectif 1 mais pire dans l’objectif 2, et x4 est meilleur dans l’objectif 2 mais pire dans
l’objectif 1. On dit alors qu’ils sont non dominés (voir la figure 2.2). On ne peut pas dire
que l’un est meilleur que l’autre. La figure 2.2 illustre la solution en jaune était égale
dans l’objectif 2 à x3 , alors la solution en jaune sera toujours dominée par x3 .
Dans la définition 2, l’optimum de Pareto est une solution telle qu’il n’existe aucune
autre solution dans l’espace de solution qui le domine. La figure 2.2 montre les solutions
optimales en bleu, vert et rouge.
Weighted Sum Method Weighted Sum Method
24 CHAPITRE 2. Méthodes d’optimisation : état de l’art
(Convex Case) (Non-Convex Case)
f2 f2
Domaine Domaine
faisable faisable
Frontière Frontière
Parento Parento
w1
w2
f1 f1
14
13
A partir des définitions 4 et 5 nous avons dit que l’ensemble de Pareto optimal est
conforme à toutes les solutions optimales de Pareto (toutes les solutions non dominées)
et cet ensemble est connu comme le front de Pareto, la solution optimale d’un problème
d’optimisation multi-objectifs. Sur la figure 2.2, les solutions en bleu, rouge et vert sont
le front de Pareto. La solution en jaune est une solution dominée par x3 et x4 .
où wi , i = 1, 2, ..., m les poids qui sont les compromis entre les fonctions objectifs. Ces
poids sont choisis proportionnellement à l’importance relative de l’objectif ; différentes
solutions le long du front de Pareto sont trouvées. Une limitation de la méthode de la
somme pondérée est qu’elle ne peut pas trouver les conceptions optimales de Pareto qui
se trouvent sur les parties non convexes du front de Pareto. Fig 2.3 illustre une grande
partie convexe et non convexe sur le front de Pareto. Des détails mathématiques sur
cette limitation peuvent être trouvés dans Caramia et Dell’Olmo [26]. Compte tenu des
limites de la méthode de la somme pondérée, d’autres méthodes ont été développées.
Un certain nombre de méthodes ont été listé dans Arora [25] tel qu’un algorithme
génétique multi-objectif, une méthode pondérée max-min, et une méthode de critère
2.6. Optimisation et métamodèle 25
global pondérée.
Les algorithmes génétiques sont des algorithmes d’optimisation itératifs qui entrent
dans la catégorie de l’optimisation évolutive discuté dans la section précédente. Les
avantages des algorithmes évolutionnistes sont qu’ils sont capables de résoudre des
problèmes d’optimisation continus, non continus et discrets. En outre, les algorithmes
évolutionnistes n’exploitent pas seulement les informations dont ils disposent, ils ex-
plorent aussi le domaine. Cela les empêche généralement de se coincer dans le bassin
d’attraction local comme l’aurait fait une méthode d’optimisation déterministe par
gradient. Les inconvénients des algorithmes évolutionnistes incluent qu’ils nécessitent
de nombreuses fonctions d’évaluation pour résoudre un problème, et ils n’atteignent
généralement pas la même précision que les méthodes d’optimisation déterministe.
Stage 1
x1
x2 Trouver
Construire Evaluer condition Conception
. Plan d’expérience l’optimum
métamodèle
global
point d’arrêt Oui optimale
x Np
Non
Mise à jour
noveau point
Stage 2
vraie solution optimale. Une stratégie de mise à jour est ensuite utilisée pour augmenter
la précision du modèle dans les régions indiquées comme optimales. Le modèle mis
à jour peut ensuite être recherché à nouveau pour fournir plus de points qui peuvent
être évalués à nouveau en utilisant la simulation haute fidélité. Le processus se répète
ensuite jusqu’à ce qu’un critère d’arrêt soit atteint. Un certain nombre de schémas de
mise à jour différents peuvent être adoptés dans ce processus. Les mises à jour peuvent,
par exemple, être basées sur une prédiction par les modèles de la fonction objectif, de la
probabilité d’amélioration (Probability of Improvement) ou de l’amélioration espérée
(Expected Improvement) par rapport au meilleur point d’échantillonnage actuel, Jone et
al. [79], Leary et al. [105] and Forrester et al. [54].
L’un des facteurs les plus importants dans toute optimisation basée sur un modèle de
2.6. Optimisation et métamodèle 27
10 10
Fonction originale Fonction originale
Point d'échantillonnage Point d'échantillonnage
Métamodèle Métamodèle
5 5
f(x)
f(x)
0 0
-5 -5
-10 -10
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x x
(a) (b)
10 10
Fonction originale Fonction originale
Point d'échantillonnage Point d'échantillonnage
Métamodèle Métamodèle
5 5
f(x)
f(x)
0 0
-5 -5
-10 -10
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x x
(c) (d)
2.7 Conclusion
Dans ce chapitre, on a rappelé brièvement un certain nombre de différentes stratégies
d’optimisation existant qui peuvent être classées de plusieurs façons. En générale, on
peut classer les algorithmes d’optimisation par trois types populaires qui sont illustrés
sur la figure 2.2. Les optimisations déterministes ne permettent que de converger au
minimum dans le bassin local d’attraction dans lequel l’algorithme a été initialisé. Par
conséquent, pour l’utilisation des méthodes pour résoudre les problèmes multi-modaux
habituellement nécessitent plusieurs redémarrages aléatoires. Les optimisations déter-
ministes sont des algorithmes séquentiels qui évaluent une conception à la fois dans un
cycle d’optimisation.
Méthode
d’optimisation
...
Sommaire du chapitre
3.1 Introduction 31
3.2 Métamodèles d’une fonction scalaire 32
3.2.1 Fonctions de base radiale (RBF) . . . . . . . . . . . . . . . . 32
3.2.2 Krigeage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Autres métamodèles . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Métamodèles d’un champ spatial 47
3.3.1 Méthode de la PGD . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Métamodèle spatial basée sur la POD . . . . . . . . . . . . . 49
3.4 Plan d’expériences 56
3.5 Conclusion 59
3.1 Introduction
Un métamodèle [163] est un modèle de substitution (surrogate model) ou modèle
statistique (également connu comme modèle d’apprentissage) utilisé pour approcher un
modèle Haut-Fidélité (HF) très coûteux. Il est très utilisé dans les problèmes d’optimisa-
tion en ingénierie mécanique ou calcul numérique. On peut distinguer deux types de
métamodèles :
31
32 CHAPITRE 3. Construction d’un métamodèle
Dans ce chapitre, la construction de deux types des métamodèles est décrite. Premiè-
rement, on présente la construction du métamodèle de la fonction scalaire. Ensuite, une
combinaison de réduction dimensionnelle et de métamodèle d’une fonction scalaire sont
présentées. On utilise la terminologie "métamodèle spatial" pour décrire cette approche
durant cette thèse. Finalement, on présentera les techniques de plan d’expérience qui
permettent de choisis les échantillons initiaux pour le pré-calcul, puis la construction
du métamodèle spatial.
Formulation du modèle
où φ(x) est une fonction radiale. Des exemples de fonctions de base radiale sont donnés
dans le tableau 3.1. Dans la terminologie des fonctions de base radiale, les positions xj ,
j = 1, 2, ..., Ns sont appelées le centre de la fonction de base radiale.
Les coefficients w = [w1 w2 ...wNs ]T sont déterminés à partir des conditions d’interpo-
lation :
qui peut être écrit sous forme de matrice d’un système d’équations linéaires comme
suit :
Φw = y (3.3)
En résolvant le système linéaire 3.3 sous la condition 3.2, l’approximation est obtenue
de la manière suivante :
La variance de l’erreur statistique du modèle des fonction de base radiale peut être
alors obtenue par les réalisations d’un processus stochastique (Pour une démonstration
34 CHAPITRE 3. Construction d’un métamodèle
Nom φ(r) (r = ∥x − xc ∥2 )
2
Gaussienne φ(r) = e√−(ϵr)
Multiquadratique φ(r) = 1 + (ϵr)2
Multiquadratique inverse φ(r) = √ 1 2
1+(ϵr)
2
Exponentielle φ(r) = e−ϵr
Le choix d’une fonction de base radiale appropriée est une décision importante et il
existe de nombreux choix disponibles.
Le choix des fonctions de base déterminera quelles méthodes sont disponibles pour
résoudre le système d’équation 3.3. Si la matrice d’interpolation Φ est définie positive
symétrique, alors le système linéaire a une solution unique. Une propriété d’une matrice
définie positive est que toutes ses valeurs propres sont positives. Par conséquent, une
matrice définie positive est inversible. De plus, des méthodes numériques telles que
la factorisation de Cholesky peuvent être utilisées pour résoudre un système linéaire
positif défini symétrique plus efficacement que les méthodes conçues pour un système
linéaire général [180] [122]. Le Tableau 3.1 répertorie quelques types de la fonction de
base radiale communs. À l’exception du multiquadric, tous les fonctions de base radiale
énumérées sont le noyau reproduisant défini positif. Le multiquadric n’est pas défini
positif (ou un noyau reproduisant), mais il est défini conditionnellement négatif. Dans
une interpolation des fonctions de base radiale, elle donne lieu à une matrice de taille
Ns avec une valeur propre positive et Ns − 1 valeurs propres négatives. Par conséquent,
une interpolation des fonction de base radiale qui utilise des fonctions de base multi-
quadrique a une solution unique, mais cette solution ne peut pas nécessairement être
calculée en utilisant des méthodes spécialisées pour la résolution de systèmes définis
positifs. La figure 3.1 illustre le comportement de 4 fonctions radiales correspondantes :
exponentielle, gaussienne, multiquadrique, et multiquadrique inverse pour trois valeurs
différentes de ϵ. On peut voir que ces fonctions ont des comportements très différents.
De plus, la forme des fonctions est très différente lorsque les paramètres changent. Le pa-
ramètre ϵ est appelé le paramètre de forme. Ce paramètre a une importante signification
sur la précision de l’approximation.
3.2. Métamodèles d’une fonction scalaire 35
1 1
=0.1 =0.1
=1.0 =1.0
0.8 0.8
=2.5 =2.5
0.6 0.6
(r)
(r)
0.4 0.4
0.2 0.2
0 0
-5 0 5 -5 0 5
r r
8 1
=0.1 =0.1
=1.0 =1.0
0.8
6 =2.5 =2.5
0.6
(r)
(r)
4
0.4
2
0.2
0 0
-5 0 5 -5 0 5
r r
s N
1 ∑
MSEϵ = (fˆi (xi ) − y i )2 (3.6)
Ns
i=1
En utilisant cette approche, le meilleur paramètre de forme trouvé ϵ peut être produire
une approximation la plus précise.
3.2.2 Krigeage
Une autre modèle d’approximation qui intéresse de plus en plus la communauté
scientifique ces dernières années est le modèle de krigeage. Le krigeage est une méthode
qui a été développée par Matheron [114] en géostatistique et repris dans tous les do-
maines grâce à ses qualités de modélisation. Le krigeage est aussi connue comme un
processus gaussien [143] dans le contexte de l’apprentissage automatique. Généralement,
un métamodèle repose sur une hypothèse fondamentale, qui consiste à supposer que
la vraie sorti Y se réécrit comme Y = f + z, avec f une approximation déterministe
3.2. Métamodèles d’une fonction scalaire 37
Formulation
où f (x) est une fonction de régression et Z(x) est un processus gaussien à moyenne nulle,
la variance σ 2 , et une fonction de de corrélation ψ. Alors, l’espérance, la variance de
Y (x), et la relation de covariance s’écrivent de la manière suivant :
où bi (x), i = 1, 2, ..., p sont les fonctions de base, et αi , i = 1, 2, ..., p désignent les coeffi-
cients. L’idée est que la fonction de régression capture la plus grande variance dans les
données (la tendance générale) et que le processus gaussien interpole les résidus. En fait,
la fonction de régression f (x) est la moyenne du processus gaussien plus large Y . Ce-
pendant, la sélection de la fonction de régression adaptée est un problème difficile, par
conséquent, la fonction de régression est souvent choisie constante (krigeage ordinaire).
Tandis que le processus stochastique est principalement défini par la matrice de corréla-
tion n × n
où φ(·, ·) est la fonction de corrélation qui est paramétrée par un ensemble d’hyper-
paramètres θ. Par la suite, la prédiction par le krigeage pour tous les x ∈ D est de la
forme :
Les dérivées partielles de la moyenne de prédiction par rapport à un point de test x sont
3.2. Métamodèles d’une fonction scalaire 39
données par,
Estimation de l’erreur
La variance de l’erreur de prédiction (appelée parfois "erreur quadratique moyenne"
(MSE)) peut être calculée par :
[ ] [( )2 ]
ŝ2 (x) = var Ŷ (x) − Y (x) = E Ŷ (x) − Y (x) (3.21)
1 − F T Ψ −1 r(x)T
( )
= σ 2 1 − r(x)Ψ −1 r(x)T +
F ′ Ψ −1 F
où la variance du processus est donnée par,
1
σ2 = (y − Fα)T Ψ −1 (y − Fα) (3.22)
Ns
En supposant que le processus Z suive une loi normale centrée sur Ŷ (x), on peut calculer
la probabilité que Y (x) soit dans l’intervalle [Ŷ (x) − δ, Ŷ (x) + δ], (δ > 0) grâce à l’équation
suivante :
∫δ 2
( ) 1 − t2
P Y (x) ∈ [Ŷ (x) − δ, Ŷ (x) + δ] = √ e (x) dt
2ŝ (3.23)
ŝ(x) 2π −δ
30
IC 95% IC 68% IC 38% IC 8%
20
10
Y(x)
-10
-20
-30
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x
1 1
p=0.1 =0.1
0.9 p=1 0.9 =1
p=2 =10
0.8 p=5 0.8 =100
0.7 0.7
0.6 0.6
(x,x')
(x,x')
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Distance(x-x') Distance(x-x')
(a) avec paramètre variable p pour θ = 1 (b) avec paramètre variable θ pour p = 1
Une autre classe est souvent utilisée dans les problèmes d’ingénierie. C’est la classe
de fonctions de corrélation Matérn [143] qui a la forme :
(√ )ν ( √
21−ν
)
2ν|r| 2ν|r|
ψ(r) = Kν (3.25)
Γ (ν) ρ ρ
1 1
=0.1 =0.1
0.9 =1 0.9 =1
=10 =10
0.8 =100 0.8 =100
0.7 0.7
0.6 0.6
(x,x')
(x,x')
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Distance(x-x') Distance(x-x')
1. https ://en.wikipedia.org/wiki/Condition_number
3.2. Métamodèles d’une fonction scalaire 43
Noter que la dépendance sur l’ensemble des hyperparamètres θ est directement reliée à
la matrice de corrélation Ψ . En supposant qu’on connait les valeurs de θ. On trouve les
valeurs de α et σ pour maximiser l’opposé de la fonction de la log-vraisemblance :
Ns N 1 1
ln(L(θ)) = − ln(2π) − s ln(σ 2 ) − ln(|Ψ |) − 2 (y − Fα)T Ψ −1 (y − Fα) (3.29)
2 2 2 2σ
En égalisant à zéro et en résolvant l’équation 3.29 par rapport à α et σ 2 , on obtient :
F T Ψ −1 y
α= (3.30)
F T Ψ −1 F
1
σ2 = (y − Fα)T Ψ −1 (y − Fα) (3.31)
Ns
On constate qu’elles sont les solutions qui sont trouvées dans 3.16 et 3.22 respectivement.
En substituant ces solutions à l’équation 3.29, la fonction de log-vraisemblance est
représentée comme suit :
Ns 1
ln(L(θ)) = − ln(σ 2 ) − ln(|Ψ |) (3.32)
2 2
La maximisation 3.32 est une tâche d’optimisation non-convexe car elle est fréquem-
ment multimodale. Avec la montée en dimension, ce problème devient rapidement
très difficile et coûteux en temps, ce qui nuit à la performance du modèle de krigeage.
Une alternative simple consiste à supposer que la fonction objectif est isotrope et alors
θ1 = θ2 = ... = θNp , d’où une optimisation à une seule dimension. Trouver un ensemble
optimal des hyperparamètres peut être fait par des techniques standard basées sur le
gradient, tel que l’algorithme du gradient, SQP ou la méthode de quasi-Newton qui ont
été abordé dans la section 2.2 ou l’algorithme du gradient stochastique. Celui-ci doit
44 CHAPITRE 3. Construction d’un métamodèle
pouvoir prendre en compte les bornes du domaine de définition de θ (des valeurs trop
petites ou trop grandes détériorent le conditionnement de la matrice de covariance, d’où
la nécessité d’imposer des limites).
On note dans le problème 3.32, qu’il faut inverser la matrice de corrélation Ψ et cal-
culer son déterminant, ce qui a une complexité algorithmique O(Ns3 ), si Ns est le nombre
de points observés [143]. Tandis que la méthode de validation croisée nécessite O(Ns4 )
opérations pour le calcul de la matrice de corrélation [174], [143]. C’est pour cela que la
méthode de vraisemblance est utilisée fréquemment pour estimer les hyperparamètres
dans modèle de krigeage.
La régression linéaire est la méthode la plus simple pour approcher la vraie fonction
y = f (x). Elle consiste à supposer qu’il existe une dépendance linéaire entre les variables
d’entré x1 , x2 , ..., xNp et la variable sortie y. Le modèle est construit ainsi de la manière
suivante :
où β = [β0 , β1 , ..., βNp ]T est un vecteur contenant les paramètres du modèle et ϵ désigne
au résidu du modèle. La variable aléatoire ϵ est supposée souvent comme une variable
normale, centrée β et de variance σ 2 . L’estimation des paramètres β et σ est obtenue
soit en maximisant la fonction de vraisemblance, et ceci grâce à l’hypothèse des erreurs
gaussiennes, soit en minimisant la somme des carrés des écarts entre les vraies observa-
tions et les prédictions du modèle (méthode des moindres carrés). Ces deux méthodes
conduisent à la même estimation et généralement la méthode des moindres carrés est la
plus employée pour ce type de modèle. Le critère des moindres carrés s’écrit comme :
β = (X T X)−1 X T y (3.35)
L’avantage d’un tel modèle est qu’il est très simple à construire et à interpréter. Cepen-
dant, il ne permet pas de construire des modèles d’approximation très complexes et il
est adapté seulement aux problèmes linéaires. À noter qu’il est possible de transformer
3.2. Métamodèles d’une fonction scalaire 45
poids
valeurs
𝑥1 𝑤1𝑗
Fonction
d’activation
𝑥2 somme pondérée
𝑤2𝑗
y
𝑥3 𝑤3𝑗
activation
Fonction de
combinaison
𝑥𝑛 𝑤𝑛𝑗
seuil
Couche de
sortie
la base de fonctions lorsque l’on change les bases de fonctions xi −→ xik , i = 1, 2, ..., Np et
k = 1, 2, ..., n − 1, qui permettent de construire les surfaces polynomiales [17], [18]. Il est
également possible d’étudier les interactions entre les variables d’entrée en ajoutant les
termes correspondants à la fonction de base. Il existe d’autres généralisations de la ré-
gression linéaire qui permettent d’observer des interactions complexes. Elles consistent
par exemple à effectuer des régressions polynomiales par morceaux (splines) ou encore
à supposer que la sortie est une combinaison linéaire de fonctions de base. Le choix des
fonctions de base est très important ; leurs propriétés conduiront à des analyses très
différentes.
L’idée des réseaux de neurones a été proposé pour la première fois par McGulloch et
Pitts en 1943 [115]. Le principle s’est trouvé dans [14], [67]. Un réseau de neurones est
constitué par un ou plusieurs neurones formels. Un neurone artificiel est illustré sur la
figure 3.5a. Si les entrées d’un neurone sont notées x1 , x2 , ..., xn , la sortie du neurone y
46 CHAPITRE 3. Construction d’un métamodèle
Cependant, dans des cas compliqués (par exemple, des fonctions non-lisses avec un
grand nombre de variables), le problème de régression sous-jacent peut être impliqué de
manière significative. Les réseaux de neurones sont aussi connus comme une technique
de l’apprentissage profond. Elles sont très utilisées dans les domaines de l’analyse du
signal sonore ou visuel et notamment pour la reconnaissance faciale, reconnaissance
vocale, la vision par ordinateur, le traitement automatisé du langage et l’analyse des
données. Pourtant, la mise en œuvre d’un modèle basé sur un réseau de neurones est
très complexe pour des problèmes de grandes dimensions (grands nombre de couches).
Par conséquence, l’entraînement et l’apprentissage exigent les processeurs très haut de
gamme et très puissant.
L’approche des moindres carrés mobiles a été présentée par Lancaster et Salkauskas
dans [100]. Elle est très populaire dans la construction des fonctions de forme pour
résoudre des problèmes d’équations aux dérivées partielles sans maillage [31]. Le MLS
permet de construire une approximation de la fonction y à partir de Ns couples (xi , y(xi ))
sous la forme :
avec pT une base polynomiale et a(x) un vecteur de coefficients inconnus qui est déter-
miné en minimisant l’erreur suivant :
s N
1∑
J= ωi [pT (xi )a(x) − y(xi )] (3.38)
2
i=1
2. https ://en.wikipedia.org/wiki/Multilayer_perceptron
3.3. Métamodèles d’un champ spatial 47
ou
où x = [x1 , x2 , ..., xNp ] sont les paramètres, A est un opérateur différentiel linéaire, et u∗
est la fonction test. La PGD permet de décomposer la solution sous la forme :
K
∑
∀M ∈ Ω, ∀x = (x1 , x2 , ..., xNp ) ∈ D, u(x, M) = αk (x)ϕ k (M) (3.44)
k=1
où K est l’ordre d’approximation via la méthode PGD (ou le nombre modes), ϕ k (M)
sont les modes spatiaux ou les bases réduits, αk (x) sont les modes paramétriques qui
peuvent être vu comme une fonction des paramètres qui est représenté par :
Np
∏
αk (x) = αk (xi ) (3.45)
i=1
Dans cette section, un métamodèle spatial sera construit sur la décomposition or-
thogonale propre avec le métamodèle de la fonction scalaire abordé dans la section
précédent. Pour la POD, les bases réduites (ou fonctions de bases) seront construites
à partir des réponses de simulations pré-calculées de modèle haute-fidélité(ou appelé
"snapshots") des échantillons de paramètres initiaux. Les fonctions seront ensuite inter-
polées par le métamodèle de krigeage(ou les fonctions de base radiale, la régression du
vecteur de support,...). Par conséquent, le modèle haute-fidélité pourrait être remplacé
par le métamodèle spatial à tout point de l’espace de paramètres ne comprenant pas les
points entraînés. Contrairement à l’approche basé sur la PGD, le métamodèle spatial ne
décrit pas l’état de la physique, mais prédit le champ de spatial des nouveaux paramètres.
C’est pour cela que la POD est plus utilisée dans l’ingénierie de conception. La POD est
appliquée populaire dans les problème de l’optimisation de forme en aérodynamique
[75], [137], [74] et en structure [142], le test d’indentation [24], [119], la mise en forme
[66], [104].
La POD est également connue sous de nombreux noms différents comme la décom-
position de Karhunen-Loeve (KLD), les analyses en composantes principales (PCA) ou
la décomposition en valeurs singulières (SVD). La connexion et l’équivalence entre les
trois méthodes sont présentées par Liang et al. [110]. Elle est l’une des techniques de
réduction de dimension non supervisée les plus célèbres. Ces techniques sont impor-
tantes dans de nombreuses applications liées à l’exploration de données [179], [19], la
bioinformatique [152], la reconnaissance de visages [168], le traitement de signal et la
théorie du contrôle [112]. Elle est aussi rencontrées dans des problèmes d’ingénierie
comme l’analyse thermique transitoire [11], la description des écoulements turbulents
[10], [167], la dynamique structurale [85], l’aérodynamique instationnaire [177], et la
reconstruction aérodynamique des données et conception inverse [23].
L’idée qui repose sur la technique de la POD est de transformer les données d’un
espace de dimension supérieure en un espace de dimension inférieure (voir 3.6). En
supposant qu’on a un ensemble S de Ns vecteurs, S = {u1 , u2 , ..., uNs }, avec ui ∈ RNd où
Nd représente la dimension des données. La POD permet de changer un système de
coordonnées de Nd dimension en un nouveau système de coordonnées avec la dimension
K inférieure (K ≤ Nd ). Dans le problème de la simulation numérique par élément finis,
chaque vecteur d’entrée xi dans l’espace de paramètre D, la sortie associée ui = u(xi )
est alors un vecteur de réponse du champ spatial (champ de coordonnées, champ de
displacement, champ de contraint, etc) qui est pré-calculé ou simulé pour un modèle
haut-fidélité. On veut approximer le vecteur ui sur le domaine RNd × D en combinant
le champ moyen d’ensemble et une combinaison linéaire finie d’une fonction de base
50 CHAPITRE 3. Construction d’un métamodèle
Donnée Donnée
points points
𝑁𝑑 dims 𝒖𝟏 𝒖𝟐 𝒖𝟑 K dims 𝝋𝟏 𝝋𝟐 𝝋𝟑
ϕ ∈ RNd :
K
∑
i
u ≃ ū + αk (xi )ϕ k (3.46)
k=1
où αk (xi ), k = 1, 2, ..., K sont les coefficients modaux et ū est le champ moyen calculé sur
tous les simulations pré-calculées de modèle haute-fidélité :
N
s
1 ∑
ū = u(xi ) (3.47)
Ns
i=1
La fonction de base ϕ k est également appelé la base POD (mode POD) et K indices
nombre de base (K ≤ n ≤ d). La POD permet d’obtenir la meilleure base suivante :
⎧
⎨1, if k = l
⎪
k l
⎪
⟨ϕ , ϕ ⟩ = ⎪ (3.48)
⎩0, if k , l
⎪
où le coefficient αk (xi ) est calculé en projetant la déviation (ui − ū) sur chaque mode
POD, c’est-à-dire :
rechercher :
N K
s ∑
1∑
max ⟨ui − ū, ϕ k ⟩ (3.51)
(ϕ 1 ,ϕ 2 ,...,ϕ K ) 2
i=1 k=1
Les valeurs propres λk peuvent être indexées dans l’ordre décroissant λ1 ≥ λ2 ≥, ..., ≥ λn .
Le rang de troncature K (appelé nombre de modes) peut également être calculé afin
d’étudier si la projection de toutes les paires (ui − ū). Ainsi, les critères d’erreur ϵ(K) des
modes K sont définis comme suit :
∑k=K
λk
ϵ(K) = 1 − ∑k=1k=n
≤ϵ (3.55)
k=1 λ k
où ϵ est le seuil d’énergie donné. Enfin, la construction du vecteur original peut être
approximée en utilisant K modes par :
K
∑
i
uP OD (x ) = ū + αk (xi )ϕ k (3.56)
k=1
108
4.5
3.5
3
Valeur propre
2.5
1.5
0.5
0
0 5 10 15 20 25 30 35
mode
vite avec les modes suivants. La figure 3.9 illustre le champ moyen et les 7 premiers
modes (ou eigenfaces). La reconstruction de l’image est fait en ajoutant le champ moyen
et une combinaison linéaire comme dans la figure3.10 à partir de 7 modes. La figure
3.11 montre la construction de 32 images à partir des 7 modes. En pratique, le choix
du nombre de modes est basé sur l’équation 3.55. La POD permet de détecter une
image inconnue [113] qui a même taille que les images d’entraînement. Pourtant, dans
3.3. Métamodèles d’un champ spatial 53
(a) Moyen (b) Mode (c) Mode (d) Mode (e) Mode (f) Mode 5 (g) Mode (h) Mode
1 2 3 4 6 7
le cas de données non-linéaires, la POD n’est pas applicable. Alors, pour réduire la
dimension des données, quelques techniques sont utilisées tel que "Kernel principal
component analysis" (kernel-PCA) [157] [156], "Locally-linear embedding (LLE)" [150],
ou les techniques de non-linéarité réductions dimensionnelles [106], [178].
{x1 , x2 , ..., xNs } −→ {αk (x1 ), αk (x2 ), ..., αk (xNs )} (k = 1, 2, ..., K) (3.57)
Donc, pour construire le métamodèle sur tous les points de l’espace de paramètres, on
combine la réduction dimensionnelle par la POD et le modèle d’approximation des
coefficients par le krigeage ou les fonctions de base radiale qui sont décrites dans la
section 3.2. Le métamodèle spatial est obtenue pour tous les points x dans l’espace de
paramètres D par :
K
∑
û(x) = ū + α̂k (x)ϕk , ∀x ∈ D (3.58)
k=1
où ū et ϕ sont calculé à partir de l’équation 3.47 et 3.54, α̂k (x) est le métamodèle de
d α̂(x)
krigeage (ou RBF) des coefficient POD. En outre, on peut exploiter ses gradient dx en
prenant le gradient du modèle de krigeage (ou RBF). Ainsi, le gradient de metamodèle
spatial obtenu est :
K
û(x) ∑ d α̂k (x)
= ϕk , ∀x ∈ D (3.59)
dx dx
k=1
On constate que le champ de spatial est un vecteur d’état qui contient Nd variables.
C’est-à-dire, chaque composant j dans champ de spatial est prédit par :
K
∑
ûj (x) = ūj + (ϕjk )α̂k (x) (3.60)
k=1
utilisées tel que : la conceptions factorielles, l’échantillonnage par hypercube latin (Latin
hypercube sampling-LHS) [116], les Tessellations Centroïdes Voronoï Latines (ou La-
tin Centroidal Voronoi Tessellations-LCVT) [153] et l’échantillonnage Monte-Carlo [131].
Les conceptions factorielles [154] sont des techniques DOE classiques qui, lors-
qu’elles sont appliquées à des variables de conception discrètes, explorent une grande
région de l’espace de recherche. L’échantillonnage de toutes les combinaisons possibles
est appelé conception factorielle complète. Des plans factoriels fractionnaires peuvent
être utilisés lorsque l’évaluation du modèle est coûteuse et que le nombre de variables
de conception est élevé (en pleine conception factorielle, le nombre d’échantillons aug-
mente exponentiellement avec le nombre de variables de conception). Les variables
continues, une fois discrétisées, peuvent être facilement analysées grâce à la concep-
tion factorielle. La conception factorielle complète à deux niveaux et à trois niveaux
(également connu sous le design 2k et 3k ) nous permet d’estimer les principaux effets et
interactions entre les variables de conception, et les effets et interactions quadratiques,
respectivement. La figure 3.12 illustre des exemples de plan d’expériences factoriels :
composite centrale, et Box-Behnken respectivement, pour trois variables de conception.
Deux autres techniques permettent de faire le remplissage de l’espace dans les régions
présentant des non-linéarités plus élevées ou une probabilité plus élevée de contenir un
optimum tel que LHS ou LCVT. La figure 3.13 illustre des exemples de plan d’expérience
par LHS et LCVT pour 20 échantillons de deux variables, et figure 3.14 illustre des
exemples de plan d’expérience par LHS et LCVT pour 100 échantillons de trois variable.
On constate que le LCVT tend à fournir une distribution uniforme de l’information dans
l’espace paramétrique tout en conservant les caractéristiques d’un hypercube latin. La
comparaison des techniques de LCVT et d’autres techniques est montrée par Romero
dans [149]. Dans les deux cas de deux et trois variables, le plan d’expérience obtenue
en utilisant LCVT est vu pour être plus uniformément distribué, bien qu’il ait un écart
légèrement plus élevé. Par conséquence, le technique de LCVT peut être permettre une
meilleure exploration de la fonction objectif pour un même coût de calcul.
58 CHAPITRE 3. Construction d’un métamodèle
Figure 3.14 – Échantillonnage par LHS et LCVT pour 100 échantillons de trois variable
3.5. Conclusion 59
3.5 Conclusion
Dans ce chapitre, une étude bibliographique est faite. Deux groupes de métamodèles
sont présentés : les métamodèles d’une fonction scalaire qui permettent d’approximer
une fonction scalaire (RBF, krigeage,...) et les métamodèles d’un champ spatial qui
permettent de faire l’approximation d’un champ spatial (PGD et POD).
Sommaire du chapitre
4.1 Introduction 62
4.2 Stratégie séquentielle directe 64
4.2.1 Formulation du problème . . . . . . . . . . . . . . . . . . . 64
4.2.2 Résolution du problème séquentiel approximatif . . . . . . 64
4.2.3 Critères d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.4 Organigramme d’optimisation . . . . . . . . . . . . . . . . . 66
4.2.5 Exemple numérique . . . . . . . . . . . . . . . . . . . . . . 66
4.3 Stratégie séquentielle basée sur l’algorithme EGO 74
4.3.1 Critère de l’amélioration espérée . . . . . . . . . . . . . . . 75
4.3.2 L’algorithme EGO pour le problème d’optimisation avec les
contraintes de bornes . . . . . . . . . . . . . . . . . . . . . . 76
4.3.3 L’algorithme EGO pour le problème d’optimisation avec des
fonctions contraintes non-linéaires . . . . . . . . . . . . . . 88
4.3.4 Critères d’arrêts . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4 Stratégie séquentielle d’optimisation multi-objectif 92
4.4.1 Rappel des critères d’espérance de l’amélioration multi-objectifs 93
4.4.2 Critère de matrice d’espérance de l’amélioration . . . . . . 97
4.4.3 Multi-objectif avec constraints non-linéarité . . . . . . . . . 99
4.5 Conclusion 104
61
62 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
4.1 Introduction
Dans de nombreux problèmes de conception mécanique, des modèles numériques
sont largement utilisés pour vérifier la résistance mécanique de structures complexes. En
raison de la complexité croissante des systèmes mécaniques, l’utilisation de la simulation
numérique est maintenant une aide précieuse pour les ingénieurs. Plus particulièrement,
l’optimisation d’un procédé de mise en forme peut s’avérer assez fastidieuse lorsque le
modèle est fortement non-linéaire et/ou couteux à évaluer.
De manière générale, la conception assistée par simulation peut être formulée comme
un problème de minimisation non linéaire de la forme suivante :
où û(x) est le métamodèle spatial qui est défini par l’équation 3.58, et ĝ (n) (x) est l’en-
semble des métamodèles de l’ensemble g(x) au n-ème cycle. Ces métamodèles sont
construits à partir du nombre d’échantillons d’observations dans chaque cycle. Par consé-
quence, une forme approchée des gradients paramètriques et les matrices Hessiennes de
la fonction objectif peuvent-être obtenus à partir de l’exploitation du métamodèle. On
notera l’utilisation de la méthode du lagrangien augmenté pour l’optimisation contrainte
dans une recherche de région de confiance basée sur un modèle approximation [60], [3],
où plus simple à mettre en œuvre est l’application de fonctions de pénalité [162]. Dans
notre cas, on a préféré utiliser l’algorithme d’optimisation quadratique successive (SQP
algorithm) [133] couplé à une méthode de multistart (plusieurs points de départ initiaux)
[182]. En réalité, pour trouver un optimum global approximé, on peut appliquer les
méthodes stochastiques tel que : l’optimisation par essaims particulaires ou l’algorithme
4.2. Stratégie séquentielle directe 65
génétique qui sont décrit dans la section 2.4. En raison de ses performances ainsi que de
sa capacité à s’adapter à des problèmes, on utilise le couplage de l’algorithme SQP et de
l’option multistart disponibles au sein de la routine fmincon de MATLAB.
Une autre approche pour traiter le problème d’optimisation avec les contraintes
non-linéaires : on suppose que la prédiction ĝ(x) et l’erreur de prédiction ŝg (x) sont
considérées comme la réalisation d’une variable aléatoire suivant la loi normale. On
peut alors calculer la probabilité de faisabilité que g(x) soit dans l’intervalle [−∞, 0]
(cela équivaut g(x) ≤ 0) comme suit (voir l’équation 3.23) :
∫ 0 (0−t)2 ( )
1 2ŝg2 (x) 0 − ĝ(x)
P [g(x) ≤ 0] = √ e dt = Φ (4.4)
ŝg (x) 2π −∞ ŝg (x)
où Φ désigne la fonction de répartition de la loi normale centrée réduite et ŝg (x) est la
variance de l’erreur de prédiction. Le problème 4.3 équivaut alors à trouver une solution
optimale dans la région faisable 4.4 en respectant des contraintes. Par conséquent, le
problème d’optimisation avec la contrainte non-linéaire peut être alors défini par la
résolution du problème suivant :
avec :
2
avec gi ∼ N (ĝi , ŝg,i (x)). Le problème 4.5 est élargi par la minimisation de la fonction
suivante :
(n) (n)
où ĝi (x) et ŝg,i sont les prédictions et les variances d’erreur de prédiction du i-ème
métamodèle à n-cycle. La résolution de ce sous-problème s’effectuera aussi en utilisant
la routine fmincon avec l’option de multistart de MATLAB pour trouver des points
susceptibles d’être faisables.
13: Mettre à jour l’ensemble des fonctions contraintes Gi ←− Gi ∪gi (x(n+1) ), i = 1, 2, ..., q.
Premier exemple
Le tracé de cette fonction sur l’intervalle t ∈ [0, 3] est visualisé sur la figure 4.1 Imagi-
nons maintenant que cette expression représente la distribution d’une certaine valeur
physique u à certains moments ou coordonnées spatiales t. Ensuite, supposons en outre
que nous modifions cette fonction en rajoutant deux paramètres nommés x1 et x2 :
L’espace de définition du vecteur paramètre x ∈ D = [0, 4] × [0, 4]. Supposons que nous
aimerions identifier les deux paramètres x1 et x2 pour lesquels la fonction du modèle
4.13 corresponde à la "cible" donnée par 4.12. De toute évidence, la fonction cible existe
dans la famille des fonctions du modèle et elle est obtenue pour x = [2.5, 2.5]. Afin
d’identifier ces deux paramètres, la première étape consiste à construire la fonction
objectif qui permettra de quantifier l’écart moyen entre u(t) et u(t, x) sur un échantillon
68 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
7 7
fonction de la cible
fonction du modèle
6 6
5 5
u(t)
u(t)
4 4
3 3
2 2
0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 3
t t
(a) (b)
Figure 4.1 – Graphique de la fonction analytique (a) 4.12 utilisé comme fonction "cible"
et fonction du modèle (b).
(a) (b)
Figure 4.2 – La réponse de surface de la fonction objectif du modèle 4.14 et ses courbes
de niveaux.
Dans cet exemple, on fixe Nd à 1001 points. Cette fonction objectif et ses courbes de
niveau sont illustrées sur le figure 4.2. On peut voir que la fonction objectif varie très
peu sur l’espace de paramètres D et a un seul minimum global au point xg = [2.5, 2.5].
4.2. Stratégie séquentielle directe 69
x2
x2
x2
x2
2 2 2 2 2
0 0 0 0 0
0 2 4 0 2 4 0 2 4 0 2 4 0 2 4
x1 x1 x1 x1 x1
x2
x2
x2
x2
2 2 2 2 2
0 0 0 0 0
0 2 4 0 2 4 0 2 4 0 2 4 0 2 4
x1 x1 x1 x1 x1
Figure 4.3 – Les échantillons initiaux pour 10 DOE initiaux différents en utilisant la
technique LCVT.
où chaque α̂k (x), k = 1, 2, ..., 6 sont les modèles de krigeage de chaque coefficient POD. Le
problème séquentiel alors peut être formulé comme une procédure itérative :
⏐ ⏐⏐
Nd ⏐ 6
1 ∑ ⏐⏐ ∑ ⏐
x(n+1) = arg min f (n) (x) avec f (n) (x) = ⏐⏐u(tj ) − ūj − ϕjk α̂k (x)⏐⏐⏐ (4.16)
x∈D Nd
i=1 k=1
⏐ ⏐
où ūj et ϕjk sont respectivement points le j-ème de champ de moyen pour la k-ème
base POD. La résolution du problème 4.16 est effectuée par l’algorithme SQP et l’option
multistart avec 50 points de départ qui sont disponibles au sein de la routine fmincon de
70 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
6000
Cas 1 Cas 1
0.5
Cas 2 Cas 2
5000
Cas 3 Cas 3
Cas 4 Cas 4
0.4
4000 Cas 5 Cas 5
Cas 6 Cas 6
Valeur propre
Cas 7 Cas 7
0.3
(K)
3000 Cas 8 Cas 8
Cas 9 Cas 9
Cas 10 0.2 Cas 10
2000
1000 0.1
0 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Mode Mode
fmin
fmin
fmin
fmin
0.4
0.4 0.2
0.1 0.1
0.2
0.2 0.1
0 0 0 0 0
2 4 6 2 4 6 2 4 6 2 4 6 2 4 6
Cycle Cycle Cycle Cycle Cycle
cas 6 cas 7 cas 8 cas 9 cas 10
1 0.3 0.8 0.8
0.3
0.8
0.6 0.6
0.2
0.6 0.2
fmin
fmin
fmin
fmin
fmin
0.4 0.4
0.4
0.1 0.1
0.2 0.2
0.2
0 0 0 0 0
2 4 6 2 4 6 2 4 6 2 4 6 2 4 6
Cycle Cycle Cycle Cycle Cycle
Figure 4.5 – Évolution des minimums de la fonction objectif pour 10 DOE initiaux
différents.
4.2. Stratégie séquentielle directe 71
Figure 4.6 – Les courbes de niveau de la fonction objectif du métamodèle spatial pour
10 DOE initiaux différents avec les points noirs représentant les échantillons initiaux,
les points rouges désignent le point remplissage, et le minimum global s’est trouvé au
point vert.
Matlab. Le processus d’optimisation sera arrêté lorsqu’une des deux conditions dans
4.11 est satisfaite. Ici, on fixe les paramètres ε et εf de l’algorithme à 10−3 . Pour les 10
cas de DOE, on obtient les évolutions des valeurs de la fonction objectif sur la figure 4.5.
Il est à noter que l’utilisation du métamodèle spatial obtenu avec la POD et le krigeage
donne de meilleurs résultats que le métamodèle de krigeage seul construit directement
à partir de la fonction objectif. Avec cette stratégie basée le métamodèle spatial permet
de converger après de 5 à 7 cycles, alors qu’avec l’utilisation du métamodèle de krigeage
seul, la convergence est nettement moins bonne pour le même nombre de cycles. La
figure 4.6 illustre l’histoire de convergence pour tous les cas correspondant aux 10
DOE différent dans la figure 4.3. Les points noirs représentent les échantillons initiaux,
les rouges matérialisent les points ajoutés au cour des cycles. Le point vert désigne
l’optimum global.
Deuxième exemple
Maintenant, on va considérer une deuxième fonction test proposée par Forrester [54]
(voir figure 4.7a) :
Supposons que la distribution cible de certaine valeur physique sur le domaine t ∈ [0, 1].
20 20
Fonction de la forme cible
Fonction du modèle
15 15
10 10
u(t)
u(t)
5 5
0 0
-5
-5
-10
-10 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
t
t
(a) (b)
Figure 4.7 – Fonction de Forrester 4.17 [54] et son type modifié 4.18.
qui dépendent de deux paramètres collectés dans le vecteur x ( voir 4.7b). La fonction
objectif à minimiser est définie comme dans l’équation 4.14 de l’exemple précédent
et visualisée sur la figure 4.8). On constate que la fonction objectif est non-convexe.
Elle a également plusieurs optimum local et un minimum global au point xg = [1, 2].
(a) (b)
Figure 4.8 – La réponse de surface de la fonction objectif du modèle 4.18 et ses courbes
de niveaux.
4.2. Stratégie séquentielle directe 73
2 2 2 2 2
fmin
fmin
fmin
fmin
fmin
1 1 1 1 1
0 0 0 0 0
5 10 15 20 25 0 10 20 5 10 5 10 15 20 25 5 10 15
Cycle Cycle Cycle Cycle Cycle
2 2 2 2
1.5
1.5 1.5 1.5 1.5
fmin
fmin
fmin
fmin
fmin
1
1 1 1 1
0.5
0.5 0.5 0.5 0.5
0 0 0 0 0
5 10 15 5 10 15 20 5 10 15 5 10 15 20 25 5 10 15 20
Cycle Cycle Cycle Cycle Cycle
Métamodèle spatial POD-krigeage métamodèle krigeage
DOE ∥x∗ − xg ∥
x1∗ x2∗ fmin ∥x∗ − xg ∥
initial ∥xg ∥
1 1.0023 1.9995 0.0070 0.023 0.0010
2 1.0013 1.9998 0.0034 0.0013 0.0006
3 1.0021 1.9997 0.0056 0.0021 0.0009
4 1.0044 1.9992 0.0128 0.0045 0.0020
5 0.9999 2.0003 0.0032 0.0003 0.0001
6 0.7813 3.2087 1.3110 1.2283 0.5493
7 0.9990 2.0011 0.0118 0.0015 0.0007
8 0.7772 3.2110 1.3107 1.2313 0.5506
9 0.7872 3.2115 1.3107 1.2300 0.5501
10 1.0029 1.9989 0.0130 0.0031 0.0014
Tableau 4.1 – Tableau des variables et valeurs optimaux pour les 10 DOE initiaux.
74 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
Figure 4.10 – Les courbes de niveau de la fonction objectif du métamodèle spatial pour
10 DOE initiaux : les points noirs représentant les échantillons initiaux, les points rouges
désignent les nouveaux points rajoutés cycle par cycle, et le minimum global en vert.
où fmin est un minimum actuel qui est le meilleur point observé. L’espérance de l’amé-
lioration est définie par :
ˆ(x) ˆ(x)
( ) ( )
f min − f fmin − f
E[I (x)] = EI(x) = (fmin − fˆ(x))Φ + ŝ(x)φ (4.21)
ŝ(x) ŝ(x)
l’avantage qu’elle est beaucoup moins susceptible de fournir un optimum local qu’avec
une simple recherche sur l’approximation seulement.
Loi de Gauss
𝑁[𝑓 𝑥 , 𝑠 𝑥 ]
𝑓(𝑥)
𝑓𝑚𝑖𝑛
Amélioration
Espérance de l'amélioration
Minimum actuel I[𝑓 𝑥 ]
𝑥
Figure 4.11 – L’espérance de l’amélioration du métamodèle.
10 1
EI(x)
f(x)
0 0.5
-10 0
0 0.5 1 0 0.5 1
10 0.2
EI(x)
f(x)
0 0.1
-10 0
0 0.5 1 0 0.5 1
10 0.05
EI(x)
f(x)
-10 0
0 0.5 1 0 0.5 1
10-4
10 10
EI(x)
f(x)
0 5
-10 0
0 0.5 1 0 0.5 1
-4
10
20 20
EI(x)
f(x)
0 10
-20 0
0 0.5 1 0 0.5 1
-5
10
10 4
EI(x)
f(x)
0 2
-10 0
0 0.5 1 0 0.5 1
x x
L’optimal global x(n+1) est calculé pour le problème 4.22. Puis le modèle haute-fidélité
sera évalué une seule fois par itération (à chaque nouveau design). Les données obtenues
à partir de la validation sont utilisées pour mettre à jour le métamodèle. Cette procédure
est effectuée jusqu’à la validation d’un critère de convergence. L’algorithme EGO peut
être résumé comme algorithme 2.
5.1 2 5 1
( ) ( )
f (x) = x2 − x − x1 − 6 + 10 1 − cos(x1 ) + 10, x = [x1 x2 ]T (4.23)
4π2 1 π 8π
Cette fonction est généralement évaluée sur l’espace de paramètres D = [−5, 10] × [0, 15].
La figure 4.13 illustre la fonction de Branin et ses courbes de niveau avec les trois mi-
nima globaux, les points noirs situés à : xg = (−π, 12.275), (π, 2.275) et (9.42478, 2.475).
L’algorithme EGO est appliqué pour rechercher le minimum global. Le métamodèle
4.3. Stratégie séquentielle basée sur l’algorithme EGO 79
300
200
f(x1 ,x 2 )
100
0
15
10 10
5
5
0
x2 0 -5 x1
(a) (b)
Figure 4.13 – Fonction de Branin (a) et ses courbes de niveau (b). Les trois points noir
sont les optima globaux.
300
200
f(x)
100
0
15
10
10
5
5
0
x2 0 -5 x1
(a) (b)
350 12
Meilleure observation dans
plan d'expérience initial
300
10
250
8
Valeur evalué
200
f min
6
150
4
100
2 fmin = 0.4041
50
0 0
5 10 15 20 25 30 0 5 10 15 20 25 30
Cycle Cycle
(a) (b)
Figure 4.16 – La progression de l’enrichissement des 5 premiers cycles. Les figures repré-
sentent le métamodèle itératif à gauche. Les points noirs représentent les échantillons
initiaux. Les points verts désignent :l’enrichissement à gauche, et le global maximum de
la fonction d’espérance de l’amélioration à droite.
82 Stratégies d’optimisation basées sur l’utilisation de métamodèle
(comme dans l’exemple 4.2.5 et 4.2.5). La fonction objectif est alors écrite sous la forme :
Nd
1 ∑
fobj = dj (x) , x ∈ D (4.24)
Nd
j=1
où dj (x) est mesuré au j-ème point entre le vecteur de réponse u(x) et le vecteur cible
uc , Nd désigne le nombre de points dans le vecteur de mesure. On construit alors
le métamodèle spatial pour le champ de distance d = [d1 d2 ...dNd ]T sur l’espace de
paramètres D. La fonction objectif de prédiction est définie comme suit :
Nd
ˆ 1 ∑
fobj (x) = dˆj (x) (4.25)
Nd
j=1
La variances de l’erreur de prédiction est alors déterminée comme l’équation 3.66 (page
??) :
K
2 1 ∑ 2
ŝobj (x) = ŝk (x) (4.27)
Nd
k=1
où ŝk2 (x), k = 1, 2, ..., K est la variance de l’erreur de prédiction qui est obtenue à partir
de chaque métamodèle du coefficient POD. Finalement, la fonction d’espérance de
l’amélioration de la fonction objectif a la forme suivante :
Exemple numérique
4.8, respectivement. Le champ spatial d(x) est mesuré par d = |u(t, x) − u(t)|. La fonction
objectif est définie par :
Nd
1 ∑
fobj (x) = dj (x), avec : dj (x) = |u(tj , x) − u(tj )| (4.29)
Nd
i=1
s.t :x ∈ D = [0, 4] × [0, 4] (4.30)
La stratégie commence avec 10 échantillons initiaux choisis par une technique LCVT
et est effectuée pour 10 cas différents avec 10 DOE initiaux comme l’exemple 4.2.5. On
utilise 30 points pour enrichir l’espace de paramètres D. Ces 10 cas différent de DOE
ˆ
initiaux sont traités en utilisant les algorithmes 2 et 3. Dans le métamodèle spatial d(x)
du champ de mesure, le nombre de mode POD est choisi pour assurer que les erreurs de
troncature 3.55 soit une erreur inférieur à 0.5%. On utilise 8 modes dans l’exemple 4.2.5
pour construire le métamodèle spatial d(x). ˆ Premièrement, on observe l’évolution de
fonction d’espérance de l’amélioration pour les 5 premiers cycles des deux algorithmes
sur la figure 4.17. On voit que la zone explorée de fonction d’espérance de l’amélioration
basée sur le métamodèle spatial (à droite) a une tendance à être plus large que celle
basée sur métamodèle de krigeage (à gauche) dans chaque cycle. Particulièrement, les
deux algorithmes enrichissent l’échantillonnage de la région qui contient l’optimum
84 Stratégies d’optimisation basées sur l’utilisation de métamodèle
cas 1 cas 2
0.6 0.2
0.4
fmin
fmin
0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 3 cas 4
0.3
0.8
0.6 0.2
fmin
fmin
0.4 0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 5 cas 6
0.4 0.8
0.6
fmin
fmin
0.2 0.4
0.2
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 7 cas 8
0.2 0.6
0.4
fmin
fmin
0.1
0.2
0
0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 9 cas 10
0.3
0.6
0.2
0.4
fmin
fmin
0.1
0.2
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
EGO basé sur le métamodèle de krigeage EGO basée sur le métamodèle spatial
Figure 4.18 – Évolution de minimum actuel de deux l’algorithme pour 10 cas différents
avec 10 DOE initiaux de l’exemple 4.2.5.
86 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
global. La figure 4.18 montre l’évolution du meilleur optimum au cours des 30 cycles
correspondant 30 point échantillonné pour 10 cas différents. Généralement, on peut
constater que l’historique des itérations de l’algorithme basé sur le métamodèle spatial
est meilleur que celui basé sur métamodèle de krigeage. En particulier, cette comparaison
est montrée dans le tableau 4.2. Sauf pour le troisième cas de DOE, pour tous les autres
cas de DOE on obtient un meilleur minimum avec le critère 4.31 :
∥x∗ − xg ∥
(4.31)
∥xg ∥
Tableau 4.2 – Tableau de comparaison des variables et valeurs optimales entre l’algo-
rithme 2 et 3 pour 10 DOE initiaux différents de l’exemple 4.2.5.
cas 1 cas 2
2 2
fmin
fmin
1 1
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 3 cas 4
2 2
fmin
fmin
1 1
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 5 cas 6
2 2
fmin
fmin
1 1
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 7 cas 8
2
fmin
fmin
1
1
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
cas 9 cas 10
2
2
fmin
fmin
1 1
0 0
0 10 20 30 0 10 20 30
Cycle Cycle
Figure 4.19 – Évolution de minimum actuel de deux algorithmes pour 10 cas différent
de DOE initiaux de l’exemple 4.2.5.
88 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
spatial est construit sur le champ de réponse d’intérêt. Pour la stratégie basée l’EGO, le
métamodèle est construit sur le champ d’une mesure entre la réponse d’intérêt et un
vecteur cible. Au terme de l’analyse, en tenant compte de la définition de la fonction
objectif, on va choisir la stratégie convenable pour le problème d’optimisation.
Tableau 4.3 – Tableau de comparaison des variables et valeurs optimaux entre l’algo-
rithme 2 et 3 pour 10 cas de DOE initiaux de l’exemple 4.18.
lequel E[I(x)] est calculé par l’équation 4.21 ou 4.28. Résoudre le problème de maxi-
misation de l’espérance de l’amélioration sous contraintes EIc (x) permet de trouver le
nouveau point pour enrichir l’échantillonnage dans la région faisable. Dans le cas d’un
problème avec q fonctions contraintes d’inégalités gi ≤ 0, i = 1, 2, ..., q, l’espérance de
l’amélioration contraintes est déterminée par :
q
∏
EIc (x) = E[I (x) ∩ g1 (x) ≤ 0 ∩ ... ∩ gq (x) ≤ 0] = E[I(x)] P [gi (x) ≤ 0] (4.34)
i=1
1 1
0.8 0.8
x1x2 > 0
0.6 0.6
x2
x2
0.4 0.4
0.2 0.2
0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x1 x1
(a) (b)
L’objectif est de trouver le minimum global de la fonction de Branin modifiée f (x) 4.20
sous la fonction contrainte non linéaire g(x) 4.36. La figure 4.20(b) illustre la région
faisable définie par l’intersection de la fonction objectif f (x) et la fonction contrainte
4.36. Le minimum global réel du problème sous contraintes est xg = (0.96773, 0.20667) et
la valeur de la fonction est de 5.5757. La stratégie commence avec les 10 points du DOE
initial pour construire le métamodèle de la fonction de Branin et la fonction contrainte
sur l’espace des paramètres D = [0, 1] × [0, 1]. Ensuite, 20 points d’échantillonnage sont
ajoutés itérativement en utilisant l’algorithme 4. La figure 4.21(a) montre les courbes
de niveau du métamodèle de krigeage de la fonction objectif avec 10 points initiaux.
La figure 4.21(b) montre E[I (x)], la figure 4.21(c) montre la probabilité de satisfaire la
contrainte P [g(x) ≤ 0], et la figure 4.21(d) montre le produit de l’espérance de l’amé-
lioration contrainte 4.33. Les résultats sont illustrés sur la figure 4.22. On observe que
pour 5 des échantillons initiaux la fonction contrainte n’est pas respectée. La valeur
du minimum global est de 5.5762 au point x∗ = (0.9682, 0.2066) (le 19ème point de
4.3. Stratégie séquentielle basée sur l’algorithme EGO 91
250 1
Valeur objectif
Valeur de violation
200 0.8
Valeur objectif
150 0.6
x2
100 0.4
(a) (b)
Figure 4.22 – Les valeurs de la fonction objectif pour chaque point d’échantillonnage
(avec 10 points initiaux et 20 points de remplissage), les points marqués d’une étoile
désignent les points qui ne respectent pas la contrainte (a) et les courbes de niveau
de métamodèle de krigeage de la fonction Branin modifiée avec contrainte, les points
noirs représentent les échantillons initiaux, les points verts désignent les points de
remplissage et point magenta le minimum global (b).
min F (x) avec : F (x) = {f1 (x), f2 (x), ..., fm (x)} (4.37)
x∈D
𝑓1 𝑓1
(a) Bidimensionnel objectif du front non dominé (b) Centroïde de l’intégrale de probabilité et du bras
de moment utilisé dans le calcul EI (x)
suppose que Ns points initiaux sont générés et évalués sur les objectifs coûteux. Le front
de Pareto approximé peut-être identifié parmi les Ns points en utilisant la méthode de
tri non dominée :
j j j
P Fapprox = {f1 , f2 , ..., fm } j = 1, 2, ..., k (4.38)
où k est le nombre de points non dominés actuels et k ≤ Ns . Chaque objectif est ap-
proximé indépendamment par un métamodèle de krigeage avec la prédiction fˆi (x) et la
variance de l’erreur de prédiction ŝi (x). Au point x (i = 1, 2, ..., m) on peut donc considérer
que l’on a des grandeurs distribuées comme une loi de normale telle que :
La figure 4.23(a) illustre un exemple pour deux objectifs. On peut voir que l’espace
objectif est divisé en deux parties par le front non-dominé : zone dominée et zone
non-dominée. Le point bleu et le nuage autour du point montrent la fonction de densité
de probabilité du vecteur objectif du point d’étude. Maintenant, on va décrire les trois
fonctions d’amélioration.
4.4. Stratégie séquentielle d’optimisation multi-objectif 95
Cette fonction d’amélioration est d’abord proposée par Bautista [9], et puis modifié
par Svenson [175]. En utilisant la fonction maximin, la fonction de distance maximin
mesure la distance dans l’axe entre le vecteur objectif de x et l’approximation front de
96 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
𝑓2 𝑓2
Pareto approximé :
j
Im (x) = − max[min(fi (x) − fi )], i = 1, 2, ..., m et j = 1, 2, ..., k (4.45)
L’utilisation de la manière comme l’équation 4.43, remplacer la fonction Ie (x) par Im (x),
la définition EIm (x) peut être appliqué pour le critère de remplissage multi-objectif.
Amélioration de l’hypervolume
où le point de référence r est choisi par l’utilisateur et devrait être dominé par tous les
points de front de Pareto approximé. La figure 4.24(a) illustre l’hypervolume dans un
cas bidimensionnel. L’amélioration de l’hypervolume est illustrée sur la figure 4.24b
lorsque un point p est ajouté à le front de Pareto approximé S.
2000000 × 1 seconds
≈ 23 days (4.48)
60 × 60 × 24
cela peut même dépasser le temps d’évaluation des simulations. Zhan et al. [196] a
développé les critères de remplissage basés sur le concept de matrice de l’amélioration.
Avec le problème mono-objectif, le meilleur minimum actuel défini une direction unique,
alors qu’avec le problème multi-objectif, le meilleur minimum actuel s’est développé
dans deux directions : le nombre de points dans le meilleur minimum actuel augmente
de 1 à k et la dimension de chaque point change de 1 à m. Une matrice bidimensionnelle
du meilleur optimum actuel est de la forme :
⎡ 1 1
. . . fm1 ⎥⎥
⎤
⎢⎢f1 f2
⎢⎢ 2
⎢⎢f1 f22 . . . fm2 ⎥⎥⎥
⎥
⎢⎢ ..
⎢⎢
.. .. .. ⎥⎥⎥
⎥ (4.49)
⎢⎢ .
⎢⎣ . . . ⎥⎥⎥
f1k f2k . . . fmk
⎦
avec :
⎛ j ⎞ ⎛ j ⎞
j j ⎜⎜ f − fˆi (x) ⎟⎟ ⎜⎜ f − fˆi (x) ⎟⎟
EIi = (fj − fˆi (x))Φ ⎜⎜⎝⎜ i ⎟⎟ + ŝ (x)φ ⎜⎜
⎟ i
⎝ ŝi (x) ⎟⎠ , j = 1, 2, ..., m et j = 1, 2, ..., k (4.51)
⎜ ⎟⎟
ŝi (x) ⎠ i
j
L’élément EIi (x) dans EI M(x) représente l’espérance de l’amélioration de point x au-
delà du j-ème point de front non-dominé en i-ème objectif. La figure 4.25(a) illustre
l’exemple dans le cas bidimensionnel d’une matrice d’espérance de l’amélioration. La
j-ème ligne de la matrice EI j représente les espérances d’améliorations au-delà du j-ème
98 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
𝐸𝐼22 3 3
zone dominée
𝐸𝐼13 (𝑓1 , 𝑓2 )
𝐸𝐼23
3𝑠2 𝐸𝐼14 (𝑓14 , 𝑓24 )
3𝑠1 point j
𝐸𝐼24 5 5 points de front non-dominés
(𝑓1 , 𝑓2 ) 𝐸𝐼15 (𝑓1 , 𝑓2 )
point de référence
𝐸𝐼25 point p
𝑓1 𝑓1
(a) Bidimensionnel de matrice d’espérance de l’amé- (b) L’amélioration de l’hypervolume du point p au-
lioration delà du point j
point non-dominé dans tous les objectifs. La i-ème colonne de la matrice EIi représente
l’espérance de l’amélioration de l’objectif au-delà de tous les points non-dominés. Par
conséquence, le EI M(x) contient toutes les informations sur les améliorations attendues
du point d’étude x au-delà de tous les points de front non-dominés dans toutes les
directions. En remplaçant l’amélioration dans la fonction d’amélioration multi-objectif
par l’espérance de l’amélioration peut dériver les critères EI M(x) correspondants. De
j
plus, on remplace le terme (fi − fi (x)) dans la fonction l’espérance multi-objectif par le
j
terme EIi (x), le critère EI M(x) peut être formulé pour tous les types suivant :
— Critère EI M(x) basé sur la distance euclidienne correspond à l’amélioration de
la distance euclidienne 4.42 :
√ m
j
∑
EI Me (x) = min (EIi (x))2 , j = 1, 2, ..., k (4.52)
i=1
Le critère EI M(x) basé sur la distance maximin peut être alors donné comme suit :
j
EI Mm (x) = min[max EIi (x)], i = 1, 2, ..., m et j = 1, 2, ..., k (4.54)
La figure 4.25(b) illustre l’idée de ce critère. Le point j est un point arbitraire sur
le front non-dominé et le point p est le point d’étude. La région remplie de couleur
plus foncée indique l’amélioration de l’hypervolume du point p lorsque seul le
point j est considéré sur le front non-dominé. Ensuite, on peut calculer le k (k est
le nombre de points de front non dominés) des améliorations de l’hypervolume en
considérant chaque point sur le front non dominé en même temps. L’amélioration
de l’hypervolume modifié est définie comme étant le minimum des k améliora-
tions de l’hypervolume. A première vue, l’amélioration de l’hypervolume modifié
semble plus coûteuse à calculer, heureusement, l’amélioration de l’hypervolume
est analytique quand on ne considère qu’un seul point frontal non-dominé. Par
conséquent, l’amélioration de l’hypervolume au point f (x) peut être calculé dans
la forme fermée :
⎡ m m
⎤
⎢⎢∏ j
∏ ⎥⎥
Ihm = min ⎢⎢⎢⎣ (ri − fi (x)) − (ri − fi )⎥⎥⎥⎦ , j = 1, 2, ..., k (4.56)
i=1 i=1
j j
On remarquera que −fi (x) = (fi − fi (x)) − fi . Ensuite, le critère EI M(x) basé sur
l’amélioration de l’hypervolume s’écrit comme suit :
⎡ m m
⎤
⎢⎢∏ j j j ⎥
∏
EI Mh (x) = min ⎢⎢⎣ (ri + EIi (x) − fi ) − (ri − fi )⎥⎥⎥⎦ , j = 1, 2, ..., k (4.57)
⎢ ⎥
i=1 i=1
L’implémentation de ces critères est plus simple que les critères proposés dans [175], [54],
[34], [73],ils permettent de réduire la complexité dans le calcul des critères. Néanmoins,
les matrices d’espérances de l’amélioration ne donnent pas d’informations complètes sur
la mesure dans laquelle le point d’étude peut améliorer le front de Pareto approximé.
q [ ( )]
j
∏ 0 − ĝi (x)
CEI Mm (x) = min[max EIi (x)] × Φ
ŝg,i (x) (4.60)
i=1
i = 1, 2, ..., m et j = 1, 2, ..., k
et
⎡ m m
⎤ q [ ( )]
⎢⎢∏ j j
∏ j ⎥⎥ ∏ 0 − ĝi (x)
CEI Mh (x) = min ⎢⎢⎣ (ri + EIi (x) − fi ) −
⎢ (ri − fi )⎥⎥⎦ ×
⎥ Φ
ŝg,i (x) (4.61)
i=1 i=1 i=1
j = 1, 2, ..., k
F=5 kN
stratégie basée sur ces trois critère de remplissage, on traite l’exemple d’optimisation
multi-objectif d’une poutre console proposé par Nowacki [135]. Le but est de concevoir
une poutre encastrée (voir figure 4.26) dont on cherche à minimiser la section transver-
sale et la contrainte de flexion soumise à un certain nombre de contraintes. La longueur
de la poutre est l= 1.5m. A l’extrémité de la poutre on impose une charge F= 5 kN. La
section de la poutre est rectangulaire, de largeur b et de hauteur h ce qui donne une
section transversale A = h × b. La conception doit satisfaire les critères suivants :
Fl 3 bh3
— une déviation maximale de l’extrémité chargée, λ = 3EIY , de 5 mm, où IY = 12 et
E le module d’Young du matériau ;
4.4. Stratégie séquentielle d’optimisation multi-objectif 101
Flh
— une contrainte mécanique maximale admissible, σB = 2IY , égal à la limite d’élasti-
cité du matériau σY ;
3F
— une contrainte de cisaillement maximale admissible, τ = 2bh , égal à la moitié de la
limite d’élasticité du matériau ;
— un rapport hauteur/largeur maximum h/b pour la section transversale de 10 ;
√
— la force de rupture pour le flambement de torsion FCrit = l 2 GI1−ν
4 T EIZ
, doit être
supérieur à la force de pointe multipliée par un facteur de sécurité F, de deux, où
3 3 3
IT = b h+bh
12 et Iz = b12h
Le matériau utilisé est l’acier doux avec une limite d’élasticité de σY = 240 MPa, Mo-
dule d’Young E = 216.62 GPa, ν = 0.27 et module de cisaillement calculé comme
G=86.65 GPa. L’objectif est de trouver le minimum de section transversale et contrainte
de flexion avec la hauteur h change de 20 mm à 250 mm et la largeur change de 10 mm
à 50 mm. Le problème d’optimisation multi-objectif sous contraintes peut être écrit
comme suit :
La figure 4.27 montre les deux fonctions objectifs varie avec le normalisé h et b, en
combinant les contraintes, on peut représenter la région faisable. Clairement, il doit y
avoir un compromis entre les contraintes de flexion minimales et les solutions de sections
transversales minimales. Le front de Pareto a besoin d’être identifié dans ce problème. La
stratégie d’optimisation commence avec 10 échantillons initiaux tirés selon la technique
LCVT et 30 échantillons qui seront ajoutés par les critères de remplissage CEI M(x).
Le budget total d’évaluation des fonctions est donc de 40 évaluations du modèle. Les
résultats sont montrés sur la figure 4.28. Le front de Pareto est représenté par la courbe
noire, les points rouges, bleus et verts désignent le front de Pareto approximé obtenu
par le critère de remplissage CEI Me (x), CEI Mm (x) et CEI Mh (x) respectivement. On
trouve qu’il a 21 solutions de Pareto obtenue dans les critères CEI Me (x), CEI Mh (x) et
CEIMm (x) donne 22 solutions de Pareto. Dans ces trois cas, le front de Pareto décrit
clairement le compromis entre les deux objectifs. La figure 4.29 montre les échantillons
sélectionnés pour le problèmes de poutre de Nowacki. On voit qu’il y a trois échantillons
de remplissage qui ne sont pas dans la région faisable. C’est-à-dire que les trois valeurs
objectifs associées à ces trois points n’ont pas satisfait les fonctions contraintes. Il
convient de se prémunir contre les erreurs de la chaîne de simulation automatique qui
se traduisent par l’absence de résultats pour certains points d’évaluation. Si les points
102 CHAPITRE 4. Stratégies d’optimisation basées sur l’utilisation de métamodèle
8 8 8
B
B
B
6 6 6
4 4 4
2 2 2
0 0 0
2 4 6 8 10 12 2 4 6 8 10 12 2 4 6 8 10 12
A 10 -3 A 10-3 A 10-3
(a) Critère CEIMe (x) (b) CEIMm (x) (c) CEIMh (x)
d’évaluation sont choisis à l’aide d’un plan d’expériences décidé, ces erreurs ne posent
pas de problème, si l’on excepte le gaspillage de ressources associées. En revanche, si
l’on choisit la nouvelle évaluation en fonction des résultats des précédentes à l’aide de
l’espérance de l’amélioration, il faut affecter une valeur fictive au résultat de l’évaluation
qui a échoué. Il serait aussi souhaitable de prendre en compte l’échec de l’évaluation
pour estimer progressivement le sous-ensemble sur lequel les évaluations échouent.
Cependant, l’expérience montre que cet ensemble peut être non convexe et de forme
complexe. Il apparaît en fait que le seul principe à respecter est d’éviter d’évaluer la
fonction au voisinage d’un point qui a précédemment échoué. Pour cela, nous proposons
d’affecter aux évaluations qui ont échoué leur prédiction obtenue par le métamodèle à
partir des résultats disponibles, et de les mettre à jour à chaque fois qu’une évaluation
réussit. Forrester et al. [55] ont proposé une approche des données manquantes qui
permet de détourner l’échantillonnage des points qui conduisent à des échecs, tout en
4.4. Stratégie séquentielle d’optimisation multi-objectif 103
4.5 Conclusion
Dans ce chapitre, on a développé des stratégies d’optimisation permettant de traiter
les problèmes d’optimisation des fonctions couteuses. Ces stratégies sont basée sur le
métamodèle spatial qui est présenté dans le chapitre 3.
Ce chapitre a aussi abordé les approches pour les problèmes d’optimisation non-
linéaires et d’optimisation multiobjectif sur la base les critères de remplissage d’espace
des variables. Ces critères, inspirés de plusieurs travaux scientifiques précédant, sont
réécrits et utilisés efficacement pour les exemples d’optimisation.
Dans le chapitre suivant, ces stratégies d’optimisation seront appliquées pour d’autres
cas de procédés de mise en forme.
Chapitre 5
Applications à l’optimisation de
procédés de mise en forme
Sommaire du chapitre
5.1 Introduction 106
5.2 Optimisation du procédé d’emboutissage d’une tôle en U 106
5.2.1 Description du problème d’emboutissage . . . . . . . . . . 107
5.2.2 Modélisation du procédé d’emboutissage par éléments finis 107
5.2.3 Stratégie d’optimisation pour la forme après retour élastique 112
5.2.4 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3 Contrôle optimal d’un procédé d’hydroformage de tube en Y 120
5.3.1 Description du procédé d’hydroformage du tube en forme de
Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.3.2 Modélisation par des éléments finis du procédé d’hydrofor-
mage en forme de Y . . . . . . . . . . . . . . . . . . . . . . 127
5.3.3 Validation du modèle numérique . . . . . . . . . . . . . . . 134
5.3.4 Stratégie de contrôle optimal du procédé d’hydroformage . 138
5.4 Optimisation des surfaces additionnelles pour le procédé d’em-
boutissage 148
5.4.1 Conception des surfaces additionnelles . . . . . . . . . . . . 149
5.4.2 Description d’Approche Inverse . . . . . . . . . . . . . . . . 151
5.4.3 Simulation d’emboutissage avec SIMEX™ . . . . . . . . . . 152
5.4.4 Optimisation des surfaces additionnelles et du volume de
l’outillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.4.5 Résultats d’optimisation et discussion . . . . . . . . . . . . 156
5.5 Conclusion 162
105
CHAPTER 4
Plan de symétrie
W1
G1
W3
rp
Épaisseur
Serre-flan Poinçon Serre-flan Tôle
Matrice Matrice
rd
W4
W2
les profils de pièces restent symétriques tout au long du processus de fabrication sur
la figure 5.1. Pour cette application, les effets de retour élastique ont déjà été étudiés
dans le cadre d’une optimisation robuste avec un métamodèle [130]. Dans notre travail,
l’objectif de l’étude est d’optimiser certains paramètres du procédé pour réduire au
maximum les variations de forme dues au retour élastique de la tôle. Cette optimisation
est effectuée par les stratégies séquentielles directes et basée sur l’EGO développées
précédemment.
Paramètres W1 W2 W3 W4 G1
Dimensions 50.0 54.0 89.0 89.0 2.0
[enmm]
modélisation du procédé d’emboutissage 3D sont montrés sur la figure 5.3. La tôle est
discrétisée par un maillage de 1935 éléments coques S4R avec 7 points d’intégration.
Les outillages sont considérés comme rigides. Les conditions aux limites appliquées sur
les outils sont illustrées sur la figure 5.3. Le déplacement du poinçon et du porte-flan est
une translation selon l’axe Z, les autres degrés de liberté (DOF) sont bloqués. La matrice
est complètement encastrée. Une condition de symétrie est appliquée sur la moitié du
profil de la tôle dans laquelle la translation le long de l’axe X, les rotation autour des
axes Y et Z sont bloquées. La force du serre-flan reste constante pendant le procédé
d’emboutissage. L’interaction de contact est modélisée en utilisant la méthode de mise
Poinçon
E,µ,Re,Rm
Serre flan
rp
Z
Y X
rd
Matrice
Plan de symétrie
en application de contact par pénalisation. Le frottement entre les outils et la tôle est
basé sur un modèle de Coulomb. Dans la forme de base du modèle de frottement de
Coulomb, deux surfaces de contact peuvent porter des contraintes de cisaillement avant
qu’elles ne commencent à coulisser l’une par rapport à l’autre. Le modèle de frottement
de Coulomb est défini par :
τcrit = µp (5.1)
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 109
Loi de comportement
Le modèle comportement élastoplastique de type Swift, avec un écrouissage isotrope
[176] est utilisé. Le critère de plasticité f qui est basé sur la norme de contrainte de
Hill’48 [71], σ̄ et l’écrouissage anisotrope R ainsi que la fonction de Swift sont décrits
comme suit :
avec :
et
Le comportement des tôles laminées s’inscrit le plus souvent dans le cadre d’une aniso-
tropie orthotrope pour laquelle le repère (X, Y , Z) s’identifie par :
— X : la direction de laminage,
— Y : la direction perpendiculaire à la direction de laminage,
— Z : la direction normale au plan de la tôle
Classiquement, le coefficient de Lankford r comme étant une mesure du rapport de la
déformation plastique latérale ε22 sur la déformation plastique en épaisseur ε33 d’une
éprouvette en traction uniaxiale :
ε22
r= (5.6)
ε33
110 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Coefficient F G H L M N
DP780 0.4640 0.5615 0.4385 1.5000 1.5000 1.5926
r0 + 2r45 + r90
r̄ = (5.7)
4
et un écart ∆r :
r0 − 2r45 + R90
∆r = (5.8)
4
Lorsque (r̄ , 1 et ∆r , 0) on parle d’anisotropie transverse. Dans le cas particulier où
(r̄ , 1 et ∆r = 0), on parle alors d’anisotropie normale (ou orthotropie de révolution, ou
encore isotropie plane) qui traduit une isotropie du comportement dans le plan de la
tôle, et une anisotropie dans la direction de l’épaisseur (r̄ , 1). Enfin, le cas isotrope
est retrouvé pour r0 = r45 = r90 = 1, autrement dit (r̄ = 1 et ∆r = 0). Finalement, les
coefficients d’anisotropie dans l’équation 5.5 peuvent être exprimés par :
r0 1 r F +G
F= ,G= , 0 , (1 + 2r45 ) (5.9)
r90 (1 + r0 ) 1 + r0 1 + r0 2
Dans la référence Numisheet 2011 [161], les mesures expérimentales sont rapportées
et comparées à l’ensemble des résultats de plusieurs résultats de simulation. La figure
5.4 montre le profil du retour élastique de notre modèle pour les données du maté-
riaux DP780 du tableau 5.3. Les paramètres procédés sont réglés comme le référence
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 111
80
Données expérimentales
Simulation EF
Z-coordonnée (mm) 60
40
20
0
0 20 40 60 80 100 120
X-coordonnée (mm)
Figure 5.4 – Comparaison entre nos résultats de simulation EF et des mesures expéri-
mentales de Numisheet 2011[161].
Paramètres Valeurs
Module de Young E 198.8 GPa
Coefficient de poisson ν 0.3
Densité 7800 kg/m3
La constante K 1278.793 MPa
Coefficient d’écrouissage n 0.142
Pré-déformation ε0 0.0027
Limite élastique Re 550 MPa
Résistance à la rupture 840 MPa
Allongement uniforme 13.1 %
Coefficient de frottement 0.1
donne de bons résultats pour la configuration des paramètres. Le profil des résultats
de la simulation EF semble être très proche des résultats expérimentaux du Numisheet
2011. Il est bien sûr trop coûteux d’obtenir les mesures expérimentales pour une large
gamme de valeurs de paramètres. On peut donc utiliser dans le modèle EF pour explorer
la réponse physique et en particulier en termes de retour élastique. Dans le processus
d’optimisation itératif développé plus loin, il est supposé que le modèle numérique
donne une réponse cohérente et prédit correctement l’état final de la tôle emboutie après
retour élastique.
112 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
0
0
-20 -20
-40 -40
Z
(a) (b)
Figure 5.5 – Méthode d’évaluation de la forme après retour élastique : (a) Exemple de
forme en U après retour élastique, (b) Les distances à partir des nœuds sur la surface de
l’outillage.
l’outillage. Ainsi, il convient de mesurer et minimiser l’écart entre la forme après retour
élastique et la surface de l’outillage. En d’autres termes, on va chercher à minimiser la
distance moyenne à partir des nœuds de la tôle après retour élastique sur la surface de
l’outillage. Par conséquent, la formulation de la fonction objectif après retour élastique
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 113
où di (u(x)) est la distance à partir du i-ème nœud sur la surface de l’outillage au point
de variable x, u(x) peut être vu comme champ de coordonnée des nœuds, et Nd désigne
le nombre de nœud. Pour chercher le point projeté et calculer la distance, la surface
de l’outillage est maillée par des éléments triangulaires. La surface de référence a un
maillage adapté à la forme cible. La distance entre les nœuds et la surface de référence
est la distance minimale entre ce nœud et l’élément le plus proche de la surface. La
procédure de calcul de cette distance, obtenue une projection du nœud sur la surface de
l’élément a été proposée par Labergère [94] et est décrite dans l’annexe A.3. Dans le cas
d’application de l’emboutissage en U, la surface de l’outillage est maillée par Abaqus,
grossièrement dans une zone plane et plus finement dans les zones courbes. La figure
5.5a montre le calcul de la distance. Les points bleus représentent les nœuds après
retour élastique, leur points projetés sur la surface de l’outillage sont désignés par les
points rouges. Pour observation, on n’extrait que les centres des nœuds du maillage de
la tôle. La fonction objectif approchée est alors définie par :
Nd
1 ∑
fˆ(x) = di (û(x)) (5.11)
Nd
i=1
Evaluer
Utiliser
les modèles Construire le
le critère de Exécuter
Rd EF⎡ initiaux ⎤ : métamodèle Critère Conception
⎢⎢ u(x1 ) ⎥⎥ remplissage simulation EF
FBHF spatial d’arrête Oui optimale
⎢⎢ : ⎥⎥⎥
⎢⎢ ⎥ pour pour x̂∗
û(x)
⎢⎣ N ⎥⎦
u(x s ) trouver x∗
Non
Mise à jour
avec u(x̂∗ )
La figure 5.6 illustre la stratégie pour l’optimisation de forme après retour élastique.
Le processus d’optimisation commence avec 10 simulations du modèle EF associée avec
Ns échantillons initiaux pour construire le métamodèle spatial. Ensuite, la stratégie
séquentielle est basée sur l’algorithme 1 ou 3 à travers deux étages. Dans le premier stage,
le procédé d’emboutissage en U est effectué par Abaqus-CAE™ STANDARD combiné
avec des sous-routines de l’écrouissage UHARD et VUHARD, respectivement pour le
solveur implicite dynamique et statique explicite. Le calcul dure 1h45 pour chaque
solveur avec 4 cœurs en parallèle sur une machine avec un Intel Core i7-4910 CPU à
2.9GHz. Dans le deuxième stage, le métamodèle spatial est construit. La résolution du
sous-problème séquentiel est ensuite effectuée par Matlab. Toute la procédure est implé-
mentée dans Matlab avec une interface à Abaqus. Le processus d’optimisation s’arrête
lorsque les critères d’arrêt définis par 4.11 sont satisfaits. Ici, on règle les paramètres de
l’algorithme à εf et ε à 1 %.
5.2.4 Résultats
Le processus d’optimisation séquentielle s’effectue suivant l’algorithme 1 et est
initialisé par 10 simulations EF associées avec 10 échantillons initiaux par la technique
LCVT. On construit la POD pour la matrice de cliché de ces 10 simulations. La figure
5.7 montre les valeurs propres et les erreurs de troncature dans la décomposition par
POD. On se rend compte que l’erreur de troncature ϵ(K) atteint une valeur de 2.10−4
lorsqu’on capture les quatre premiers modes. Par conséquence, on utilise les quatre
premiers modes pour construire le métamodèle spatial.
Remarque : Quatre modes seront toujours choisis pour la construction du métamodèle
spatial tout au long le processus d’optimisation. Les erreurs de troncatures varient très
peu après avoir enrichi le plan d’expérience avec un nouveau point d’évaluation du
modèle EF. Les fonctions de base POD sont mise à jour à chaque cycle.
5.2. Optimisation du procédé d’emboutissage d’une tôle en U 115
1010 10-3
5
4
105
Valeur propre k
(K)
100
-5
10
1
10-10 0
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
Mode Mode
(a) Les valeurs propres (b) Les erreurs de troncature
Figure 5.7 – Les valeurs propres et les erreurs de troncature pour la POD de l’ensemble
des simulations EF initiales.
9000
16
Evaluation de valeur objectif
14
14 Valeurs objectifs initiaux
8000
Valeur objectif (mm)
12
12
7000
10
F BHF (N)
10
8 6000 8
6 6
5000
4 Courbes de niveau
4
4000 Conception initiale
2 Conception itérative 2
Conception optimale
0 3000
0 2 4 6 8 10 12 14 16 18 2 2.5 3 3.5 4
Simulation EF Rd (mm)
(a) Evolution des valeurs objectifs (b) Trajectoire de convergence de la fonction objectif
La figure 5.8a montre les évolutions des valeurs de la fonction objectif au cours des
itérations. Les points rouges désignent les valeurs de l’ensemble des simulations EF
du plan d’expérience initial. La conception optimale est atteinte après 17 simulations
EF pour un temps total d’environ 30h de calcul. La figure 5.8b montre les courbes de
niveaux de fonction objectif du métamodèle spatial avec les points noirs qui représentent
les échantillons initiaux qui sont fait par le pré-calcul EF. Les points vers désignent
les points ajoutés, et la conception optimale est trouvée au point magenta de valeur
Rd =2.076 mm, FBHF = 6237 N, la valeur optimale de la fonction objectif est de 0.386 mm.
L’évolution de la forme de la tôle après retour élastique est montrée sur la figure 5.9 qui
116 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
(a) Meilleure conception dans l’ensemble initial (b) 11ème simulation Rd =2.00 mm, FBHF =6665 N
(c) 12ème simulation Rd =2.355 mm, FBHF =6969 N (d) 13ème simulation Rd =2.072 mm, FBHF =6468 N
(e) 14ème simulation Rd =2.073 mm, FBHF =6642 N (f) 15ème simulation Rd =2.071 mm, FBHF =6088 N
(g) 16ème simulation Rd =2.073 mm, FBHF =6237 N (h) 17ème simulation Rd =2.076 mm,FBHF =6005 N
10
-10
Z-coordonnée (mm)
-20
-30 0.5
0
-0.5
-40
100 101
5.9 montre la meilleure conception dans l’ensemble de simulations initiales est la 6ème
simulation (voir la figure 5.8a). Les figures 5.9a-h montre la conception itérative de la
forme de la tôle après retour élastique. Leur profils d’évolution sont tracés sur la figure
5.10.
figure 4.3). On compare les résultats obtenus avec la stratégie séquentielle directe et ceux
obtenus avec le métamodèle de krigeage seul pour la fonction objectif. Le tableau 5.4
montre cette comparaison. On voit que l’utilisation du métamodèle spatial exige moins
de simulations que l’utilisation du métamodèle de krigeage quelque soit le DOE initial.
De plus, les valeurs minimums obtenues sont meilleures lorsqu’on utilise le métamodèle
spatial.
Discussion
1 1
fmin
fmin
0.5 0.5
0 10 20 30 40 0 10 20 30 40
Cycle Cycle
1
0.6
fmin
fmin
0.5 0.4
0 10 20 30 40 0 10 20 30 40
Cycle Cycle
1 1
fmin
fmin
0.5 0.5
0 10 20 30 40 0 10 20 30 40
Cycle Cycle
0.8
0.6
fmin
fmin
0.6
0.4
0.4
0 10 20 30 40 0 10 20 30 40
Cycle Cycle
1.5
0.6
fmin
fmin
1
0.4
0.5
0 10 20 30 40 0 10 20 30 40
Cycle Cycle
compare avec le métamodèle de krigeage seul. Les résultats montrent que le métamodèle
spatial est plus efficace par rapport que le métamodèle de krigeage.
Bien que les problèmes de contrôle du procédé puissent être considérés comme des
problèmes d’optimisation, on fait ici la distinction entre les deux en nous basant sur
le fait que les problèmes de contrôle vont essentiellement concerner des paramètres
évoluant au cours du procédé. Il s’agit donc ici de déterminer non pas une valeur pour
chaque paramètre du procédé mais de déterminer des lois de commandes (pression de
fluide, déplacement des pistions...) qui dépendent du temps.
Contre-piston
Pression interne
Poinçons axiaux
Counter Punch
Contre-poinçon
Axis (no de contre-poinçon
Axe (pas
counter
attaché)punch
attached)
Right Punch
Poinçon droit
Leftgauche
Poinçon Punch
Y-shape
Forme de Y
a)
Sealing d'étanchéité
Distance Distance
5 mm Tubede
Flan Blank
tube
1.5 mm
LLO LRO
b)
Y-shape
Forme de Y
Hp
40 mm 80 mm
c)
LLO LRO
Figure
Figure 3.2:– Procédure
5.14 Y-shape hydroforming
du procédé process procedure [SPS,
d’hydroformage Germany]
en forme de Y (SPS, Allemange).
22
124 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Dp
D
t0
LL0 LR0
da L da R
α
LL1 LR1
Limite de pression interne : Une pression interne (Pi )y est utilisé pour générer une
poussé radiale sur la paroi interne du tube. La pression maximale acceptée par un tube
avant son éclatement varie en fonction du matériau et de la géométrie du tube. Une
équation pour approximer cette pression d’écoulement est dérivée à partir d’un modèle
d’expansion axisymétrique simple d’un tube avec des extrémités fixes :
2t0
(Pi )y = σy (5.12)
D 0 − t0
4t0
(Pi )b = σu (5.13)
D p − t0
contre-poinçon
poinçon axial
matrice
tube
Maillage de matrice
Maillage de contre-poinçon
Maillage de Tube
considérés comme rigides et modélisés avec une géométrie analytique. Les conditions
aux limites appliquées sur les outils sont illustrées sur la figure 5.17b. Tous les degrés
de liberté (DOF) de la matrice sont bloqués. Les pistons axiaux peuvent translater selon
l’axe Z, les autres DOF sont bloqués. Le contre-piston se déplace selon un axe incliné à
60◦ et les autres DOF sont bloqués. Une condition aux limites de symétrie est appliquée
sur la moitié du tube dans laquelle la translation Y et Z, la translation et la rotation
autour de l’axe X sont bloquées. Les déplacements des pistons axiaux et du contre-piston
sont contrôlés chacun par une loi de commande différente. Le modèle de frottement de
Coulomb est utilisé avec un coefficient de frottement statique égal à 0 05.
Modèle de comportement
Le modèle de comportement utilisé pour le procédé d’hydroformage a été développé
au sein du laboratoire LASMIS. Il s’agit d’un comportement élasto-plastique couplé à
l’endommagement ductile qui est représenté par des couples de variables d’état suivants :
F conduit à obtenir les relations d’évolution. Les relations d’évolution sont calculées de
telle manière que l’inégalité résiduelle de Clausius-Duhem est a priori identiquement
satisfaite. Les relations d’évolution (le taux de déformation plastique D P , la vitesse
de déformation d’écrouissage cinématique α̇, la vitesse de déformation d’écrouissage
isotrope ṙ et l’évolution de l’endommagement d˙ sont donnés par :
∂F
D P = λ̇ = λ̇np (5.26)
∂σ
λ̇
α̇ = √ (nx − aα) (5.27)
1−d
ni
( )
ṙ = λ̇ √ − br (5.28)
1−d
[ ]s
˙ λ̇ ⟨Y − Y0 ⟩
d= (5.29)
(1 − d)β S
(a) (b)
Figure 5.18 – Les composants d’essai (a) et la procédure d’essai de gonflement hydrau-
lique (b)
Pi
hi
ont été utilisées dans les simulations du procédé d’hydroformage en forme de Y dans le
cadre de ce travail.
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 133
50
40
Point d'éclatement
Pression (MPa)
30
20
10 Déformation commence
0 Données expérimentales
Simulation EF
-10
0 2 4 6 8 10 12
Hauteur de gonflement (mm)
Figure 5.20 – La pression par rapport à la hauteur du gonflement mesurée à partir des
expériences de gonflement de SS304 et la simulation EF pour les paramètres du modèle
dans tableau 5.7 (avec 50 mm de diamètre et t0 =1.5 mm d’épaisseur).
1000
900
Contrainte effective (MPa)
800
700
600
500
400
300
200
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
Déformation effective
Paramètres Valeurs
Module de Young 220 GPa
Coefficient de poisson ν 0.29
Limite élastique σy 260 MPa
Écrouissage cinématique C 2900 MPa
Écrouissage isotrope Q 2800 MPa
Densité 7800 kg/m3
La constante a 55
La constante b 4.0
Pré-déformation 0.06
S 3.5 MPa
Coefficient s 1.2
Endommagement critique dc 0.98
β 2.0
Y0 0.8 MPa
Tableau 5.7 – Paramètres du modèle pour l’acier SS304 utilisés dans la simulation
numérique.
1400 90
80
1200
70
800 50
600 40
30
400
20
200 Déplacement axial droit
10
Déplacement axial gauche
0 0
0 5 10 15 0 5 10 15
t(s) t(s)
140
La courbe de force de contre-poinçon
Déplacement de contre-poinçon (mm)
100 20
80 15
60
10
40
5
20
0 0
2 4 6 8 10
t(s)
(a) Temps=0s
(b) Temps=5s
(c) Temps=11s
(d) Temps=15s
2.6
2.4
2.2
Épaisseur (mm)
1.8
1.6
1.4
1.2
EXP( 2 échantillons)
Simulation EF
1
0 50 100 150 200
Position axiale (mm)
Formulation du problème
j+1 j+1
où α est le coefficient de pondération. xj+1 = (dL , dR , pj+1 ), Ne désigne le nombre
d’éléments du tube hydroformé et où h0 représente l’épaisseur initiale et hi (xj+1 ) repré-
sente l’épaisseur de l’élément i. Cette fonction prend en compte l’amincissement par le
5.3. Contrôle optimal d’un procédé d’hydroformage de tube en Y 139
Le plan d’expériences est effectué pour ces trois incréments dans l’espaces de conception
D = [0, ∆dLmax ] × [0, ∆dRmax ] × [0, ∆pmax ]. Dans chaque étape, le métamodèle spatial de
l’épaisseur est construit avec les 20 échantillonnages dans l’espaces des paramètres D.
En résolvant le problème d’optimisation basé sur le métamodèle spatial, on trouve une
valeur optimale de l’incrément. La figure 5.26 illustre une évolution de la pression à
l’étape j +1 qui est la somme de la pression pj à l’étape j et ∆popt , la solution trouvée dans
l’intervalle [0, ∆pmax ]. La figure 5.27 montre le plan d’expérience pour trois paramètres
en normalisé. Les incréments maximaux des paramètres sont réglés à 17 mm pour le
déplacement du piston à droite, à 12 mm pour le déplacement du piston à gauche et
à 15 MPa pour la pression interne. Leurs valeurs limites sont respectivement réglés à
85 mm, 45 mm et 130 MPa.
140 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
𝑝
𝑝max
𝑝𝑗+1
∆𝑝max
∆𝑝opt
𝑝𝑗
𝜏
0 𝜏𝑗 𝜏𝑗+1 𝜏max
Figure 5.26 – Exemple pour une évolution dans la procédure du contrôle optimal
0.8
p(Normalisé)
0.6
0.4
0.2
0
1
0.5 0.8 1
0.4 0.6
DL (Normalisé) 00 0.2
d R (Normalisé)
Remarque : l’espace des paramètres D peut-être changé dans les dernières étapes.
Dans le cas de l’étape courant, la distance entre la valeur initiale et la valeur limite de
n’importe quel paramètre est plus petit que son incrément maximum ∆max , la borne
supérieure ∆max sont alors identifiées par le différence entre sa valeur initiale et sa
valeur limite.
Résultats obtenus
La figure 5.28 montre l’évolution des formes du tube par rapport au facteur de
chargement au cours du procédé d’hydroformage. La figure 5.29 montre les évolutions
des trois paramètres de contrôle (dR , dL et p) par rapport au facteur de chargement τ.
Pour voir le comportement de l’évolution du contrôle par rapport aux paramètres du
procédé, on a considéré, par exemple, l’étape 2. Les figures 5.30-5.33 nous montrent
l’évolution de l’approximation par rapport aux paramètres de l’étape 2 au cours du
contrôle. Ces figures visualisent l’approximation de la fonction objectif fobj , la zone
faisable prédite, la probabilité de faisabilité de la solution Px et l’approximation de
la fonction objectif avec les contrainte fc prédites par rapport dR (normalisé) et dL
(normalisé) correspondant à différentes valeurs de p (normalisé). Pour p(normalisé) =
0.25, on observe que la région faisable de la solution n’existe pas (voir la figure 5.30b).
La probabilité de faisabilité est très faible (voir 5.30c). L’approximation de la fonction
objectif avec les contraintes ne change pas par rapport de l’approximation de la fonction
objectif. Pour p(normalisé) = 0.5, on voit que la région faisable prédite apparait un peu.
La probabilité de faisabilité augmente dans la zone faisable. La figure 5.30d visualise
l’approximation de la fonction objectif avec les contraintes et son optimum dans la zone
faisable. Lorsque la valeur p(normalisé) augmente à 0.75, la région faisable augment
plus large (voir la figure 5.32b), la probabilité de faisabilité est aussi plus grande (voir la
figure 5.32c). Enfin, la figure 5.33 visualise l’évolution de l’approximation par rapport dR
(normalisé) et dL (normalisé) à la valeur p(normalisé) = 1. On voit clairement la région
faisable est plus grand. Dans cette étape, l’optimum est trouvé au point x∗ = (0.9356,
0.5655, 0.7276) correspondant à valeurs de l’incrément : 15.9055 mm de déplacement
axial à droite, 6.7259 mm de déplacement à gauche et 17.4625 MPa. On se rend ainsi
compte qu’une montée important de pression et le déplacement axial à droite provoque
toujours une augmentation de la fonction objectif qu’à certains stades du procédé.
50
80
70 40
60
30
50
40
20
30
20
10
10 Loi de commande empirique Loi de commande empirique
Loi de commande contrôlée Loi de commande contrôlée
0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)
(a) (b)
140 104
3.5
Loi de commande empirique
120 3 Loi de commande contrôlée
Pression interne (MPa)
100 2.5
80 2
1.5
60
1
40
0.5
20 Loi de commande empirique
Loi de commande contrôlée 0
0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)
(c) (d)
10-4 1
d L (normalisé)
2
0.5
1
1
1
0.5 0.5 0
0 0 0 0.2 0.4 0.6 0.8 1
d L (normalisé) d R (normalisé) d R (normalisé)
(a) (b)
10-4
0.05 2
0 1
1 1
1 1
0.5 0.5 0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)
(c) (d)
10-4 1
Région faisable prédite
d L (normalisé)
2
0.5
1
1
1
0.5 0.5 0
0 0 0.2 0.4 0.6 0.8 1
0
d L (normalisé) d R (normalisé) d R (normalisé)
(a) (b)
10-4
0.5 2.5
2
1.5
0 1
1
1 0.5
0.5 0.5 1 1
0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)
(c) (d)
10-4 1
Région faisable prédite
d L (normalisé)
3
0.5
2
1
1
0.5 0.5 0
0 0 0 0.2 0.4 0.6 0.8 1
d L (normalisé) d R (normalisé) d R (normalisé)
(a) (b)
10-4
1 3
0.5 2
1
0
1
1 0
0.5 0.5 1 1
0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)
(c) (d)
1
10-4
Région faisable prédite
d L (normalisé)
3
0.5
2.5
2
1
1
0.5 0
0.5 0 0.2 0.4 0.6 0.8 1
0 0
d L (normalisé) d R (normalisé) d R (normalisé)
(a) (b)
10-4
0.5 2
1
0
1 0
1 1
0.5 1
0.5 0.5 0.5
0 0 0 0
d L (normalisé) d R (normalisé) d L (normalisé) d R (normalisé)
(c) (d)
104 105
3 2
Contrainte pour l'effort du contre-piston Effort du piston axial à droite
2.5 Effort du contre-piston contrôlé
1.5
2
Effort (MPa)
Effort (N)
1.5 1
1
0.5
0.5
0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)
104 0.012
16
Effort du piston axial à gauche Valeur maximale de l'endommagement
14
0.01
12
Endommagement
0.008
10
Effort (N)
8 0.006
6
0.004
4
0.002
2
0 0
0 2 4 6 8 10 12 0 2 4 6 8 10 12
Facteur de chargement (s) Facteur de chargement (s)
(c) Evolution de l’effort du pistion à gauche (d) Evolution d’une valeur maximale de l’endomma-
gement
2.4
2.2
Épaisseur (mm)
1.8
1.6
1.4
Figure 5.35 – Évolution de la variation de l’épaisseur obtenue avec une loi de commande
contrôlée et comparée à celle obtenue avec une loi de commande empirique
(a) (b)
Figure 5.36 – Répartition de l’épaisseur obtenue avec une loi contrôlée (a), Répartition
de l’épaisseur avec une loi empirique (b)
148 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
La génération des surfaces additionnelles (SA) avec DieAdd™ nécessite la forme (S0 ) de
la pièce finale de l’aide de safrane (voir figure 5.39) et à réaliser et plusieurs paramètres
2. http ://simtech.fr
eface design
"métiers" relatif aux procédés. La forme (S0 ) est définie via un maillage surfacique de
type NASTRAN™ dans un fichier *.nas, tandis que l’ensemble des paramètres "métiers"
est précisé dans un fichier *.cfg.
Le logiciel DieAdd™ génére trois types de surfaces additionnelles comme le montre
la figure 5.37). Les surfaces de mur de protection (S1 ), les surfaces de rayon d’entrée
matrice (S2 ) et les surfaces sous serre-flan (S3 ). Le résultat, sous forme d’une surface
maillé est écrit également dans un fichier *.nas au format NASTRAN™ (voir figure
5.37).
Dans le cadre de cette étude, les paramètres considérés pour optimiser les surfaces
additionnelles sont relatifs à : la direction de l’emboutissage, la direction de la linéarité
opyright © 2001 SimTech Simulation
pour et Technologie
le serre-flan All rights
et la direction de reserved page11/47
la balance,... La direction de l’emboutissage est
représentée par un vecteur unitaire comme sur la figure 5.40). Ce vecteur peut-être
paramétré par deux angles comme dans des coordonnées sphériques (voir la figure
5.41) : n = (sin ϕ cos θ, sin ϕ sin θ, cos ϕ). Le deuxième vecteur pour contrôler le procédé
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 151
direction de l'emboutissage
Figure 5.40 – Modèle d’éléments finis après avoir ajouté des surfaces additionnelles.
n
Action des outils P
Embouti final
h, ε, σ = ?
A B
𝑾
𝑢
dans les directions x et y dans le plan de l’ébauche originale, de sorte que la pièce
emboutie sont en équilibre sous l’action des contraintes internes, des efforts de réaction,
des efforts de frottement et des efforts de retenue. Dans SiMEX™ , le modèle du maté-
riau implémenté est basé sur la simulation en une étape qui relie sur deux hypothèses
simplificatrices :
ε1 (t)
= α(constant) (5.37)
ε2 (t)
𝜀2
Chemin de
déformation radial
Chemin de
déformation réelle
𝜀1
σ = K(ε0 + εp )n (5.39)
Paramètres Valeurs
Module de Young 210 GPa
Epaisseur 1 mm
Coefficient de Krupkovsky K 550 MPa
Coefficient de Krupkovsky ϵ0 0.0035
Coefficient de Krupkovsky n 0.23
Coefficient de Lankford R̄ 1.43
Coefficient de frottementR̄ 0.15
où x représente le vecteur variable des paramètres et D est l’espaces des paramètres. Les
fonctions objectifs S et V représentent l’aire des surfaces additionnelles et le volume de
l’outillage respectivement. L’aire des surfaces additionnelles et du volume de l’outillage
sont calculés par la somme de l’aire et le volume de l’outillage de tous des éléments. Pour
le calcul du volume de l’outillage, chaque le volume d’élément est calculé basé sur le
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 155
direction de l'emboutissage
volume inclus en utilisant le théorème de divergence 3 comme sur la figure 5.45 (section
10.7 dans [93]). Ces volumes inclus sont formés par la projection de chaque élément
sur la surface P qui passe par le point le plus bas et perpendiculaire à la direction de
l’emboutissage. La procédure de calcul du volume est illustrée sur la figure 5.44. Le
modèle de krigeage est utlisé pour construire le métamodèle des deux fonctions objectifs.
3. https ://fr.wikiversity.org/wiki/Analyse_vectorielle/Divergence
156 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Déformation majeure
0.6 flc
1 2
)
d
0.4
i i
2 1
)
0.2
Courbe limite de formage
Point de coordonnées
0 2
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure
Figure 5.46 – Fonction de contrainte représente le critère de rupture basé sur la courbe
de limite de formage (CLF)
108
2.2
1.8
V(mm3 )
1.6
1.4
5 6 7 8 9 10
S(mm2 ) 105
108
2.2
1.8
V (mm3 )
1.6
1.4
1.2
Points initiaux
Points enrichis
1 Points optimaux de Pareto
5 6 7 8 9 10
S(mm )3 105
108
2.2
1.8
V(mm3 )
1.6
1.4
1.2
Point Initiaux
Points enrichies
1 Points optimaux de Pareto
5 6 7 8 9 10
S(mm2 ) 105
Figure 5.47 – Résultats issus du processus d’optimisation basée sur trois critères de
remplissage.
158 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Tableau 5.9 – Résultat issus du processus d’optimisation basée sur trois critères de
remplissage.
des fonctions est de 200 dont 50 simulations initiales. La figure 5.47 montre les résultats
issus du processus d’optimisation en utilisant les trois critères de remplissage. Les points
rouges (triangle) représentent les 50 conceptions initiales. Les points verts désignent les
conceptions enrichies et les points bleus sont les conceptions optimales de Pareto. Il faut
remarquer que le critère de remplissage EI Me donne 7 solutions optimales de Pareto
(voir la figure 5.47a), le critère de remplissage EI Mm donne 10 solutions optimales de
Pareto (voir la figure 5.47b) et le critère de remplissage EI Mh donne 9 solutions opti-
males de Pareto (voir la figure 5.47c). On observe que les solutions optimales de Pareto
basées sur le critère de remplissage EI Mh et EI Mh sont distribuées plus uniformément
que le critère de remplissage EI Me .
Les figures 5.48-5.50 montrent les courbes limites de formages pour toutes les
conceptions optimales en utilisant trois critères de remplissage. Les coordonnées de
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 159
Déformation majeure
Déformation majeure
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure
0.5
0.4
0.3
0.2
0.1
0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure
Figure 5.48 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance euclidienne.
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure
0.5
0.4
0.3
0.2
0.1
0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure
Figure 5.49 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de la distance maximin.
160 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Déformation majeure
Déformation majeure
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure Déformation mineure
0.5
0.4
0.3
0.2
0.1
0
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Déformation mineure
Figure 5.50 – Courbes de limite formage de conceptions optimales basée sur le critère
d’amélioration de l’hypervolume.
0.02 0.18
0.16
0
0.14
0.12
-0.02
500
0.1
400
z(mm)
-0.04 0.08
300
1400
200 0.06
1200 -0.06
0
1000 0.04
200
800
400
600 -0.08 0.02
600
400
800 y(mm) 0
x(mm) 200
1000 -0.1
(a) (b)
Figure 5.51 – (a) Configuration de conception optimale d’aire des surfaces additionnelles
et (b) distribution de la déformation mineure (à gauche) et majeure (à droite)
5.4. Optimisation des surfaces additionnelles pour le procédé d’emboutissage 161
0.16
0.04
0.14
0.02
0.12
0
500
300
-0.04 0.08
200
1400 0.06
100 -0.06
1200
0
1000 -0.08 0.04
200
800
400
600 y(mm) -0.1 0.02
600
x(mm) 400
800 -0.12
200 0
1000
(a) (b)
0.02
0.16
0 0.14
0.12
500 -0.02
0.1
400
z(mm)
-0.04 0.08
300
1400
200 0.06
1200 -0.06
0
1000 0.04
200
800
400 -0.08 0.02
600 y(mm)
600
x (mm) 400 0
800
200 -0.1
1000
(a) (b)
déformation mineure et majeure de la pièce finale sont présentées par les points en
bleus. Alors que les points rouges désignent la coordonnée de déformation des surfaces
additionnelles. On voit que tous les points de coordonnées de déformation majeure
et mineure sont en bas de la CLF de l’acier XES. Autrement dit, l’ensemble des points
matériels se situent en dessous de la courbe limite de formage.
5.5 Conclusion
Les applications présentées dans ce chapitre confirment l’intérêt pratique de l’opti-
misation basée sur le métamodèle. En effet, l’utilisation le métamodèle couplé ont fait
preuve d’une efficacité supérieure aux approches qui utilise le métamodèle traditionnel
dans première application. Les stratégies différentes sont appliquées aux problèmes
d’optimisation de forme de l’emboutissage d’une tôle en U. Cependant, l’intégration du
métamodèle spatial couplé l’algorithme EGO dépende une manière de formulation de
la fonction objectif. Lorsque la fonction objectif est formulé en forme plus compliqué,
cette approche est limite.
de recherche développés précédent [54], [34], [196], travaux plûtot appliqués aux pro-
blème de grandes dimensions. Le métamodèle de la fonction de contrainte est construit
basé pour le champ de mesure de la déformation par le couplage la POD et le modèle de
krigeage.
164 CHAPITRE 5. Applications à l’optimisation de procédés de mise en forme
Conclusion et perspectives
Sommaire du chapitre
Contributions 165
Perspectives 166
Contributions
Le principal objectif de cette thèse est l’optimisation des procédés de mise en forme
via le couplage de modèles adaptatifs et la réduction dimensionnelle. Les utilisations
du métamodèle et de la méthode d’optimisation se sont portés respectivement sur la
méthode de réduction dimensionnelle, le modèle de krigeage et la stratégie d’optimisa-
tion séquentielle, comme le détaille le chapitre 4. Pour améliorer les performances des
méthodes choisies et les adapter à notre contexte, un travail sur les aspects théoriques
de ces méthodes a été réalisé.
Le chapitre 5 a traité les applications dans les procédés de mise en forme. Dans
une première application, cette stratégie s’est montrée efficace pour l’optimisation de
l’emboutissage d’une tôle en U proposé de la conférence Numisheet2011. Ce problème
a été traité en utilisant deux stratégies : séquentielle directe et EGO. Les stratégies
d’optimisation sont implémentées dans le code Matlab ayant une interface avec Abaqus
165
166 Conclusion et perspectives
Perspectives
Les travaux présentés dans ce mémoire ne sont que le point de départ de la construc-
tion des stratégies basées sur le métamodèle spatial pour l’optimisation de fonctions
coûteuses en général et l’application aux procédés de mise en forme en particulier. L’amé-
lioration de ces stratégies d’optimisation nécessite encore de répondre à de nombreuses
questions.
Un dernier point d’attention, les stratégies d’optimisation ont été codées sous le
logiciel Matlab et interfacés avec différents logiciels commerciaux (ABAQUS™ , SIMEX™
). Pour des raisons d’exploitation en environnement industriel et d’efficacité, il serait
intéressant d’intégrer la construction de ces métamodèles directement dans le code
éléments finis afin de le rendre plus intrusifs.
168 Conclusion et perspectives
Bibliographie
169
170 Bibliographie
[53] S.-k. S. Fan, Y.-c. Liang et E. Zahara. « Hybrid simplex search and particle
swarm optimization for the global optimization of multimodal functions ». In :
Engineering Optimization 36.4 (2004), p. 401-418 (cf. p. 21).
[54] A. I. Forrester et A. J. Keane. « Recent advances in surrogate-based optimiza-
tion ». In : Progress in Aerospace Sciences 45.1 (2009), p. 50-79. issn : 0376-0421
(cf. p. 4, 26, 62, 63, 71, 72, 88, 93, 95, 99, 163, 167).
[55] A. Forrester, A. Keane et al. Engineering design via surrogate modelling : a practical
guide. John Wiley & Sons, 2008 (cf. p. 89, 93, 102).
[56] M. W. Gardner et S. Dorling. « Artificial neural networks (the multilayer per-
ceptron)—a review of applications in the atmospheric sciences ». In : Atmospheric
environment 32.14-15 (1998), p. 2627-2636.
[57] J. Gelin, O. Ghouati et C. Labergere. « From optimal design to control of
process in sheet forming and tube hydroforming ». In : Proceedings of ECCOMAS,
Barcelona, Spain (2000) (cf. p. 120).
[58] M. Gibbs. « Bayesian Gaussian Processes for Regression and Classification ».
Thèse de doct. University of Cambridge, 1997 (cf. p. 34).
[59] C. Gilkeson et al. « Multi-objective aerodynamic shape optimization of small
livestock trailers ». In : Engineering Optimization 45.11 (2013), p. 1309-1330
(cf. p. 47).
[60] A. Giunta et M. Eldred. « Implementation of a trust region model manage-
ment strategy in the DAKOTA optimization toolkit ». In : 8th Symposium on
Multidisciplinary Analysis and Optimization. 2000, p. 4935 (cf. p. 64).
[61] A. Giunta, S. Wojtkiewicz et M. Eldred. « Overview of modern design of expe-
riments methods for computational simulations ». In : 41st Aerospace Sciences
Meeting and Exhibit. 2003, p. 649 (cf. p. 56).
[62] P. K. Gudla et R. Ganguli. « An automated hybrid genetic-conjugate gradient
algorithm for multimodal optimization problems ». In : Applied Mathematics and
Computation 167.2 (2005), p. 1457-1474. issn : 0096-3003 (cf. p. 19).
[63] S. Gunn. « Support Vector Machines for Classification and Regression ». In : 14
(jan. 1998).
[64] Y. Guo et al. « Finite element procedures for strain estimations of sheet metal
forming parts ». In : International Journal for Numerical Methods in Engineering
30.8 (1990), p. 1385-1401 (cf. p. 151).
[65] Y. Guo et al. « Recent developments on the analysis and optimum design of sheet
metal forming parts using a simplified inverse approach ». In : Computers &
Structures 78.1-3 (2000), p. 133-148 (cf. p. 151).
[66] M. Hamdaoui et al. « POD surrogates for real-time multi-parametric sheet metal
forming problems ». In : International journal of material forming 7.3 (2014),
p. 337-358 (cf. p. 49).
174 Bibliographie
[96] P. Ladevèze. « Mécanique non linéaire des structures ». In : Hermès (1996) (cf.
p. 47, 48).
[97] P. Ladevèze. Nonlinear computational structural mechanics : new approaches and
non-incremental methods of calculation. Springer Science & Business Media, 2012
(cf. p. 32, 48).
[98] P. Ladevèze. « The large time increment method for the analysis of structures
with non-linear behavior described by internal variables ». In : COMPTES REN-
DUS DE L ACADEMIE DES SCIENCES SERIE II 309.11 (1989), p. 1095-1099
(cf. p. 47).
[99] P. Lafon, P. A. Adragna et V. D. Nguyen. « Multi-objective optimization under
uncertainty for sheet metal forming ». In : MATEC Web of Conferences. T. 80. EDP
Sciences. 2016, p. 10004 (cf. p. 4, 112).
[100] P. Lancaster et K. Salkauskas. « Surfaces generated by moving least squares
methods ». In : Mathematics of computation 37.155 (1981), p. 141-158 (cf. p. 46).
[101] E. Larsson et B. Fornberg. « A numerical study of some radial basis function
based solution methods for elliptic PDEs ». In : Computers & Mathematics with
Applications 46.5-6 (2003), p. 891-902 (cf. p. 32).
[102] L. Laurent. « Multilevel optimisation of structures using a multiparametric
strategy and metamodels ». Theses. École normale supérieure de Cachan - ENS
Cachan, déc. 2013 (cf. p. 4, 42).
[103] L. Laurent. « Stratégie multiparamétrique et métamodèles pour l’optimisation
multiniveaux de structures ». Thèse de doct. École normale supérieure de Cachan-
ENS Cachan, 2013 (cf. p. 4).
[104] G. Le Quilliec, B. Raghavan et P. Breitkopf. « A manifold learning-based redu-
ced order model for springback shape characterization and optimization in sheet
metal forming ». In : Computer Methods in Applied Mechanics and Engineering 285
(2015), p. 621-638 (cf. p. 49).
[105] S. J. Leary, A. Bhaskar et A. J. Keane. « A Derivative Based Surrogate Mo-
del for Approximating and Optimizing the Output of an Expensive Computer
Simulation ». In : Journal of Global Optimization 30.1 (2004), p. 39-58 (cf. p. 26).
[106] J. A. Lee et M. Verleysen. Nonlinear dimensionality reduction. Springer Science &
Business Media, 2007 (cf. p. 54).
[107] L.-P. Lei et al. « Analysis and design of hydroforming processes by the rigid–
plastic finite element method ». In : Journal of Materials Processing Technology
114.3 (2001), p. 201-206 (cf. p. 127).
[108] J. Lemaitre et al. Mécanique des matériaux solides-3eme édition. Dunod, 2009
(cf. p. 195).
[109] D. Levin. « The Approximation Power of Moving Least-squares ». In : Math.
Comput. 67.224 (oct. 1998), p. 1517-1531. issn : 0025-5718.
Bibliographie 177
Sommaire du chapitre
A.1 Principe de l’EGO 185
A.2 Schéma de résolution 188
A.2.1 Schéma dynamique explicite . . . . . . . . . . . . . . . . . 189
A.2.2 Schéma statique implicite . . . . . . . . . . . . . . . . . . . 191
A.3 Algorithme de calcul de la distance de projection sur la surface
de l’élément 192
A.4 Fondements de l’Approche Inverse (AI) 194
(Remarque f ∗ est le minimum global sur l’espace de paramètre et fmin est le le minimum
des résultats des évaluations), le risque (ou perte attendue) associé à une évaluation
en un point x ∈ D s’écrit conditionnellement aux résultats des évaluations précédentes
comme :
Avec E indice l’opérateur d’espérance. Cette quantité n’est pas calculable analytiquement,
cependant, la minimiser est équivalent à maximiser le critère de l’EI sous la forme où
185
186 ANNEXE A. Annexes
l’on le retrouve généralement (cf. par exemple Jones et al. [79]), à savoir,
avec
On peut développe
⎧
⎨fmin − f (x) for − ∞ < f < fmin
⎪
⎪
max(fmin − f (x)) = ⎪ (A.5)
⎩0 for fmin < f < +∞
⎪
Pour le reste de cette dérivation, nous omettons la dépendance sur x parce que nous
effectuons la dérivation comme si nous étions à un seul emplacement de l’espace de
conception. L’espérance E peut être calculer par l’intégration sur l’intervalle où la
fonction est non nulle.
∫ fmin
EI(x) = (fmin − f )Y (f )df (A.6)
−∞
∫ fmin ∫ fmin
= fmin Y (f )df − f Y (f )df
−∞ −∞
⎛ ⎞ ∫f
⎜⎜ fmin−fˆ ⎟⎟ min
= fmin Φ ⎜⎝⎜ ⎟⎟ − f Y (f )df
ŝ ⎠ −∞
Où Y (f ) ∼ N (fˆ(x), ŝ2 (x)) suit la loi normale de probabilité (avec ŝ2 est la variance de
l’erreur de la prédiction et fˆ est l’espérance de la prédiction de f (x)), Φ est la fonction
de la loi de probabilité. Mettre le second terme de l’équation, on a suivant :
⎢⎢ 1 f − fˆ 2 ⎥⎥
∫ fmin ∫ fmin ⎡ ( ) ⎤
f
f Y (f )df = √ exp ⎢⎢⎢⎣− ⎥⎥ df (A.7)
2 ŝ
⎥⎦
−∞ −∞ ŝ 2π
f −fˆ
En utilisant la transformation de variable υ = ŝ qui donne df = ŝdυ. En remplaçant,
on a
∫ fmin ∫ υmin
1 υ
[ 2]
f Y (f )df = (υŝ + fˆ) exp − dυ (A.8)
−∞ −∞ 2π 2
fmin −fˆ
où υmin = ŝ . L’équation peut être développé par
∫ fmin ∫ υmin ∫ υmin
ŝ υ 1 υ
[ 2] [ 2]
f Y (f )df = υ exp − dυ + fˆ exp − dυ (A.9)
−∞ 2π −∞ 2 −∞ 2π 2
A.1. Principe de l’EGO 187
On voit que le deuxième terme est l’intégrale de norme normale PDF (est la fonction
de la loi de probabilité), qui peut être exprimé en utilisant la fonction de répartition
donnée :
∫ fmin ∫ υmin
ŝ υ
[ 2]
f Y (f )df = υ exp − dυ + fˆΦ(υmin ) (A.10)
−∞ 2π −∞ 2
υ
Dans le premier terme de cette équation, on change le variable wc = 2, qui donne
dυ = υ1 dwc . Réduire l’intégrale, on a :
∫ υmin ∫ wmin
υ
[ 2]
υ exp − dυ = exp(−wc )dwc (A.11)
−∞ 2 −∞
1 fmin −fˆ
( )
où wmin = 2 ŝ . La borne inférieure est changée à partir de −∞ à +∞. Cela donne
∫ υmin
υ
[ 2]
υ exp − dυ = − exp[−wmin ] (A.12)
−∞ 2
On revient
∫ fmin
ŝ
f Y (f )df = − √ exp[−wmin ] + fˆΦ(υmin ) (A.13)
−∞ 2π
Cette équation peut être écrit dans termes de la fonction de la loi de probabilité comme
suit :
∫ fmin
f Y (f )df = −ŝφ(υmin ) + fˆΦ(υmin ) (A.14)
−∞
Finalement, on obtient
Avec
W e = Wint
e e
− Wext (A.20)
∫
e
Wint = ⟨ε∗ ⟩{σ }dv (A.21)
ve
∫ ∫ ∫
e ∗ ∗
Wext = ⟨u ⟩{fv }dv + ⟨u ⟩{fs }ds − ρ⟨u ∗ ⟩{ü}dv (A.22)
ve Sfe ve
où :
— W e : travail élémentaire,
— {u ∗ } : vecteur de déplacements virtuels cinématiquement admissible vérifiant
{u ∗ } = {0} sur Su
— {σ } : vecteur des contraintes de Cauchy
— fv et fs : respectivement force volumique et force surfacique,
— ρ : masse volumique,
— {ü} : vecteur des accélérations,
— v e : volume élémentaire actuel,
— {ε∗ } : vecteur des déformations virtuels, en composante cartésienne il est définies
A.2. Schéma de résolution 189
par :
∂uj∗ ⎟⎟
⎛ ⎞
1
ε∗ ij = ⎜⎜⎝∂ui∗ ∂xj +
⎜
(A.23)
⎜ ⎟⎟
2 ∂xi ⎠
avec {u} = {ū} sur Su et {R(u)} est le vecteur résidu global. Dans le cas statique, l’expres-
sion A.24 s’écrira sous la forme :
¯ sur S
{Fint } − {Fext } = {R(u)} avec {u} = {u} (A.25)
u
Le schéma dynamique explicite est basé sur l’utilisation d’incréments de temps très
petits, permettant l’actualisation continuelle des conditions aux limites relatives au
contact. Ce schéma consiste à obtenir une solution sans construction d’une matrice
tangente et itérations d’équilibre. Il permet d’obtenir une solution à l’instant t + δt en
fonction des quantités connues {ui }, {u̇i }, üi à l’instant ti , il est conditionnellement stable
en fonction de la taille du pas δt. A l’instant ti le système d’équations s’écrit sous la
forme :
où [M] est la matrice de masse qui est assemblé à partir de matrice de masse élémentaire.
Elle s’appelle matrice cohérente ou consistante dans le sens où elle est calculée avec les
fonctions d’interpolation ⟨N ⟩ de l’élément ayant servi au calcul de la matrice de rigidité.
Cependant, pour les problèmes de grande taille, il est bien connu qu’une matrice masse
concentrée ou diagonale possède des avantages appréciables. [C] est la matrices d’amor-
tissement qui est assemblé à partir de matrice d’amortissement élémentaire introduite
avec l’hypothèse d’un amortissement visqueux proportionnel à la vitesse. Fint est le
vecteur des force internes qui est assemblé à partir de vecteur des force internes élémen-
taires et Fext est le vecteur de force externes assemblé par vecteur des force externes
élémentaire.
finies centrales, il s’agit de chercher {ui }, {u̇i }, üi vérifiant l’équation A.24, en utilisant :
1
üi = ({ui+1 } − 2{ui } + u{ui−1 }) (A.27)
∆t 2
1
{u̇i } = ({u } − {ui−1 }) (A.28)
2∆t i+1
Connaissant {u̇i } et {üi }, l’équation A.26 à l’instant ti s’écrit :
1 1
[K̄] = 2
[M] + [C] (A.30)
∆t 2∆t
1 1
{R(ui )} = {Fiext − {Fi int} + 2
[M](2{ui } − {ui−1 }) + [C]{ui−1 } (A.31)
∆t 2∆t
Si la matrice d’amortissement [C] s’écrit sous la forme α[M] alors la matrice [K] est
diagonale, la résolution de l’équation A.26 est donc triviale. Pour amorcer la récurrence
il faut calculer la solution initiale connaissant u0 et u̇0
∆t 2
{u−1 } = {u0 } − ∆t{u̇0 } + {ü} (A.32)
2
Stabilité
Dans le cas de l’analyse dynamique explicite, la résolution des équations se fait sans
vérification de l’équilibre du système, d’où l’inconvénient de son utilisation. L’exactitude
des résultats dépend de la taille du pas de temps. Les méthodes explicites sont condition-
nellement stables : la taille du pas de temps dépend de la géométrie de l’élément et du
matériau. La stabilité de la solution n’est assurée que pour un ∆t inférieur à une valeur
qui est liée à la plus petite période caractéristique de résonance du système physique
étudié. Cette valeur limite peut s’écrire, en fonction de la valeur propre maximale du
système comme :
2
∆t ≤ (A.34)
2ω
où ζ est une fraction d’amortissement dans le mode le plus élevé du système. La limite
de stabilité peut s’écrire aussi sous la forme :
( )
2 L
∆tmax = = min e (A.36)
ωmax cd
Cette opération est efficace à condition de contrôler les effets d’inertie afin qu’ils ne
deviennent pas trop importants.
∂{R(ui−1 })}
{R({ui−1 } + {∆ui })} = {R({ui−1 })} + {∆ui } (A.39)
∂{ui−1 }
192 ANNEXE A. Annexes
ou
où
∂{R({ui−1 })}
[K({ui−1 })]T = − : matrice tangente (A.41)
∂{ui−1 }
A chaque itération, l’équation A.43 est résolue à l’aide de la méthode directe (mé-
thode de Newton) qui consiste à évaluer la matrice tangente à chaque incrément. Cette
méthode ayant un ordre de convergence quadratique est plus précise que la méthode
itérative (Jacobi, Gauss Seidel, etc.), mais elle nécessite un temps CPU et un espace
mémoire plus importants. La méthode implicite est performante si la matrice tangente
est consistante.
nA
M nC
A g2
n
nB
g1
z C
P
B
O x
y
avec n = (1 − ξ − η)nA + ξnB + ηnC . L’équation du système (A.48) est résolue en utilisant
l’algorithme de Newton qui permet de converger en quelques itérations pour trouver la
solution (ξ, η, ρ). Pour obtenir la distance de projection réelle d proj , il suffit de multiplier
la distance de projection ρ par la norme de n, donc on a,
Dans le cas où la solution de n’importe quel nœud ne satisfait pas la condition (A.46), le
point de projection de ce nœud tombe en dehors de l’élément de surface. En conséquence,
la distance de projection réelle sur l’élément de surface ne serait pas prise en compte.
On peut remarquer que dans le cas nA = nB = nC = n, ce qui arrive quand on discrétise
une surface plane, la résolution est simplifiée et réduite à la résolution d’un système
linéaire avec trois équations.
n, z
h q
p
Embouti final C t
xq
uq up
Z
n0 , z0
h0
q0
p0 t0
𝒙𝟎𝒒
Flan initial
Y
X
où u ⃗ 0 et n
⃗p est le vecteur déplacement du point matériel p à la surface moyenne, n ⃗ sont
0
le vecteur unitaire normal à la surface moyenne de la configuration initiale C et finale
C respectivement. Puisque le point p est situé sur la surface moyenne connue, il est plus
pratique de le prendre comme référence. Les tenseurs du gradient de déformation aux
points q0 et q par rapport au point p sont définis par :
xq0 = F−1
d⃗ xp0 ; x⃗q = Fz d⃗
0 d⃗ xp (A.51)
Ces deux tenseurs, F0 et Fz sont liés à la membrane et les effets de flexion, respectivement.
Ensuite, le tenseur de gradient de déformation de q0 à q et le tenseur de Cauchy Green
gauche correspondant sont obtenus :
xq0 = F−1
d⃗ −1
xq = F−1 d⃗
0 Fz d⃗ xq : B−1 = F−T F−1 (A.52)
Les élongations principales λ1 et λ2 sont obtenues à partir des valeurs propres de B−1 ,
la troisième élongation λ3 est calculé avec l’hypothèse d’incompressibilité. Ensuite, Les
déformations logarithmiques principales ln λ1 , ln λ2 , ln λ3 sont obtenues.
où σ̄ est la contrainte limite et ⟨σ ⟩ = ⟨σx σy σxy ⟩ est le tenseur des contraintes de Cauchy.
La matrice P est donnée par :
⎢⎢ 1 − 1+r̄ r̄ 0
⎡ ⎤
⎥⎥
⎢ r̄
[P ] = ⎢⎢⎢⎢− 1+r̄ 1 0 (A.54)
⎥⎥
⎥⎥
2(1+r̄) ⎥
0 0
⎣ ⎦
1+r̄
1
r̄ = (r0 + 2r45 + r90 ) (A.55)
4
où (r0 , 2r45 , r90 ) sont les coefficients de Lankford. L’hypothèse de charge proportionnelle
(ou radiale) permet d’obtenir les contraintes plastiques totales en termes de contraintes
totales :
ε̄p 1
{εp } = [P ]σ = (⟨εp ⟩[P ]−1 {εp }1/2 ) 2 (A.56)
σ̄
Si l’on suppose que l’anisotropie et l’incompressibilité ci-dessus valent également pour
la (petite) déformation élastique, le coefficient de Poisson est alors lié au coefficient
d’anisotropie moyenne :
r̄
ν= (A.57)
(1 + r̄)
L’embouti final est discrétisé par des éléments finis triangulaires de facettes planes à
six nœuds DKT12 (Discrete Kirchhoff Triangular)comme sur la figure A.3 (trois nœuds
au sommets P1, P2, P3 et trois sur les cotés P4, P5, P6). L’expression du Principe des
Travaux Virtuels (PTV) s’écrit sous la forme :
∑ ∑
W= We = e
Wint e
− Wext (A.59)
elt elt
avec ε = ε x ε y ε xy
L’embouti final est discrétisé par des éléments finis triangulaires de facettes planes à six
A.4. Fondements de l’Approche
nœuds DKT12 Inverse
(Discrete Kirchhoff (AI)comme le montre la figure 4.3 (trois nœuds au
Triangular) 197
sommets P1, P2, P3 et trois sur les cotés P4, P5, P6).
z,w*
y,v*
P3
n t2
X1 6 C θs
P1 Y1 5
Z1
t1 P2
4
U1
u1 V1 u3 x,u*
W1
P3 0 u2
X1-U1
P10 Y1-V1
C0 Projection
Z0
suivant Z
P20
- 86 -
e e
où Wint est le travail virtuel interne élémentaire, Wext est le travail virtuel externe
élémentaire associé aux actions des outils. L’expression du travail virtuel interne élé-
mentaire est :
⎡ ⎤
∫ ∫ ⎢⎢ σx ⎥⎥
e
Wint = ⟨ε∗ ⟩{σ }dV = ⟨εx∗ εy∗ εxy
∗ ⎢
⟩ ⎢⎢⎢ σy ⎥⎥⎥⎥ dzdA (A.60)
⎢ ⎥
v e v e
σxy
⎣ ⎦
où ⟨e∗ ⟩ est le vecteur des déformations virtuelles de membrane, ⟨X ∗ ⟩ est le vecteur des
courbures virtuelles de flexion. Le champ des déplacements virtuelles est rapproché
par :
{u ∗ } = [N ]{un∗ } (A.62)
avec :
1
N1 = ((y − y )(x − x) − (x3 − x2 )(y2 − y)) (A.64)
2A 3 2 2
1
N2 = ((y − y )(x − x) − (x1 − x3 )(y3 − y)) (A.65)
2A 1 3 3
1
N3 = ((y − y )(x − x) − (x2 − x1 )(y1 − y)) (A.66)
2A 2 1 1
1
A = ((y3 − y2 )(y1 − y2 ) − (x1 − x2 )(y3 − y2 )) (A.67)
2
où A est l’aire de l’élément et xi , yi les coordonnées locales. La discrétisation du P.T.V se
fait avec des éléments de coque triangulaires à 3 nœuds de type DKT12. Les déformations
virtuelles de membrane sont exprimées en fonction des déplacements virtuels nodaux
en utilisant des approximations linéaires et en considérant l’élément de membrane CST :
⎡ ∗
u,x
⎤ ⎡ ⎤
⎢⎢ ⎥⎥ ⎢⎢N1,x 0 0 N2,x 0 0 N3,x 0 0⎥⎥
∗
{ε∗ } = ⎢⎢⎢⎢ v,y ⎥⎥ = ⎢⎢ 0 N1,y 0 0 N2,y 0 0 N3,y 0⎥⎥⎥⎥ {un∗ } (A.68)
⎢ ⎥⎥ ⎢⎢ ⎥
∗ + v∗
⎥ ⎢
u,y N1,y N1,x 0 N2,y N2,x 0 N3,y N3,x 0
⎣ ⎦ ⎣ ⎦
,x
d’où :
⎡ ⎤
⎢⎢y23 0 0 y31 0 0 y12 0 0⎥⎥
1 ⎢⎢
{ε∗ } = ⎢⎢ 0 x32 0 0 x13 0 0 x21 0⎥⎥⎥ {un∗ } = [Bm ]{un∗ } (A.69)
⎥
2A ⎣ ⎢ ⎥⎦
x32 y23 0 x12 y31 0 x21 y12 0
{un∗ } = ⟨u1∗ v1∗ w1∗ u2∗ v2∗ w2∗ u3∗ v3∗ w3∗ ⟩ (A.70)
⎡ ⎤
⎢⎢y23 0 0 y31 0 0 y12 0 0⎥⎥
1 ⎢⎢
[Bm ] = ⎢⎢ 0 x32 0 0 x13 0 0 x21 0⎥⎥⎥ (A.71)
⎥
2A ⎣ ⎢ ⎥⎦
x32 y23 0 x12 y31 0 x21 y12 0
Les déformations virtuelles de flexion sont définies à l’aide d’un élément de plaque
mince (DKT6) caractérisé par six degrés de liberté (trois translations transversales w1 , w2 ,
w3 et trois rotations θ1 , θ2 , θ3 ) comme le montre la figure A.4. Les courbures virtuelles
de l’élément DKT6 sont déterminées à l’aide d’une approximation semi C 0 linéaire des
A.4. Fondements de l’Approche Inverse (AI) 199
3 |𝑤3
𝑦
5 | 𝜃5
𝑠 𝛽𝑥5
𝛽𝑦5 𝛼𝑠
6 | 𝜃6 2 |𝑤2 𝑥
𝛽𝑛5
𝑛 𝛽𝑠5
4 | 𝜃4
1 |𝑤1
avec
N4 = 1 − 2η , N5 = −1 + 2ξ + 2η et N6 = 1 − 2ξ (A.75)
⟨X ∗ ⟩ = ⟨βx,x
∗ ∗
βy,y ∗
βx,y ∗
βy,x ⟩ = [Bf ]un∗ avec : βnl
∗
=0 (A.77)
et
⎡ ⎤
S4 C4 − S6 C6 S5 C5 − S4C 4 S6 C6 − S5 C5 ⎥⎥
1 ⎢⎢⎢
⎢
[Bf ] = ⎢⎢⎢ −S4 C4 + S6 C6 S5 C5 − S4C 4 S6 C6 − S5 C5 ⎥⎥⎥⎥ (A.78)
⎥
A⎣
−C42 + S42 + C62 − S62 −C52 + S52 + C42 − S42 −C62 + S62 + C52 − S52
⎦
200 ANNEXE A. Annexes
𝜂
3 (0,1)
6 5
𝜉
1 (0,0) 4 2(0,1)
avec :
Les déformations et contraintes relatives à chaque élément restent constantes pour une
valeur donnée de z, donc on peut écrire :
e
{Fint } = [T ]T ([Bm ]T {N } + [Bf ]T {M})A (A.83)
et
∫ 1
h
{M} = {σ }ζdζ (A.85)
2 −1
Les forces résultantes sont calculées par intégration numérique suivant l’épaisseur de la
pièce au centre de l’élément en considérant 5 points d’intégration de Lobatto.
1
⃗ f avec : n
P =Pn ⃗f = √ n − µ⃗t)
(⃗ (A.87)
1 + µ2
Résumé v
Sommaire vii
1 Introduction 1
1.1 Cadre de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Contexte scientifique et industriel de la thèse . . . . . . . . . . . . . . . 2
1.2.1 Contexte industriel . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Contexte scientifique . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Problème d’optimisation des procédés de mise en forme . . . . . . . . 5
1.3.1 Optimisation de forme . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Optimisation du produit . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Optimisation de l’engagement matière ou de la surface initiale de la
pièce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Fonction qualités construites à partir des courbes limites de formage 8
1.4 Objectif et organisation de la thèse . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . . . . 9
203
204 Table des matières
Bibliographie 169
A Annexes 185
A.1 Principe de l’EGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
A.2 Schéma de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
A.2.1 Schéma dynamique explicite . . . . . . . . . . . . . . . . . . . . 189
A.2.2 Schéma statique implicite . . . . . . . . . . . . . . . . . . . . . . 191
A.3 Algorithme de calcul de la distance de projection sur la surface de l’élément 192
A.4 Fondements de l’Approche Inverse (AI) . . . . . . . . . . . . . . . . . . 194