Professional Documents
Culture Documents
n Commande robuste
l Automatique / Théorie de la commande
l Commande de systèmes dynamiques
s Représentés par des équations différentielles (systèmes à temps continu)
s ou par des équations récurrentes (systèmes à temps discret)
l Modèles non-linéaires dans l’espace d’état
ẋ(t) = f (x, u, t) x
k+1 = f (x, u, k)
ou
y(t) = g(x, u, t) yk = g(x, u, k)
s x : état du système
s u : commandes du système (actionneurs)
s y : mesures du système (capteurs)
l Modèles linéaires dans l’espace d’état et matrices de transfert (MIMO)
8 8
< ẋ(t) = Ax(t) + Bu(t) < xk+1 = Axk + Buk
Σ(s) ∼ ou Σ(z) ∼
: y(t) = Cx(t) + Du(t) : yk = Cxk + Duk
c AIRBUS S.A.S. - H. Goussé
c ProMinent
c CNES - ill. D. Ducos HRP-2 Promet @ Astrium - Ariane 5 @ Quanser - 3DOF hélico
n Typologie de modèles :
l Système physique réel - parfois accessible pour expérimentation
l Modèle physique idéal - pour modélisation mathématique
(Agrégat de systèmes élémentaires)
l Modèle mathématique idéal - pour simulation sur calculateurs
(Modèle de connaissance obtenu par application des lois de la physique)
l Modèle mathématique réduit - pour simulations rapides
(Modèle de comportement obtenu par découplage, linéarisation, réduction...)
l Modèle réduit incertain - pour analyse robuste, pessimiste
(Modèle mathématique réduit, simplifié, souvent LTI)
(erreurs contenues dans incertitudes et spécifications de performance)
l Modèle réduit nominal - pour la synthèse de lois de commande
(Modèle sans incertitudes avec un seul critère de performance)
η̇(t) = (A (t) − L(t)C (t) − B (t)K(t))η(t) + L(t)y(t)
θ0 θ0 θ0
u(t) = −K(t)η(t)
Références
[Tits and Fan(1995)] A. Tits and M. Fan. On the small µ theorem. Automatica, 31 :1199–1201,
1995.
[Zhou et al.(1996)Zhou, Doyle, and Glover] K. Zhou, J. Doyle, and K. Glover. Robust and Opimal
Control. Prentice Hall, Englewood Cliffs, New Jersey, 1996.
l Définition
Une norme est une fonction k.k définie sur un espace vectoriel E , ||e|| : E → R+ vérifiant
les propriétés axiomatiques :
1- ∀ e ∈ E : ||e|| ≥ 0
2- ||e|| = 0 ⇔ e = 0
3- ∀ α ∈ R, ∀ e ∈ E, ||αe|| = |α|.||e||
4- ∀ e1 , e2 ∈ E, ||e1 + e2 || ≤ ||e1 || + ||e2 ||
h i0
s Exemple : e = 1 0 −3
>> norm(e, p)
kAekp kAekp
s Nota : sup = max car {x : kxkp ≤ 1} est compact et k • kp continue.
e6=0 kek p e6 = 0 kek p
kAekp kAλf kp
s Nota : De plus max = max = max kAf kp .
e6=0 kekp kf kp =1,λ6=0 kλf kp kf kp =1
A = U ΣV ∗ U ∈ Cl×l U ∗ = U −1 V ∈ Cm×m V ∗ = V −1
Σ est formée par une matrice diagonale des valeurs singulières σi dans l’ordre décroissant
- l ≥m:
diag(σ1 , · · · , σq ) p p
Σ= σi (A) = λi (AA ) = λi (A∗ A)
∗
0l−m×m
- l ≤m: h i
Σ= diag(σ1 , · · · , σq ) 0l×m−l
avec σ = σ1 ≥ · · · ≥ σq = σ > 0 et min(l, m) ≥ rang(A) = q ,
2
T
= (T − t)e−t ,
Soit le signal f (t) 1.5
f(t)
1
La fonction de Lambert :
W = h−1 0.5
−0.5
0 2 4 6 8 10 12 14 16 18 20
t
L2 [0 , +∞) → H2
Z +∞
f 7→ fˆ(s) = f (t)e−st dt
−∞
s+1 s+1 (s − 1)
∈ RH2 6∈ RH2 6∈ RH2
(s + 2)(s + 3) (s + 2)(s − 3) (s + 1)
s Exemples :
s+1 (s − 1)
6∈ RH∞ ∈ RH∞
(s + 2)(s − 3) (s + 1)
s/(s + 3) h i
6∈ RH∞ 1 (s − 1)/(s + 1) 1/(s + 2) ∈ RH∞
1/(s − 1)
n Motivation : Afin d’évaluer la performance d’un système, étant donnée l’information sur les
signaux d’entrée w , quelle grandeur peut prendre le vecteur de sortie z ?
l Interprétations :
- L’énergie du signal de sortie en réponse à un bruit blanc gaussien de moyenne nulle et de
variance 1
- La norme L2 de la réponse impulsionnelle du système à une entrée impulsionnelle sur chaque
entrée
l Calcul de la norme H2
La norme H2 d’un système stable est finie ssi il est strictement propre et n’a pas de pôles sur
l’axe imaginaire
A B AWc + Wc A0 + BB 0 = 0
G(s) ' Equations de Lyapunov :
C 0 A0 W o + W o A + C 0 C = 0
Z ∞
At 0 A0 t
Wc = e BB e dt grammien de commandabilité
0
Z ∞
A0 t
Wo = e C 0 CeAt dt grammien d0 observabilité
0
||Gw||2
||G||∞ = sup |G(jω)| = sup
ω w6=0,w∈L2 ||w||2
s Multivariable :
||Gw||2
||G||∞ = sup σ(G(jω)) = sup
ω w6=0,w∈L2 ||w||2
l Interprétations :
- La valeur maximale de l’amplitude dans Bode ou la distance de l’origine au point le plus éloigné
du lieu de transfert dans Nyquist (monovariable)
- La norme induite L2
l Calcul de la norme H∞
A B
Soit G(s) ' , R(γ) = D0 D − γ 2 1
C D
s Lemme : La norme H∞ d’un système stable est finie ssi il n’a pas de pôles sur l’axe imagi-
naire
Matrice Hamiltonienne :
A − BR−1 (γ)D0 C −BR−1 (γ)B 0
Hγ =
−C 0 (1 − DR−1 (γ)D0 )C −A0 + C 0 DR−1 (γ)B 0
s Thm : Pour γ > σ(D), ||G||∞ < γ ssi Hγ n’a pas de valeur propre sur l’axe imaginaire
Λ(Hγ ) ∩ C0 = ∅
l Calcul de la norme H∞
s γ -itérations :
- On choisit [γmin , γmax ] tel que
γmin > σ(D)
- Pour γ = 1/2(γmin + γmax ), on forme Hγ et on calcule ses valeurs propres.
- Si les valeurs propres ne sont pas sur l’axe imaginaire :
γ∞ = ||G||∞
ẋ = −ax + u
y=x
−2aWc + 1 = 0 −2aWo + 1 = 0
1 1
Wc = Wo = ||G||2 = √
2a 2a
1
s Exemple de calcul de la norme H∞ de G(s) =
s+a
La matrice Hamiltonnienne :
−a γ −2
Hγ =
−1 a
Le polynôme caractéristique de Hγ :
P (λ) = λ2 + (1/γ 2 − a2 )
1 p 1 p
γ> λ = ± 1/γ 2 − a2 γ< λ = ±j 1/a2 − γ 2
a a
La norme H∞ :
1
||G||∞ =
a
5.8
5.6
5.4
Phase (deg); Magnitude (dB)
5.2
0
−1 0 1 2
10 10 10 10
Frequency (rad/sec)
= G(s)d où y ∈ Rr et d ∈ Rm .
Soit le modèle entrée-sortie multivariable y
- On applique une sinusoı̈de dj (t) = dj0 sin(ωt+αj ) sur l’entrée j alors yi (t) = yi0 sin(ωt+
βi )
yi0
= |gij (jω)| βi − αj = arg [gij (jω)]
dj0
- On applique simultanément sur chaque entrée des signaux sinusoı̈daux de même fréquence
ω + principe de superposition
m
X
yi (ω) = gij (jω)dj (ω) y(ω) = G(jω)d(ω)
j=1
|y(ω)| |G(jω)d(ω)|
= = f (ω) = |G(jω)|
|d(ω)| |d(ω)|
- Gain des systèmes MIMO :
||y(ω)||2 ||G(jω)d(ω)||2
= = f (ω, d)
||d(ω)||2 ||d(ω)||2
Nota :
- f (ω) est indépendante de ||d(ω)|| mais dépend de la direction d’entrée d
- La notion de phase pour les systèmes multivariables est complexe à définir et ne sera pas
abordée dans ce cours
3 2
Exemple : G =
−1 1
4
1 √
d1 = ||y1 ||2 = 10 Valeur singulière max. = 3.618
0 3.5
3
!y! 2 /!d! 2
0 √ 2.5
d2 = ||y2 ||2 = 5
1 2
1.5
Valeur singulière min. = 1.382
0.707
d3 = ||y3 ||2 = 2.9150 1
−0.707 −5 −4 −3 −2 −1 0
d20 /d10
1 2 3 4
Definition 1 :
- La valeur maximale du gain quand l’entrée varie est la valeur singulière maximale de G :
||Gd||2
max = max ||Gd||2 = σ(G)
d6=0 ||d||2 ||d||2 =1
- La valeur minimale du gain quand l’entrée varie est la valeur singulière minimale de G :
||Gd||2
min = min ||Gd||2 = σ(G)
d6=0 ||d||2 ||d||2 =1
Soit G(jω) ∈ Cr×m une matrice de réponse fréquentielle telle que sa SVD pour ω fixée est
σ(ω)
..
. 0
G(jω) = U (ω)Σ(ω)V ∗ (ω) Σ(ω) =
σ(ω)
0 0
Definition 2 :
Les valeurs singulières sont appelées valeurs principales ou gains principaux. De plus, on définit
les directions d’entrée vj et de sortie ui :
Singular Values
30
20
A=[-0.1+j 1 -1 ;0 -0.1-j 2 ;0 0 -6] ;
10
B=[0 1 ; 1 0 ; 1 1] ;
Singular Values (dB)
0
C=[3 1 0 ;-1 0 1] ;
−10 D=[0 0 ;0 0] ;
−20 sys=ss(A,B,C,D) ;
−30 sigma(sys,0.1,100)
−40
−1 0 1 2
10 10 10 10
Frequency (rad/sec)
n Convex cones
l A set K is a cone if for every x ∈ K and λ ≥ 0 we have λx ∈ K.
l A set is a convex cone if it is convex and a cone.
n Convex cones
s Convex cone of positive reals : x = x1 . . . xn ∈ Rn+
n o
n
s Second order (Lorentz) cone : Ksoc = x = x1 . . . x n , x21 + . . . x2n−1 ≤ x2n
3
Ksoc :
n Convex cones
s Convex cone of positive reals : x ∈ R+n o
n
s Second order (Lorentz) cone : Ksoc = x= x1 ... xn , x21 + . . . x2n−1 ≤ x2n
s Positive
semi-definite matrices :
x1 xn+1 ··· xn(n−1)+1
x =
mat(x)
n . ..
Kpsd = , = .. ≥0
.
x 1 · · · x n2 = mat(x)T
xn x2n ··· x n2
2
x1 x2
Kpsd : ≥0
x2 x3
n Convex cones
s Convex cone of positive reals : x ∈ R+n o
n
s Second order (Lorentz) cone : Ksoc = x = x1 . . . x n , x21 + . . . x2n−1 ≤ x2n
n o
n
s Positive semi-definite matrices : Kpsd = x = x 1 · · · x n2 , mat(x) ≥ 0
n1 nq
s Unions of such : K = R+ × · · · × Ksoc × . . . × Kpsd × ···
p? = min cx : Ax = b , x ∈ K
s Linear programming : K = R+ × · · · R+ .
n1 nq
s Semi-definite programming : K = Kpsd × · · · Kpsd
l Dual problem
d? = max bT y : AT y − cT = z , z ∈ K
s Primal feasible → Dual infeasible
s Dual feasible → Primal infeasible
s If primal and dual strictly feasible p? = d?
l Polynomial-time algorithms (O(n6.5 log(1/)))
p? = min cx : Ax = b , x ∈ K
l Dual problem
d? = max bT y : AT y − cT = z , z ∈ K
l Possibility to perform convex optimization, primal/dual, interior-point methods, etc.
s Interior-point methods [Nesterov, Nemirovski 1988] - Matlab Control Toolbox [Gahinet et al.]
s Primal-dual path-following predictor-corrector algorithms :
SeDuMi (Sturm), SDPT3 (Toh, Tütüncü, Todd), CSDP (Borchers), SDPA (Kojima et al.)
s Primal-dual potential reduction : MAXDET (Wu, Vandenberghe, Boyd)
s Dual-scaling path-following algorithms : DSDP (Benson, Ye, Zhang)
s Barrier method and augmented Lagrangian : PENSDP (Kocvara, Stingl)
s Cutting plane algorithms ...
n Congruence
l A > 0 ⇔ for any non zero vector x : xT Ax > 0.
l A > 0 ⇒ for any full column rank matrix B : B T AB > 0.
l A > 0 ⇒ for any matrix B : B T AB ≥ 0.
l A > 0 ⇔ exists a square non-singular matrix B : B T AB > 0.
s Example (Lyapunov) :
If ∃P : P > 0 , AT P + P A < 0 then the system ẋ = Ax is stable.
Proof : V (x) = xT P x > 0, V̇ (x) = xT (AT P + P A)x = 2ẋT P x < 0 for all x 6= 0.
AT P + P A + CzT Cz < 0
l H2 norm
T
trace(Bw P Bw ) < γ2
AT P + P A < 0 T
Bw P Bw < γ 2 1
l Impulse-to-peak
CzT Cz < P T
Dzw Dzw < γ 2 1
s Example :
(AX + BS)X −1 (XAT + S T B T ) − X < 0
X>0
−X AX + BS
⇔ <0
XAT + S T B T −X
xT Ax < 0 ∀x : Bx = 0 ⇔ ∃τ ∈ R : A < τ B T B
⇔ ∃X = X T : A < B T XB
⇔ ∃G : A < B T GT + GB
⇔ B ⊥T AB ⊥ < 0
xT Ax < 0 ∀x : Bx = 0 ⇔ ∃τ ∈ R : A < τ B T B
⇔ ∃X = X T : A < B T XB
⇔ ∃G : A < B T GT + GB
⇔ B ⊥T AB ⊥ < 0
s Example :
T
ẋ 0 P ẋ h i ẋ
V̇ (x) = <0 , ∀ 1 −A =0
x P 0 x x
0 P −1 h i
⇔ ∃G : + GT + G −1 A <0
T
P 0 A
s Example
h i P 0 0
−P = 0 1 <0
0 −P 1
h i P 0 A
T
A PA − P = A 1 <0
0 −P 1
P 0 −1 h i 1 h i
⇔ ∃H : < HT 1 0 + H −1 A
T
0 −P A 0
s Example :
T
1 1
M < 0, ∀∆T ∆ ≤ 1
∆ ∆
T T
z∆ z∆ z∆ −1 0 z∆
⇔ M < 0, ∀ ≤0
w∆ w∆ w∆ 0 1 w∆
−1 0
⇔ ∃τ > 0 : M < τ
0 1
s Example :
T
1 1
M < 0, ∀∆T ∆ ≤ 1
∆(1 − D∆)−1 C ∆(1 − D∆)−1 C
T T
x x z∆ −1 0 z∆
⇔ M < 0, ∀ ≤0
w∆ w∆ w∆ 0 1 w∆
z∆ = Cx + Dw∆
T
C D −1 0 C D
⇔ ∃τ > 0 : M < τ
0 1 0 1 0 1
s Special case :
X + C T ∆T B T + B∆C < 0, ∀∆T ∆ ≤ 1 ⇔ ∃τ > 0 : X + τ C T C + τ −1 BB T < 0
Bruits Perturbations
Perturbations
Bruits
Signaux controlés
Commandes
Mesures
l Modèle incertain :
s Incertitude paramétrique : M 2 ≤ M2 ≤ M 2
s Incertitude temps variant : M 1 ≤ M1 (t) ≤ M 1 ∀t ∈ [0 t̄]
(avec éventuellement bornes sur dérivées, tq Ṁ1 (t) ≤0)
s Incertitudes découplées
k k f f 1 1
≤ αki ≤ , ≤ αf i ≤ , ≤ αM i ≤
Mi Mi Mi Mi Mi Mi
s Représentation englobante avec 6 paramètres incertains au lieu de 4
s Les réalisations du premier modèle incertain sont incluses dans celui-ci
s ζ appartient au simplex
X
ζv = 1 , ζv ≥ 0
h i
[v] [v]
s A[v] Bw Bu sont les sommets du polytope
calculés en prenant les 26 combinaisons extrêmes des δj ∈ [−1 1].
s Le modèle incertain = combinaison convexe des sommets
h i nh i o
[v] [v] 6
A(α) Bw (α) Bu (α) ∈ CO A[v] Bw Bu , v = 1...v = 2
Distance (L)
Centre de gravité
Force (F )
Mach
AX
eM
ud
tit
in
Al
Vc m
Mouvement résultant
Vc MAX
in
em
tud
Alti
Vc (kts)
Modèles non-linéaires sur un point de vol i, approximés par modèles linéaires incertains définis
comme l’enveloppe convexe des modèles voisins dans l’espace des paramètres :
Mθi (ζ) = CO Mθj : ||θj − θi || ≤ α
l Modèle LFT :
M1 ẍ1 + f (ẋ1 − ẋ2 ) + k(x1 − x2 ) = u + w1
M2 ẍ2 + f (ẋ2 − ẋ1 ) + k(x2 − x1 ) = w2
s Réécriture avec incertitudes normalisées
s Signaux exogènes exprimés en fct des incertitudes et de combinaisons linéaires des états
n Théorème
Tout modèle linéaire dont les coefficients sont rationnels en les paramètres
ẋ A(δ) B(δ) x
=
y C(δ) D(δ) u
admet une représentation sous la forme d’un bouclage entre un modèle nominal et une matrice
diagonale des paramètres
ẋ A0 B∆ B0 x
z∆ = C∆ D∆∆ D∆u w∆ , w∆ = ∆z∆
y C0 Dy∆ D0 u
l Les paramètres sont répétés au minimum autant que le degré des polynômes
w∆
∆ z∆
Ll (Lu (Σ, ∆), K) = Lu (Ll (Σ, K), ∆)
Σ
w∆ ,z∆ u,y w∆ ,z∆ u,y
(∆ ? Σ) ? K = ∆ ? (Σ ? K)
u y ∆ 0
=Σ?
K 0 K
s G(s, ∆) : Matrice de transfert dont les coefficients sont rationnels en les incertitudes
s Sauf cas particulier, les coefficients sont inter-dépendants
bm sm + . . . + b1 s + b0
G(s) =
an sn + . . . + a1 s + a0
l Incertitudes intervalles
bj ≤ bj ≤ bj ∀j = 1 . . . m , ai ≤ ai ≤ ai ∀i = 1 . . . n
ẋ x n o
z = Σ(ζ) w , Σ(ζ) ∈ co Σ[1] . . . Σ[v]
y u
∆
w∆ z∆ ẋ x
w∆ = ∆z∆ :
z∆ w∆
l LFT w Σ z z = Σ w , ∆ = diag(. . . ∆i . . .)
u y ∆i ∈ ∆
∆i ,
K y u
n Dans cette partie on s’intéresse à la stabilité d’une boucle fermée décrite dans l’espace d’état
w∆ = ∆z∆
ẋ0 A0 B∆ B0 x0 ! " # !
η̇ AK BK η
z∆ = C∆ D∆∆ D∆u w∆ , =
u CK DK y
y C0 Dy∆ D0 u | {z }
K
l Exercice de manipulation des LFT : montrer que la boucle fermée avec le correcteur s’écrit
ẋ A(K) B∆ (K) x
= , w∆ = ∆z∆
z∆ C∆ (K) D∆∆ (K) w∆
A(K) B∆ (K)
s avec xT = xT0 ηT et =
C∆ (K) D∆∆ (K)
A0 0 B∆ 0 B0 −1
0 0 0 1 0
0 0 0 + 1 0 K 1 − K
0 D0 C0 0 Dy∆
C∆ 0 D∆∆ 0 B∆u
s Rq : K doit être telle que (1 − D0 DK ) est inversible pour que la LFT ait un sens
s Dans la suite de cette partie K est supposée connue
s On trouve au choix
l On voit sur ces deux exemples que écrire des LFT suppose des hypothèse sur les inverses
(1 − D0 DK ), (1 − D∆∆ ∆) etc.
s On parle de bien-posé de la LFT ou bien posé de la boucle d’interconnexion.
z = M w + ẑ , w = ∆z + ŵ
l Le bien posé implique que quand (ŵ, ẑ) = 0 la seule solution aux équations est (w, z) = 0
s z = w bouclé avec w = δz et δ ∈ [0 , 2], n’est pas bien posé
en effet ∃δ = 1 ∈ [0 , 2] telle que w = z ∈ R est un ensemble (infini) de solutions
z∆ = D∆∆ w∆ , w∆ = ∆z∆
z∆ = D∆∆ w∆ + ẑ , w∆ = ∆z∆ + ŵ
s Unicité de la solution à
1 −D∆∆ z∆ ẑ
=
−∆ 1 w∆ ŵ
1 −D∆∆ 1 D∆∆
s de rang plein et donc de rang plein
−∆ 1 ∆ 1
1 −D∆∆ 1 D∆∆ 1 − ∆D∆∆ 0
s = inversible
−∆ 1 ∆ 1 0 1 − D∆∆ ∆
s Unicité de la solution à
1 −A z∆ ẑ
=
−s−1 1 w∆ ŵ
s Stable ssi
1.5
0.5
−0.5
−1
−1.5
−2
−2.5
−2 −1 0 1 2 3 4
det(s1 − A(∆)) = a0 + a1 s + a2 s2 + . . . + an sn
le polynôme est stable ssi les quatre polynômes suivants sont stables
a0 + a1 s + a2 s2 + a3 s3 + a4 s4 + . . .
a0 + a1 s + a2 s2 + a3 s3 + a4 s4 + . . .
a0 + a1 s + a2 s2 + a3 s3 + a4 s4 + . . .
a0 + a1 s + a2 s2 + a3 s3 + a4 s4 + . . .
P > 0 , AT P + P A < 0
%
s Re(eig(A(∆))) ≥ −2.62 ⇒ τmax ≥ 0.39s
s |eig(A(∆))| ≤ 2.62 ⇒ ωn max ≤ 2.62rad/s
!%"#
s ∠([0, jω], eig(A(∆))) ≥ 66◦ ⇒ ζmin ≥ 0.92
!$
l Condition LMI
w∆
∆ z∆
n Stabilité robuste - Problème de Lur’e
Σ
l Critère du cercle :
s Pour une valeur k ∈ [ −k1 , −k2 ] la boucle fermée est stable
s Le tracé de Nichols ne coupe pas le cercle de diamètre [ −1/k1 , −1/k2 ]
−1/k2
−1/k1
l Plus le lieu de Nyquist de ΣK est distant du point −1 plus on peut attendre de robustesse
s Marge de gain : de combien augmenter/diminuer le gain de ΣK sans couper −1
s Marge de phase : de combien augmenter/diminuer la phase de ΣK sans couper −1
s Marge de module : rayon maximal du cercle autour de −1 qui ne coupe pas ΣK
s Marge de module : rayon des cercles en tout point de ΣK qui ne coupent pas −1.
n Stabilité robuste - Théorème du petit gain - [Zhou et al.(1996)Zhou, Doyle, and Glover]
w∆
∆ z∆ 1
la boucle fermée est stable pour toute incertitude ||∆||∞ ≤ µ
Σ
l Stabilité (interne) de la boucle ∆ ? Σ où Σ et ∆ sont des matrices de transfert :
⇔ bien posé de la boucle pour tout s ∈ C+
1 −Σ(s)
⇔ propre et inversible pour tout s ∈ C+
−∆(s) 1
l Preuve suffisance :
s Pour tout τ ∈ [0 1] on a τ k∆k∞ kΣk∞ < 1
1
On en déduit kΣ[τ ∆]k∞ < 1 ∀τ ∈ [0 1] ∀||∆||∞ ≤ µ
1
C’est à dire σ̄(Σ(jω)[τ ∆(jω)]) < 1 ∀τ ∈ [0 1] ∀||∆||∞ ≤ µ ∀ω
[1 − Σ(jω)[τ ∆(jω)]] est inversible ∀τ ∈ [0 1] ∀||∆||∞ ≤ µ1 ∀ω
1 −Σ(jω)
est inversible ∀τ ∈ [0 1] ∀||∆||∞ ≤ 1 ∀ω
µ
−τ ∆(jω) 1
∈ [0 , 1] et s = jω sur l’axe imaginaire = frontière de C+
(A) La propriété est vraie ∀τ
1 −Σ(s)
s Σ est stable donc propre et inversible ∀||∆||∞ ≤ 1 ∀s ∈ C+
µ
−0∆(s) 1
(B) La propriété est vraie pour τ = 0 et s ∈ C+
s Argument de continuité : Pour que la propriété soit fausse pour τ = 1 et un s ∈ C+ il faut
qu’elle soit à la limite entre validité et non-validité pour un certain τ ∈]0 , 1[. C’est à dire qu’il
existe τ ∈]0 , 1[ et s = jω qui contredise (A).
1 1 1 1
k∆k2∞ = ∗ ∗
σmax (yu uy ) = ∗
σmax (yy ) = < 2
(µ + )4 (µ + )4 (µ + )2 µ
s Stabilité robuste
2 3
1 1
" # 0 γm γp Wm ΣWp γm Wm Σ
ˆ m k∞ ≤ 1
ˆm
∆ w∆ ,z∆ 6 7 u,y k∆
ˆp
? 6 6 −1 − γ1p ΣWp −Σ 7 ?
7
K, ˆ p k∞ ≤ 1
∆ 4 5 k∆
| {z } −1 − γ1p ΣWp −Σ
ˆ
∆
| {z }
Σ̂
0.5
2.2
0.01 Re(s)
0
1.2 0.05l
−0.5
0.2
−1
0.5l
−1.5
−2
−1.5 −1 −0.5 0 0.5 1 1.5 2
n Exemple de multi-performance H∞
l Précision de la boucle fermée à des perturbations basse fréquence sur l’entrée du système
0 1
? (−1) Wp
= k(1 + ΣK)−1 ΣWp k∞ ≤ γp
Σ ΣK
∞
n Loop-shaping SISO
– Suivi de référence et réjection de perturbations :
σ(Ly ) grand 0 ≤ ω ≤ ωB
σ(K) faible 0 ≤ ωB ≤ ω
σ(Ly ) faible 0 ≤ ωB ≤ ω
l Factorisation de Ad = Bd Cd
ẋ(t) = Ax(t) + B w (t)
d d
, w(t) = z(t − τ )
z(t) = Cd x(t)
ke−jωτ k∞ = 1
l∇
∇ définit la “structure” de l’incertitude, γ sa “taille”
n Théorème
l µ-analyse (borne supérieure) :
si µ∇ (M (jω)) < µu pour toutes des fréquences ω ∈ R+
alors ∆ ? M stable pour tout ∆ ∈ ∆
∆γu avec γu = 1/µu
l µ-analyse (borne inférieure) : [Tits and Fan(1995)]
si µ∇ (M (jω)) > µl pour une fréquence ω ∈ R+
alors il existe ∆ ∈∆
∆γl avec γl = 1/µl qui rend ∆ ? M instable
n Propriétés de µ∇ :
l µ∇ croı̂t avec la taille de l’ensemble d’incertitude
∇
∇1 ⊂ ∇
∇2 ⇒ µ∇1 (M0 ) ≤ µ∇2 (M0 )
l Si ∇
∇ = {∇ = δ1, δ ∈ C} alors µ∇ (M0 ) = ρ(M0 )
s Exemple : [Zhou96]
−0.5 0.5 δ1 0 ρ(M ) = 0
M= ∇=
−0.5 0.5 0 δ2 σ(M ) = µ∇ = 1
Nota : l’écart entre les bornes inférieure et supérieure peut être grand
n Propriétés de µ∇ :
∇ avec uniquement blocs complexes alors µ∇ (M0 ) : Cn×n → R est continue
l Si ∇
l Si il existe des blocs réels µ∇ (M0 ) : Cn×n → R peut être discontinue
1 m
s Exemple avec ∇ = δ12 , δ ∈ R et M0 =
−m 1
0 si m 6= 0
µ∇ (M0 ) = ρR (M0 ) =
1 si m = 0
l Problème d’optimisation :
sup ˆ ≤ µ∇ (M0 )
ρR (M0 ∇)
ˆ ∇,σ̄(∇)=1
∇∈∇ ˆ
max ˆ = µ∇ (M0 )
ρ(M0 ∇)
ˆ ∇,σ̄(∇)=1
∇∈∇ ˆ
l Rappel : calcul de bornes inférieures donne des valeurs d’incertitudes (“petites”) qui déstabilisent
s Preuve :
Par définition σ̄(D −1 M0 D)< κ ssi D∗ M0∗ D−∗ D−1 M0 D < κ2 1
Par congruence on trouve la contrainte M0∗ D −∗ D −1 M0 < κ2 D −∗ D −1
On remarque que Q = D −∗ D −1 ∈ D∇ ssi D ∈ D∇ et donc
µ∇ (M0 ) ≤ κ s’il existe une solution aux LMI suivantes M0∗ QM0 < κ2 Q , Q ∈ D∇
µ∇ (M0 ) < κ s’il existe une solution aux LMI suivantes M0 QM0∗ < κ2 Q , Q ∈ D∇
l Preuve alternative de la condition LMI
s La contrainte M0∗ QM0 < κ2 Q s’écrit également
2 32 3
2
h i −κ Q 0 1
1 M0∗ 4 54 5<0
0 Q M0
≤ κ1
Par construction, la partie gauche est déinie-positive si σ̄(∆)
∇ tq σ̄(∆) ≤ κ1 .
donc 1 − M0 ∆ est non singulière pour toute incertitude ∆ ∈ ∇
∇ on a G∆ = −∆∗ G∗ donc
s Pour tout G ∈ G∇ et tout ∆ ∈ ∇
h i −κ2 Q G∗ ∆ h i −κ2 Q 0 ∆
∗ = ∆ 1∗
∆ 1
G Q 1 0 Q 1
n Théorème
l µ-analyse (borne supérieure) :
si µ∇ (M (jω)) < µu pour toutes des fréquences ω ∈ R+
alors ∆ ? M stable pour tout ∆ ∈ ∆
∆γu avec γu = 1/µu
s Pour chaque fréquence les DG-scalings donnent une valeur µu (ω)
l µ-analyse (borne inférieure) : [Tits and Fan(1995)]
si µ∇ (M (jω)) > µl pour une fréquence ω ∈ R+
alors il existe ∆ ∈∆
∆γl avec γl = 1/µl qui rend ∆ ? M instable
s Pour chaque fréquence des algorithmes (aléatoires/non-convexes) donnent une valeur µl (ω)
s Il faut le faire pour toutes les fréquences (ou un quadrillage suffisamment fin)
I1 ω̇1 − ω2 Ω(I1 − I3 ) = T1
I1 ω̇2 − ω1 Ω(I3 − I1 ) = T2
h i0 h i0
- On pose a = (1 − I3 /I1 )Ω et u1 u2 = T1 /I1 T2 /I1
y1 1 a ω1
=
y2 −a 1 ω2
l Matrice de transfert :
−1 1 s − a2 a(s + 1)
Σ(s) = C(s1 − A) B= 2 2
s +a −a(s + 1) s − a2
s Test d’état :
−1 0
à = A − BKC =
0 −1
s Modèle ∆ ? M pour K = 1
1 a
0 1 − − s+1
M = ? K = −K(1 + ΣK)−1 Σ = s+1
a 1
−Σ −Σ s+1 − s+1
1
√
s ∆ ? M stable si k∆k∞ < γF où γF = 1 + a2
1
√
∆ ? M stable si k∆k∞ < γF où γF = 1 + a2
0.8
0.6
0.2
2 + δ1 + δ2 > 0 et 0
−0.2
2
1 + δ1 + δ2 + (a + 1)δ1 δ2 −0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
1
√
s ∆ ? M stable si k∆k∞ < γF où γF = 1 + a2
l Condition suffisante pour le calcul d’une borne supérieure pour toutes les fréquences
µ∇ (M (jω)) < κ , ∀ω ∈ R+ s’il existe une solution aux LMI suivantes
h i −κ2 Q G∗ 1 Q ∈ D∇
1 ∗
M (jω) <0 , , ∀ω ∈ R+
G Q M (jω) G ∈ G∇
s Les deux conditions ci-dessus sont équivalentes (on ne montre que la suffisance)
où ẋ
= A(∆)x est la représentation d’état de ∆ ? M .
s Donc par congruence et en posant Ca (∆) = (1 − D∆)−1 C on trouve
≥0
z 2 }| 32 3{
∗
h
∗
i −κ2 Q G∗ ∆
Ca (∆) ∆ 1 4 54 5 Ca (∆)
G Q 1
2 32 3
h
∗
i 0 P 1
+ 1 A (∆) 4 54 5<0
P 0 A(∆)
| {z }
=A∗ (∆)P +P A(∆)
s Inégalité de Lyapunov pour V (x) = xT P x (on montre P > 0 par A(0) supposée stable)
Cours M2 UPS - Commande robuste 27 Jan-Fév 2012, Toulouse
Cours M2 ASTR - module FRS - Commande Robuste
M q̈ + C q̇ + Kq = N u , q ∈ Rd , d : degrés de liberté
ẋ = AT x + C T w
d d z d
pour le système dual
zd = B T xd + DT wd
w zw
T
s On définit R(K, γ) = Dzw (K)Dzw (K)−γ 2 1 et l’Hamiltonienne (voir annexe ”normes”) :
Hγ,K =
" #
A(K) − Bw (K)R−1 (K, γ)Dzw
T
(K)Cz (K) −Bw (K)R−1 (K, γ)Bw
T
(K)
−CzT (K)(1 − Dzw (K)R−1 (K, γ)Dzw
T
(K)Cz (K) −AT (K) + CzT (K)Dzw (K)R−1 (K, γ)Bw
T
(K)
AT X + XA + X(γ −2 Bw Bw
T
− Bu BuT )X + CzT Cz = 0
AY + Y AT + Y (γ −2 CzT Cz − CyT Cy )Y + Bw Bw
T
=0
ÂK = A + γ −2 Bw Bw
T
X + Bu F + ZLCy
L = −Y CyT , F = −BuT X , Z = (1 − γ −2 Y X)−1
zΩ −Cy 1 0 wΩ
−(s + 1) −(s + 1)
∼
2.47 · 10−4 s2 + 0.62s + 2.12 0.62s + 2.12
l On montre théoriquement que c’est toujours le cas : le contrôleur optimal est d’ordre réduit.
n µ-Synthèse
l Synthèse H∞ (K0 = arg minK kΣ ? Kk∞ ) permet de trouver K0 telle que
1
∆ ? Σ ? K0 stable ∀∆ : k∆k ≤
γ0
s Mais le résultat est pessimiste si ∆ est structurée
l D-scaling unique sur toutes les fréquences donne (étape d’analyse de la boucle fermée)
l Et ainsi de suite par D-K itérations (une étape d’analyse, une étape de synthèse)