//img.uscri.be/pth/ba203a3209739d7775cae1b6f16a245326eacfa4
YouScribe est heureux de vous offrir cette publication
Lire

Automatique avancée en génie électrique 2006 Génie Electrique et Systèmes de Commande Université de Technologie de Belfort Montbéliard

De
2 pages
Examen du Supérieur Université de Technologie de Belfort Montbéliard. Sujet de Automatique avancée en génie électrique 2006. Retrouvez le corrigé Automatique avancée en génie électrique 2006 sur Bankexam.fr.
Voir plus Voir moins
SY50 EXAMEN FINAL
29 juillet 2006-10:30h à 12 :30h en salle P131 à Sévenans
EXERCICE 1 (8POINTS)
Soit le réseau MLP ci-dessous :
Les neurones cachées ont une fonction sigmoïdale tandis que les neurones à la sortie ont une
fonction linéaire
.
Question 1 :
Combien de neurones y a-t-il dans ce réseau ?
Question 3 :
Écrire pour chaque neurone la fonction d’activation a
j
.
Question 4 :
Soit
la fonction d’erreur à minimiser. En cas d’apprentissage batch, quelle est la
valeur de N ? Quand faut-il employer un tel type d’apprentissage ?
=
=
N
n
n
E
E
1
Question 5
Expliquer le procédé pour évaluer les dérivées de la fonction
n
E
par
rapport aux poids du
réseau et définir pour le réseau MLP
,
les
δ
j
. A quoi servent ces dérivées ?
Y
1
Y
o
3
4
1
2
X
1
X
2
W
31
W
32
W
41
W
42
W
03
W
04
W
13
W
14
Question 6
Une fois les dérivées calculées, calculez les
δ
j
du neurone de la sortie et des neurones cachés.
Justifiez les étapes des calculs.
Question 7
Comment les poids doivent-ils être modifiés ? Quelle est la loi d’apprentissage ? Comment
choisit-on le coefficient d’apprentissage ?Pourquoi faut-il ajouter le momentum ?
EXERCICE 2 (5POINTS)
Décrivez la méthode d’identification d’un système non-linéaire par un modèle ARMAXX et un
modèle NNARMAX. Peuvent-ils représenter des systèmes avec pôles ?
EXERCICE 3 (3POINTS)
A quoi sert le test de validation pour un réseau de neurones ? Donnez au moins un
exemple.Comment l’emploie-t-on pour choisir le nombre des neurones cachés ?
EXERCICE 4 (facultatif, 6 POINTS)
Soit donnée la fonction :
=
+
+
=
N
n
n
n
nx
c
a
x
f
0
.
0
)
sin(
)
(
ϑ
où a
0
,c
n
,
θ
n
sont des constantes réelles et n est un nombre entier. Il s’agit d’une combinaison
linéaire de N sinusoïdes pour approximer une fonction. Imaginez comment cela peut être
représenté par un réseau neuronal. Que arrive-t-il si N est très grand ?