gpa-779 application des réseaux de neurones et des systèmes experts cours #3 - 1 plan 2- domaines...

Post on 04-Apr-2015

111 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 1

Plan2- Domaines d’application

Classification RegroupementApproximation PrédictionMémoire associativeOptimisation

Commande robotique3- Perceptron

Historique Reconnaissance de formes Neurone formel de McCulloch & Pitts Perceptron de Rosenblatt Adaline et madaline de Widrow-Hoff

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 2

Découverte

S. Haykin, Neural Networks: A Comprehensive Foundation, Prentice Hall, 2e édition, 1998 (1ère édition: IEEE Press). Approche ingénierie Classique dans le domaine Meilleure introduction aux

réseaux de neurones artificiels, selon un sondage.

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 3

Découverte

Hervé ABDI, Les réseaux de neurones, Presses Universitaires de Grenoble, 1994. Découvert à Paris, juillet

2002, 24€ Approche pédagogique Nombreux exemples numériques Perceptron : Rosenblatt et

multicouche, MA, Hopfield Appendice: calcul matriciel Appendice: programmes MATLAB

Chapitre 2

Domaines d’application

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 5

Principaux domaines d’application

1. Classification 2. Regroupement 3. Approximation 4. Prédiction 5. Optimisation de

parcours

6. Mémoire associative

7. Commande

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 6

2.1 ClassificationMontrer par l’exemple à reconnaître les catégories de formes présentées à l’entrée du réseau Perceptron de Rosenblatt Réseau à rétro-propagation du gradient d’erreur (perceptron multicouche)

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 7

Reconnaissance de chiffres

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 8

Sonar Travaux de Sejnowski & Gorman, 1988

Pré-traitement: TFD

Apprentissage: formes spectrales

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 9

2.2 ApproximationTransformer une forme d’entrée en une forme de sortie selon une fonction de transformation apprise par le réseau Réseau à rétro-propagation du gradient d’erreurs (perceptron multicouche)

Adaline-Madaline

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 10

Approximation de fonction transcendentale

n=10; K=21 31 param. à entraîner :–20 poids–11 polar.

y=0,8sinπx

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 11

Réseau Net Talk Sejnowski & Rosenberg

1986 But: Apprendre à prononcer un texte écrit avec l’aide d’un dictionnaire phonétique

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 12

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 13

Approximation complexe: conduite d’un véhicule motorisé

1217 unités

à gauche

à droite

route + claireou + foncée

= 256

= 960 (dans le bleu)

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 14

Approximation complexe: conduite de véhicule motorisé Projet développé à Carnegie-Mellon Apprentissage: 1200 images présentées 40 fois chacune. Les images représentent une grande diversité de courbes, d’intensité et de distortion. L’apprentissage dure ~30 min.

Résultats: Le meilleur à … ~5 km/hrs dans une route boisée.

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 15

2.3 PrédictionPrédire une valeur de sortie à partir d’une forme d’entrée

Indice Dow-Jones

Couche cachée: 20

14 indicateurs, dont: DJ précédent Or Bons du trésor

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 16

2.4 Compression Encodeur 8-3-8

transmis

Extractionde

primitivesClassification

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 17

2.5 Mémorisation associativeMémoriser plusieurs formes.En rappeler 1 à partir d’une forme partielle ou bruitée.

Réseau de Hopfield BAM, ABAM

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 18

Reconstruction d’images

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 19

2.6 OptimisationTrouver une bonne solution (pas nécessairement LA solution optimale) qui minimise une fonction de coût. Réseau récurrent de Hopfield Machine de Boltzmann

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 20

Voyageur de commerceUn vendeur doit établir un itinéraire de visite de 5 villes. Il doit partir de Boston et revenir à Boston à la fin de son itinéraire.

Chaque ville est visitée une et une seule fois

L’itinéraire doit être le plus court possible afin de minimiser les frais d’essence

La principale difficulté rencontrée avec ce type de problème est l’explosion combinatoire des solutions à évaluer.

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 21

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 22

Réseau de Hopfield Lignes villes Colonnes séquence de visite

Poids contraintes du problème à résoudre– 1 ville visitée 1 seule fois

– 1 étape 1 seule ville– Distance entre les villes

Activation du réseau minimisation du coût

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 23

2.7 RegroupementApprendre sans supervision à classer les données soumises au réseau.Les classes sont regroupées selon un critère de proximité des formes. 2 formes «semblables» vont activer une seule et même classe.Les réseaux de compétition forment la base : Gagnant emporte tout ART Kohonen, LVQ

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 24

Réseau ART pour la classification non-supervisée

GPA-779 Application des réseaux de neurones et des systèmes expertsCours #3 - 25

ART: reconnaissance de lettres manuscrites

= 0,9

= 3 et plus nouvelle

catégorie

Chapitre 3

Le Perceptron

Réseaux de Neurones Application en Reconnaissance de Formes

d’après B. SolaimanDépt. Image & Traitement de l'Information

Ecole Nationale Supérieure des Télécommunications de Bretagne

Plan

1 Problématique de reconnaissance de formes

2 Développement d’une solution neuronale

3 Neurone formel - Perceptron, Madaline

Problématique de Reconnaissance de Formes

1

Espace d'entrée

XExtraction

desprimitives

Espace des primitives

YSystème

dedécision

Espace des décisions

D

z = u + v

.... .

...... ..... ... ...y1

1 Problématique de reconnaissance de formes

Les primitives :

1 Les vecteurs propres

.... .

...... ..... ..

.. ...

x

y

i

j

z

z = x1 + y1 i j

x1

v

xi

j

z

u

V1

V2

V1 V2

1 Problématique de reconnaissance de formes

2 Les primitives visuelles

….

1 Problématique de reconnaissance de formes

3 Les vecteurs prototypes

z (x,y) z (d1,d2,d3)

... .. .

..

... ..

... .. .. .

..y

x

zP1

P2

P3

... .. .

..

... ..

... .. .. .

..d1

zd2d3

P1

P2

P3

... .. .

..

... . ... .

. .. ...

Développement d’une solution neuronale

2

Problème formel

Un ensemble de connaissances

Une base d’apprentissage

Case Based Reasoning

Problème formel : Reconnaissance de chiffres manuscrits

Connaissances : L’ensemble des chiffres (0, 1, … , 9),La structures des chiffres, Forme de représentation (images 16x16),Les primitives à utiliser,Les méthodes de pré-traitement utilisées,..

Une base d’apprentissage :

5, Chiffre « 5 »

?

Problème formel : Reconnaissance de pannes dans les cartes électroniques.

Connaissances : L’ensemble des pannes potentielles,Les mesures réalisables,

Une base d’apprentissage :

Carte + panne + Mesures associées

2 Développement d’une solution neuronale

Démarche

1 Identifier les connaissances exploitables

2 Définir l’architecture neuronale adéquate :a. objectifs,b. nature de la base d’apprentissage

3 Définir la mémoire et l’algorithme d’apprentissage

4 Définir la stratégie de décision

2 Développement d’une solution neuronale

Catégorisation des R.d.N en Reconnaissance de Formes

1 Les réseaux de neurones classifieurs

Extraction des primitives

Réseau de neurones classifieur

Espace d’objets

Espace des primitives

Espace des décisions

Réseau de neurones d’extraction de primitives

2 Développement d’une solution neuronale

2Les réseaux de neurones extracteurs de primitives

Système de décision

Espace d’objets

Espace des primitives

Espace des décisions

2 Développement d’une solution neuronale

3Les réseaux de neurones extracteurs de primitives/Classifieurs

Réseau d’extraction de primitives / classifieurs

Extraction des

primitives

Système de

décision

Espace d’objets

Espace des primitives (d’observations)

Espace des décisions

Neurone formel : Réseaux perceptron et

madaline3

Le neurone formel de McCulloch&Pitts

?.AND. .OR.

.XOR.

…....

Fonctions logiques

1

x1

wn

xn

wN

xN

y

Circuit à seuil

Combinateur linéaire adaptatif

yq

Modèle du neurone formel de McCulloch&Pitts 1943

y = X × WT = wnxn

n =1

N∑

⎩⎨⎧ >

=sinon. 1-

y si 1 yq

θ

Version circuit à seuil

w1

x1

wn

xn

wN

xN

y

Combinateur linéaire adaptatif

y = b + wnxn

n =1

N∑

1

b

Biais

Version somme biaisée

0wxwxb 2211 <++

w1=+1

x1

x2

w2=+1 ET

w1=+1

x1

x2

w2=+1 OU

x1 x2Sortie ET Sortie OU

-1 -1

-1 1

1 -1

1 1

-1 -1

-1

-1

1

1

1

1

Exemple

x1

x2

D +

D -

x1

x2

D +

D -

x3

Surface de décision 3Surface de décision 2

La fonction réalisée par un neurone formel :

La séparation linéaire

Exemple :

P Q PQ

1 1 +1

1 -1 -1

-1 1 -1

-1 -1 -1

Q

P

Y

1

w1

w2

b

PQP

Q

-

-

+

-

P

Q

-

-

+

-

Exemple (suite) :

La droite qui résoud le problème est donnée par :

où b = -1w1 = 1w2 = 1

0wxwxb 2211 <++

21

2

12 w

bx

w

wx −−=

le signe de b vérifie que :

Exercice :

P Q PQ

1 1 +1

1 -1 +1

-1 1 +1

-1 -1 -1

Q

P

Y

1

w1

w2

b

PQP

Q

+

-

+

+

Exercice (solution) :

P

Q

+

-

+

+

La droite qui résoud le problème est donnée par :

où b = 1w1 = 1w2 = 1

0wxwxb 2211 >++

21

2

12 w

bx

w

wx −−=

le signe de b vérifie que :

Le neurone sépare deux classes mais ne permet pas de les caractériser !

x1

x2

D+

D-

X

Y

C1

C2

x1

x2

s

S(X) = S(Y)

Apprentissage des poids synaptiques

Apprentissage ?1 deux classes C1 et C2

linéairement séparables

2

b+ wnxn

n =1

N∑ = 0

Surface de séparation :

3 Apprentissage

Base d’exemples

(Xk, d(k))

d(k) = {0,1} ou {-1,+1} Estimer wn et b

L’algorithme d’apprentissage de Rosenblatt , 1958

w1

x1(k)

wn

xn(k)

wN

xN(k)

y(k)

yq(k)

d(k)Algorithme

deRosenblattNouveaux

[w1, w2,…, wN] eq(k)

W (t+1) = W (t) + eq(k) Xk

Xk

W (t)

W(t+1)

x1x2

x3

W (t+1) = eq(k) Xk

Interprétation géométrique de l’algorithme de Rosenblatt

La modification de poids est proportionnelle à l’erreur et au vecteur d’entrée et est de même direction que ce dernier

initialisation aléatoire des poids synaptiques;

tant que CONDITION D’ARRÊT non vérifiée fairePour k = 1 jusqu'à k = K

faireprésenter la forme Xk à l'entrée;calculer yq(k);calculer eq(k);

Pour n = 0 jusqu'à n = N faireajustement des poids :

wn(t+1) = wn(t) + eq (k) xn(k)

Fin;

Fin;

Fin.

Le déroulement de l’algorithme d'apprentissage

Exemple :

P Q PQ

1 1 1

1 0 -1

0 1 -1

0 0 -1

Q

P

Net

1

w1

w2

b3

Out

d

Seuil à 0,2

Exemple (suite):

P Q b

1 1 1w1 w2 b

1 1 1

Initialisation des poids à 0

w1 w2 b

1 1 1

(0 0 0)

d

1

Calcul de la droite de séparation ±=++ bQwPw 21

P Q b

1 0 1w1 w2 b

-1 0 -1

w1 w2 b

0 1 0d

-1

Net Out

0 0

Net Out

2 1

… … …

Rosenblatt a démontré, 1960, la convergence de cetalgorithme pour la séparation de deux classes à condition qu'elles soient linéairement séparables.

Si eq(k) = 0 yq(k)= d(k)

W (k+1) = W (k) (i.e. pas de modification des poids synaptiques)

Exemple : = 0, d(k)= 1 y (k) = 0.0001 y (k) = 0.9999

eq(k) = 0

L’algorithme de Widrow-Hoff, 1960

w1

x1(k)

wn

xn(k)

wN

xN(k)

y(k)

yq(k)

d(k)

Algorithme de

Widrow-Hoff

Nouveaux[w1, w2,…, wN] e(k)

Minimiser l'erreur analogique quadratique moyenne : [d(k) - y(k)]2

W (t+1) = W (t) + e(k) Xk

C1

C2

C1

C2

C1

C2

Widrow-Hoff

C1

C2

C1

C2

C1

C2

RosenblattA p p r e n t i s s a g e

C2

C1

x2

x1

Marvin Minsky, 1969  Perceptrons, an introduction to computational geometry 

Le problème du XOR

réseaux Madalinex2

x1

Z2

Z1

Solution « artificielle »

et si N > 3 ?Naissance de l’architecture multicouches

Y

X2

X1

1

1 1b1

v1

w11

w12

w21

w22

v2

b3

b2

Fausett, Prentice Hall, 1994

Exercice 2.7

P Q P•Q

1 1 1

1 -1 -1

-1 1 -1

-1 -1 -1Q

P

Y

1

w1

w2

b

P Q

P Q b

1 1 1

1 -1 1

-1 1 1

-1 -1 1

w1 w2 b

1 1 1

-1 1 -1

1 -1 -1

0 0 0

w1 w2 b

1 1 1

0 2 0

1 1 -1

1 1 -1

d

1

-1

-1

-1

Out

0

1

1

-1

Net

0

1

2

-3

Exercice 2.7 (suite)

P

Q

-

-

+

-

P

Q

-

-

+

-

P

Q

-

-

+

-

P + Q + 1 = 0 Q = 0 P + Q - 1 = 0

Étape 1 Étape 2 Étape 3

Fausett, Prentice Hall, 1994

Exercice 2.16

P Q P¬Q

1 1 0

1 0 1

0 1 0

0 0 0

22

4

1p1 ))p(dbw)p(Qw)p(P(E −++=∑

=

bw)p(Qw)p(P 21 ++

La règle d’apprentissage de l’ADALINE cherche à minimiser l’erreur quadratique totale :

où est la valeur « Net » et d est un élément de la table de vérité de P¬Q

Q

P

Net

1

w1

w2

b

Out

d

Exercice 2.16 (suite)

E = (w1 + w2)2 + (w1 – 1)2 + (w2)2

2 w1 + w2 – 1 = 0

-4 w2 + w2 – 1 = 0 ou w2 = -1/3

2(w1 + w2) + 2(w2) = 0

w1 + 2 w2 = 0 ou w1 = -2 w2

w1 = 2/3

2(w1 + w2) + 2(w1 – 1) = 0

Le AND NOT sans valeur de biais consiste à minimiser :

Il n’y a pas d’erreur pour la dernière ligne du tableau logique, peu importe les valeurs de poids synaptiques.

Les dérivées partielles en w1 et w2 permettent de trouver le minimum de E :

Exercice 2.16 (suite)

2(w1 + w2 + b) + 2(w1 – 1 + b) = 0

E = (w1 + w2 + b)2 + (w1 – 1 + b)2 + (w2 + b)2 + b2

2(w1 + w2 + b) + 2(w2 + b) = 0

2(w1 + w2 + b) + 2(w1 – 1 + b) + 2(w2 + b) + 2b = 0

2 w1 + w2 + 2b = 1

w1 + 2 w2 + 2b = 0

2 w1 + 2 w2 + 4b = 1{

w1 = 0.5 w2 = -0.5 b = 0.25

Le AND NOT avec valeurs de biais consiste à minimiser :

Les dérivées partielles en w1, w2 et b permettent de trouver le minimum de E :

top related