b.e. 2012 - 2013 - la troïka · la théorie naïve des ensembles, les mathématiciens ont...

291
B.E. 2012 - 2013 www.mathoman.com Agregation interne Notes de cours, tests, exercices et corrigés Version du 9 janvier 2013 Université Paris Sud Orsay

Upload: vandiep

Post on 12-Sep-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

B.E. 2012 - 2013

www.mathoman.com

Agregation interne

Notes de cours, tests, exercices et corrigés

Version du 9 janvier 2013

Université Paris Sud Orsay

Table des matières

Ensembles. Applications. Relations. Dénombrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Assertions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Relations. Quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ensembles dénombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Un peu de combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Calcul vectoriel dans Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. L’espace vectoriel canonique Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. Sous-espaces vectoriels. Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Familles libres, familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Dépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Enrichir une famille libre. Épurer une famille génératrice . . . . . . . . . . . . . . . . . . .. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Base canonique de Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Existence d’une base. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Exemple : l’espace des carrés magiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. L’espace vectoriel Mmn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Multiplication matricielle. L’anneau Mn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Le rang des lignes est égal au rang des colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . .. Le groupe GL(n,K) des matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. La méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. L’algorithme du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. Matrices élémentaires et inversion d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . .. Sous-groupes du groupe linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

www.mathoman.com Table des matières

.. La décomposition LR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Applications linéaires de Kn dans Km . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Application linéaire définie par une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Noyau, image et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. Retour sur l’exemple des carrés magiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Descriptions des sous-espaces vectoriels de Kn . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Espaces vectoriels et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . K-espaces vectoriels et K-algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. Le point de vue axiomatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Les axiomes d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Les axiomes d’une algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Exemples d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Exemples d’algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Sous-espaces vectoriels et sous-algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Produit d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Applications linéaires. Morphismes d’algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. L’espace vectoriel L (E,F ), l’algèbre L (E), le groupe GL(E) . . . . . . . . . . . . . . .. Image et noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Espaces quotients (au tableau) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Sous-espace vectoriel engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Bases. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Familles libres. Familles liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Espaces de dimension infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Images d’une famille par une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . .

. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Représentation matricielle d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Système de coordonnées associé à une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Représentation d’une application linéaire par une matrice . . . . . . . . . . . . . . . . . . . . . . . .

.. L’isomorphisme L (E,F ) ≃Mmn(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Matrices équivalentes, matrices conjuguées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Exemple : réduction d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Somme directe de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Somme directe et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Somme directe de deux sous-espaces. Supplémentaires . . . . . . . . . . . . . . . . . . . .

. Sommes directes et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Formes linéaires. Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Le théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Exemple : réduction des projections et symétries . . . . . . . . . . . . . . . . . . . . . . . . . .

. Le lemme des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Table des matières

. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Volume orienté en dimension un, deux ou trois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.. Formes multilinéaires alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. La formule polynomiale du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. Calculs de déterminants et conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Déterminant d’un produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Développement suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . .

. Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réponses aux tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Espaces euclidiens et hermitiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . En trois dimensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Algorithmess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Corrigé agrégation interne 2002 épreuve 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Université Paris Sud agreg 2012 - 2013

Ensembles. Applications. Relations. Dénombrabilité

Dans ce chapitre nous allons rappeler ce qu’un « working mathematician »doit savoir sur les ensembles et les applications. Nous n’entrons pas dans desquestions d’ordre philosophique mais gardons une approche naïve de la no-tion d’ensemble. Il ne s’agit pas d’une présentation systématique destinée auxnovices mais de rappels pour ceux qui ont déjà vu la plupart des notions etnotations. Pour un peu plus de détails et de rigueur le lecteur pourra consulterles chapitres 7 et 8 du livre Mathématiques L1 (Pearson 2010).

.. Ensembles

Un ensemble est une collection non-ordonnée d’objets bien définis. On appelle éléments les objetsappartenant à l’ensemble et on note x ∈ E, ou encore E ∋ x, l’appartenance de l’élément x àl’ensemble E.

Règle .. On peut définir un ensemble E de deux manières1) en extension : en énumérant entre accolades ses éléments ;2) en compréhension : E est le sous-ensemble formé des éléments x d’un ensemble connu X vérifiant

une certaine propriété notée p(x). On note alors

E = x ∈ X | p(x)

et l’on dit que «E est l’ensemble des x dans X vérifiant p(x) ».

Par exemple, résoudre une équation (algébrique, différentielle, etc.) revient à passer d’une écriturede l’ensemble des solutions en compréhension à une écriture en extension.

Exemple ..On peut définir en extension ou en compréhension l’ensemble U3 des racines cubiques de l’unité

U3 = 1, e2iπ/3, e4iπ/3 = z ∈ C | z3 = 1.

Au-delà d’une simple énumération, on peut aussi définir en extension un ensemble au moyend’une formule. C’est ce que l’on fait lorsqu’on définit un ensemble par une description de seséléments : «E est l’ensemble des objets de la forme. . . ». Ainsi, l’ensemble E des nombres de la formen2 + 1 où n est un entier naturel peut s’écrire E = n2 + 1 |n ∈ N. Il est clair que E s’écrit encompréhension E = m ∈ N | ∃n ∈ N : m = n2 + 1.

Tests

.. Écrire en extension et en compréhension l’ensemble A desentiers naturels divisibles par 4.

.. Écrire en extension et en compréhension l’ensemble B desracines n-ièmes de l’unité.

Les rudiments que nous venons d’exposer ne suffisent pas à bâtir une théorie sans faille, la raisonessentielle étant que, contrairement à l’intuition ordinaire, un ensemble ne peut pas être n’importequelle collection d’objets. C’est le philosophe Bertrand Russell qui ébranla le premier la théorie« naïve » de Cantor et Frege à l’aide de son célèbre paradoxe : notons E l’ensemble de tous lesensembles et considérons A le sous-ensemble de E formé des ensembles qui ne se contiennentpas eux-mêmes. Si A ∈ A alors, par définition de A, A 6∈ A, ce qui est absurde. De même, si A 6∈ Aalors, par définition de A, A ∈ A, ce qui est également absurde ! Afin d’éviter les paradoxes de

. Russell en donnera lui-même une version plus imagée, le paradoxe du barbier : un barbier décide de couper la barbeà tous les habitants de la ville qui ne se rasent pas eux-mêmes. Se coupe-t-il lui-même la barbe ?

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

la théorie naïve des ensembles, les mathématiciens ont construit une théorie axiomatique des en-sembles qui fixe des règles plus précises mais nous n’entrons pas dans les détails de cette théorie.

Cardinal

Le cardinal d’un ensemble E, noté |E| ou #(E) ou card (E), est le nombre d’éléments de E. On ditqueE est un ensemble fini si son cardinal est fini. Si, au contraire,E contient une infinité d’élémentson dit que E est un ensemble infini et on écrit |E| =∞.Un ensemble qui ne contient qu’un seul élément est appelé un singleton. Le seul ensemble decardinal nul est l’ensemble vide, noté ∅.

Sous-ensembles

On dit «A est inclus dans B » si tout élément de l’ensemble A est aussi élément de l’ensemble B.On dit également «A est un sous-ensemble de B » ou «A est une partie de B » et on écrit A ⊂ Bou encore B ⊃ A. On illustre la relation A ⊂ B par le diagramme :

A B

Exemple ..N ⊂ Z ⊂ Q ⊂ R ⊂ C.

Règle ..Soient E et F des ensembles. Alors on a :. Si E ⊂ F alors |E| 6 |F |.. Supposons E ⊂ F et |E| <∞. Alors |E| = |F | si, et seulement si, E = F .

Cette règle est intuitivement claire. Remarquons que la deuxième ne reste pas vraie si E est unensemble infini. Par exemple N et Z sont de même cardinal, mais N est un sous-ensemble strict deZ.

Ensemble des parties d’un ensemble

Pour un ensembleE on note P(E) l’ensemble de toutes les parties deE. Le lecteur est conseillé depenser en analogie avec son ordinateur : « ensemble : dossier » et « elément : fichier ou dossier ».De la même manière qu’un dossier peut contenir d’autres dossiers, un ensemble peut contenird’autres ensembles comme éléments.

Exemple ..P(∅) = ∅ , P(a) = ∅, a , P(a, b) = ∅, a, b, a, b.

Règle ..Soit E un ensemble. Alors P(E) est fini si, et seulement si, E l’est. Si E est fini, alors |P(E)| = 2|E|.

Preuve. Supposons que E est fini et notons n = |E|. Pour constituer une partieA deE on décidepour chaque élément de E si l’on le met dans A ou non. Ainsi il y a n choix binaires à faire (arbrede choix comme dans une expérience de Bernoulli), c’est-à-dire il y a 2n parties distinctes de E ;cela prouve la formule demandée et en même temps que P(E) est fini. Réciproquement, suppo-sons que E est infini. Alors P(E) contient, entre autres, les singletons x où x ∈ E et commeceux-ci sont en nombre infini, P(E) est infini.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Ensembles

Tests

.. Déterminer le cardinal de [−5, 3[ et de J−5, 3K.

.. Quel est le cardinal de , ⋆, , , ?

.. Expliciter A = P(a, b, c) et B = P(P(a, b)).

.. Soit E un ensemble fini. Démontrer la formule|P(E)| = 2|E| par récurrence.

Opérations sur les ensembles

Pour deux ensembles A,B quelconques on définit l’ensemble A × B := (a, b)|a ∈ A, b ∈ Bappellé produit cartésien deA etB. Plus généralement pour des ensemblesA,A1, . . . , An on définit

nYk=1

Ak := A1 × . . .×An := (a1, . . . , an)|ak ∈ Ak , An :=nY

k=1

A.

Dans la suite A et B sont des parties d’un même ensemble E.

E

AB

Intersection : A ∩B = x ∈ E | x ∈ A et x ∈ B

Réunion : A ∪B = x ∈ E | x ∈ A ou x ∈ B

Complément : ∁EA = A = x ∈ E | x 6∈ A

Différence : A\B = A−B = x ∈ E | x ∈ A et x 6∈ B = A ∩B

A ∩B A ∪B A ou ∁EA A\B ou A−B

(On définit de manière analogue l’intersection et la réunion d’une famille de sous-ensembles d’unensemble E.)

CommutativitéA ∪B = B ∪A

A ∩B = B ∩A

AssociativitéA ∪ (B ∪ C) = (A ∪B) ∪ C

A ∩ (B ∩ C) = (A ∩B) ∩ C

DistributivitéA ∩ (B ∪ C) = (A ∩B) ∪ (A ∩C)

A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪C)

Lois de De MorganA ∪B = A ∩B

A ∩B = A ∪B

Dichotomie A ∪ A = E A ∩ A = ∅ A = A

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Ces règles sont faciles à comprendre si on les visualise à l’aide de diagrammes.

Démontrons, par exemple, l’égalité A ∪B = A ∩B :

A ∪ B. A ∪ B est intersection de A et B.

Illustrons l’égalité A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩C) :

B C

A B ∪ C A ∩ (B ∪ C)

A ∩B A ∩ C (A ∩B) ∪ (A ∩ C)

Le lecteur est invité à examiner de la même manière la validité des autres règles du tableau.

Ensembles disjoints. Partitions

Si A∩B = ∅ on dit que A et B sont disjoints. On remarque que A et B sont disjoints si et seulementsi A ⊂ B, ou encore si et seulement si B ⊂ A.

E

AB

Une partition de E est une famille (Ai)i∈I de parties non-vides de E, disjointes deux à deux ettelles que leur réunion soit E ; autrement dit, Ai ∩ Aj = ∅ pour i 6= j et

[i∈I

Ai = E.

A1

A2

A3

A4

A5

A6

A7

E

Le lecteur remarquera que, encore une fois, les informaticiens nous ont emprunté un terme :« partition du disque dur ».

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Ensembles

Exemple ..• Les vingt arrondissements de Paris constituent une partition de Paris.• , ∗, ,, ∇ est une partition de l’ensemble ,, ∗,,∇.• Les ensembles 2Z et 1 + 2Z constituent une partition de Z.

Règle .. Si (Ai)i∈I est une partition d’un ensemble E alors |E| =Xi∈I

|Ai| .

Proposition .. Soit E un ensemble et A,B des parties de E. Alors |A∪B|+ |A∩B| = |A|+ |B|.

Preuve. On remarque d’abord que les ensembles A\B, B\A, A ∩B sont disjoints deux à deuxet que leur union est A ∪B. Donc |A ∪B| = |A\B|+ |B\A|+ |A ∩B| et, en ajoutant |A ∩B| auxdeux côtés de cette égalité,

|A ∪B|+ |A ∩B| =|A|z |

|A\B|+ |A ∩B| +|B|z |

|B\A|+ |A ∩B| .

Dans le cas où A et B sont finis on écrit cette formule souvent sous la forme

|A ∪B| = |A|+ |B| − |A ∩B|

et on l’explique ainsi : « Dans la somme |A|+ |B| on a compté deux fois les éléments de l’intersec-tion, donc il faut les retrancher. . . » La proposition suivante généralise cette formule.

Proposition .. (Formule du crible de Poincaré)Soit E un ensemble et A1, . . . , An des parties finies de E. Alors n[

i=1

Ai

= X16i1<···<ip6n

(−1)p+1Ai1 ∩ . . . ∩ Aip

.Preuve. Récurrence sur n ∈ N∗. Le cas n = 1 est trivial et le cas n = 2 a été traité dans laproposition précédente. Soit n ∈ N∗ et supposons que la formule est vraie pour toute famille de nparties finies de E. Soient A1, . . . , An+1 des parties finies de E. On an+1[i=1

Ai

= n[i=1

Ai

!∪ An+1

(1)= n[i=1

Ai

+ |An+1| − n[

i=1

Ai

!∩An+1

(2)=

n[i=1

Ai

+ |An+1| − n[i=1

(Ai ∩ An+1)

(3)=

X16i1<···<ip6n

(−1)p+1Ai1 ∩ . . . ∩Aip

+ |An+1| −X

16i1<···<ik6n

(−1)k+1 |Ai1 ∩ . . . ∩ Aik ∩An+1|

(4)=

X16i1<···<ip<n+1

(−1)p+1Ai1 ∩ . . . ∩Aip

+ X16i1<···<ip=n+1

(−1)p+1Ai1 ∩ . . . ∩ Aip

=

X16i1<···<ip6n+1

(−1)p+1Ai1 ∩ . . . ∩ Aip

,où on a utilisé en (1) le cas n = 2, en (2) un formule de Morgan, en (3) l’hypothèse de récurrenceet en (4) la substitution k = p − 1. Donc la formule est vraie pour toute famille de n + 1 partiesfinies de E et, par le principe de récurrence, elle est valable en général.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Tests

.. Expliciter la formule du crible de Poincaré dans le cas n = 3.

.. Soit E un ensemble de cardinal 100 et A,B des parties de E

tels queA ∩ B

= 60 et |A| = 15. Déterminer |B \ A|.

.. Vrai ou faux ?

nYk=1

Ak

= nXk=1

|Ak|.

.. Soit E un ensemble. Déterminer[

X∈P(E)

X et\X∈P(E)

X.

.. Assertions

Une assertion (ou événement en théorie de probabilités) est une affirmation, comme par exempleA : « le nombre n est multiple de 3 » ou B : « le taux de cholestérol du patient est supérieur à 6 ».Il y a une analogie entre ensembles et assertions qui se laisse résumer par le tableau :

Analogie ensembles↔ assertions

A ⊂ B A =⇒ B A implique B

A = B A ⇐⇒ B A est équivalente à B

A ∩B A ∧ B A et B

A ∪B A ∨ B A ou B

∁A , A ¬A , A Négation de A

Pour A ⇒ B on dit aussi que « B est une condition nécessaire pour A , ou encore que « A est unecondition suffissante pour B ». Ainsi A ⇔ B signifie que A est nécessaire et suffissante pour B ;on dit aussi « A si et seulement si B ».

Négation

La négation de « Céline a au moins 18 ans » est « Céline a au plus 17 ans ». Pour nier une asser-tion contenant les conjonctions et ou ou on doit utiliser les lois de De Morgan (p.) qui, d’aprèsl’analogie entre ensembles et affirmations, s’écrivent comme suit :

A ∨ B ⇐⇒ A ∧ B A ∧ B ⇐⇒ A ∨ B

On remarque que lors de la négation la conjonction et devient ou, et vice versa.

Exemple ..Le contraire de

« Céline a le bac et le permis de conduire »

est

« Céline n’a pas le bac ou elle n’a pas le permis de conduire. »

La négation d’une assertion impliquant des quantificateurs se fait en inversant les rôles de ∃ et ∀.

∀x ∈ X : A ⇐⇒ ∃x ∈ X : A et ∃x ∈ X : A ⇐⇒ ∀x ∈ X : A .

On s’en convainc facilement en considérant la phrase « tout élève de la classe a la moyenne ». Lanégation est « il existe un élève dans la classe qui n’a pas la moyenne ».

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Assertions

Exemple ..Soit I ⊂ R et f : I → R une fonction. La fonction f est continue si, et seulement si,

∀ a ∈ I ∀ ǫ > 0 ∃ δ > 0 ∀x ∈ I avec |x− a| < δ : |f(x)− f(a)| < ǫ.

Elle n’est pas continue si, et seulement si,

∃ a ∈ I ∃ ǫ > 0 ∀ δ > 0 ∃x ∈ I avec |x− a| < δ : |f(x)− f(a)| > ǫ.

Contraposition

On a A ⊂ B ⇐⇒ B ⊂ A.

E

A

B

Dire que A ⊂ B revient à dire que l’ensemble B est inclus dans l’ensemble A

Par analogie avec les assertions cela devient la règle de la contraposée :A =⇒ B

⇐⇒

B =⇒ A

Par exemple, l’affirmation (vraie)

« S’il pleut alors la route est mouillée »peut aussi s’énoncer par

« Si la route n’est pas mouillée alors il ne pleut pas. »Remarquons qu’il serait faux d’affirmer « Si la route est mouillée alors il pleut ». En effet, la routepeut être mouillée pour une autre raison (restes d’une pluie revolue, service de nettoyage, inon-dation par la mer, etc.).En principe, prouver la contraposée d’une implication n’est pas plus simple que prouver l’im-plication initiale puisque les deux sont équivalentes. Mais comme le montre l’exemple suivant lacontraposée peut être plus facile à formuler.

Exemple ..Soit n ∈ N, n > 1. On se propose de montrer

2n − 1 est premier =⇒ n est premier.

Or l’hypothèse « 2n − 1 est premier » est difficile à exploiter car elle est d’un caractère négationniste : elledit qu’il n’existe pas de factorisation de 2n − 1. C’est pourquoi nous allons prouver la contraposée

n n’est pas premier =⇒ 2n − 1 n’est pas premier.

En effet, l’hypothèse « n n’est pas premier » est plus apte à être exploitée car elle affirme qu’il existe desk,m ∈ Z tels que n = km et 1 < k < n. Par la formule de la somme d’une suite géométrique

1 + 2k +2k2

+ · · ·+2km−1

=2km − 1

2k − 1=

2n − 1

2k − 1.

La fraction 2n−12k−1

est donc un entier ; autrement dit, 2n−1 est divisible par 2k−1. Puisque 1 < 2k−1 < 2n−1on déduit que 2n − 1 n’est pas premier.Remarque : L’implication « n est premier =⇒ 2n − 1 est premier » est fausse car 211 − 1 = 23× 89. Si elleétait vraie, on pourrait exhiber des nombres premiers de manière constructive ! Les nombres de la forme2n − 1 sont appelés nombres de Mersenne.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Tests

.. L’université donne une bourse à un étudiant si, etseulement si, il est bon et pauvre. Quels sont les étudiants qui nereçoivent pas de bourse ?

.. Soit I ⊂ R et f : I → R une fonction. Ecrire à l’aide dequantificateurs la phrase « f est uniformément continue », puis sanégation.

.. Soit n ∈ N. Formuler la contraposée de « Si n est divisiblepar 6 alors n n’est pas un nombre premier. »

.. Les deux affirmations « ceux qui parlent ne savent pas » et« ceux qui savent ne parlent pas » signifient-elles la même chose ?

.. Applications

Définition ..

Une application f de X vers Y est un triplet f = (X,Y,Γ) où X et Y sont des ensembles et où Γ est une partie deX × Y telle que pour tout x ∈ X il existe un unique y ∈ Y avec (x, y) ∈ Γ. On appelle X la source ou l’ensemblede départ, Y la cible ou l’ensemble d’arrivée, et Γ le graphe de f .

Si (x, y) ∈ Γ on écrit aussi f(x) = y et on dit que y est l’image de x par f et que x est un antécédentde y par f . On note f : X → Y, x 7→ f(x).

XY

X × Y

Γ

Le graphe de f est l’ensemble des couples (x, f(x)) où x parcourt X. Ainsi on peut concevoirl’application f comme la donnée des images f(x) qui varient en fonction de la variable x. Cepoint de vue est adapté à beaucoup de situations, notamment en physique (trajectoire d’un pointmasse en fonction du temps, etc.).

Fibres d’une application

Un autre point de vue pour concevoir une application f : X → Y est celui des fibres. Pour chaquey ∈ Y on appelle fibre de f en y (ou ensemble de niveau y) l’ensemble des antécédents de y, noté

fy = f−1(y ) = x ∈ X : f(x) = y .

Connaître une application revient à connaître la collection (fy)y∈Y de ses fibres. C’est donc y, etnon x, qu’on considère comme variable. Il faut s’imaginer que l’espace de départ est « projeté »sur l’espace d’arrivée.

by

Y

f

fy X

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Applications

Exemple ..Les plans dans R3 d’équations x − 2y + 3z = a où a ∈ R peuvent se concevoir comme fibres de la formelinéaire f : R3 → R, (x, y, z) 7→ x − 2y + 3z. On s’imagine l’espace R3 feuillété en plans parallèles etorthogonaux au vecteur (1,−2, 3).

Une autre notation pour une application f : X → Y est celle en forme de famille (f(x))x∈X . Cequi compte ici c’est simplement la collection des images de l’application. Cette notation oublie despécifier l’ensemble d’arrivée Y .En général, une famille (yi)i∈I dans Y est une application y : I → Y , i 7→ yi , où l’ensemblede départ I est appellé l’ensemble d’indices ; très souvent ce dernier n’a pas d’importance et peutêtre remplacé par un autre ensemble de même cardinal.

On note Y X l’ensemble de toutes les applications de X vers Y . Dans le cas où X = J1, nK uneapplication f : J1, nK → Y s’identifie au n-uplet (f(1), . . . , f(n)) ; ainsi on identifie Y J1,nK auproduit cartésien Y n. Si (Xi)i∈I est une famille d’ensembles alors on note

Qi∈I Xi l’ensemble de

toutes le familles (xi)i∈I telles que xi ∈ Xi pour tout i ∈ I .

Soient f : X → Y et g : Y → Z des applications et A ⊂ X,B ⊂ Y .La restriction de f à A est l’application notée f |A définie par A→ Y, x→ f(x).La composée f suivie de g est l’application notée g f définie par X → Z, x→ g(f(x)).L’ensemble f(A) := f(x) |x ∈ A est appellé l’image directe de A par f . En particulier on appellef(X) l’image de f , notée Im(f).L’ensemble f−1(B) := x ∈ X | f(x) ∈ B est appellé l’image indirecte (ou réciproque) de B par f .f est injective si pour tous x, x′ ∈ X l’égalité f(x) = f(x′) entraîne x = x′. Elle est surjective si pourtout y ∈ Y il existe x ∈ X tel que y = f(x). Elle est bijective si elle est injective est surjective.

Tests

.. Exhiber une application dont les fibres sont les parabolesdans R2 d’équations y = x2 + c avec c ∈ R.

.. Soient f : X → Y et g : Y → Z. Montrer que si g f estinjective alors f itou, et que si g f est surjective alors g itou.

.. Définir l’injectivité (resp. surjectivité, resp. bijectivité) d’uneapplication en termes du cardinal de ses fibres.

.. Soit f : X → Y une application et Γ son graphe. Onconsidère les projecteurs p1 : Γ → X, (x, y) 7→ x, etp2 : Γ → Y, (x, y) 7→ y. Les assertions suivantes sont-ellesvraies ?f est surjective si, et seulement si, p2 est surjective.f est injective si, et seulement si, p1 est injective.f est bijective si, et seulement si, p1 est bijective.f est bijective si, et seulement si, p2 est bijective.f est surjective si, et seulement si, Im(f) = Y .f est injective si, et seulement si, X → Im(f), x 7→ f(x), estbijective.

Proposition .. Une application f : X → Y est. . .1) injective si et seulement si elle est inversible à gauche, i.e. s’il existe g : Y → X telle que gf = idX ;2) surjective si et seulement si elle est inversible à droite, i.e. s’il existe h : Y → X telle que fh = idY ;3) bijective si et seulement si elle est inversible à droite et à gauche, i.e. s’il existe g, h : Y → X telles

que g f = idX et f h = idY . Dans ce cas g = h et cette application est unique ; on l’appelleapplication inverse ou application réciproque de f et on la note f−1.

Preuve.1) Supposons qu’il existe g : Y → X telle que g f = idX . Comme idX est injective on déduit

grâce au test .. que f l’est aussi. Réciproquement supposons que f est injective. Alors nousdéfinissons une application g : Y → X comme suit : si y ∈ Im(f) alors possède un uniqueantécédent par f et on le prend pour g(y). Si y ∈ Y \Im(f) alors y on prend pour g(y) n’importequel élément de X . Par construction on a g f = idX .

2) Supposons qu’il existe h : Y → X telle que f h = idY . Comme idY est surjective on déduitgrâce au test .. que f l’est aussi. Réciproquement supposons que f est surjective. Alorsnous définissons une application h : Y → X comme suit : pour tout y ∈ Y il existe au moinsun antécédent par f et on en choisit un pour g(y). Par construction on a f h = idY .

3) Si f est inversible à gauche et à droite alors, d’après ce qu’on vient de voir, f est injective etsurjective, donc bijective. Réciproquement, si f est bijective, alors f est injective et surjective,donc inversible à gauche et à droite. S’il existe g, h : Y → X telles que f g = idY et hf = idX

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

alorsg = idX g = (h f) g = h (f g) = h idY = h.

Pour montrer l’unicité soient g′, g : Y → X des fonctions inverses de f . Alors

g′ = idX g′ = (g f) g′ = g (f g′) = g idY = g.

Dans la preuve de 2) nous avons utilisé, sans le mentionner, l’axiome du choix : Si (Xi)i∈I estune famille d’ensembles tels que Xi 6= ∅ pour tout i ∈ I alors

Qi∈I Xi 6= ∅. Pour plus de détails

sur cet axiome et ses conséquences consulter par exemple l’article dans Wikipédia.

Théorème .. (Théorème de Cantor-Bernstein)Soient X et Y des ensembles. S’il existe une injection de X dans Y et une injection de Y dans X alors ilexiste une bijection entre X et Y , c’est-à-dire X et Y ont même cardinal.

Preuve. Soient f : X → Y et g : Y → X injectives. Pour tout y ∈ Y on note f−1(y) l’uniqueantécédent de y par f s’il existe, et de manière similaire pour g. Pour x ∈ X nous appelons« ancêtres » de x les éléments,

g−1(x), f−1(g−1(x)), g−1(f−1(g−1(x))), . . .

La suite ci-dessus s’arrête dès qu’un antécédent n’existe pas. Notons X0 (resp. X1, resp. X∞)l’ensemble des x ∈ X ayant un nombre pair (resp. impair, resp. infini) d’ancêtres. EvidemmentX0, X1 et X∞ forment une partition de X . De même on définit les ensembles Y0, Y1 et Y∞ quiforment une partition de Y . On montre sans peine que les applications suivantes sont bijectives

α : X0 −→ Y1 , x 7−→ f(x) ,

β : Y0 −→ X1 , y 7−→ g(y) ,

γ : X∞ −→ Y∞ , x 7−→ f(x) .

On peut donc recoller α, γ et β−1 en une bijection X → Y .

Remarque..Le test .. a la conséquence suivante : l’inverse à gauche (resp. à droite) d’une application injec-tive (resp. surjective) est surjective (resp. injective). On peut donc énoncer le théorème de Cantor-Bernstein aussi comme suit : S’il existe une surjection de X sur Y et une surjection de Y sur Xalors il existe une bijection entre X et Y .

Tests

.. On reprend la preuve du théorème .., mais cette foisavec β : X1 → Y0 , x 7→ f(x), puis on recolle α, β et γ. Est-ceque ça fonctionne aussi ?

.. Relations. Quotients

Définition .. (Relation binaire)

Soit E un ensemble non vide. Une relation (binaire) sur E est la donnée d’une partie R de E2, appelée graphe. Onnote xRy plutôt que (x, y) ∈ R, et l’on dit que x et y sont en relation.

Une relationR sur E est diteréflexive lorsque ∀x ∈ E : xRx ;symétrique lorsque ∀(x, y) ∈ E2 : xRy ⇔ yRx ;antisymétrique lorsque ∀(x, y) ∈ E2 : (xRy et yRx) =⇒ x = y ;transitive lorsque ∀(x, y, z) ∈ E3 : (xRy et yRz) =⇒ xRz.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Relations. Quotients

Tests

.. Sur chacune des relations suivantes vérifier chacune desquatre propriétés introduites ci-dessus.

R = (x, y) ∈ R2 | x2 − y2 = 0,

S = (x, y) ∈ R2 | (x2 − y2)2= 1,

T = (n,m) ∈ N2 | n divise m.

.. Vrai ou faux ?

a. Toute relation symétrique et antisymétrique est transitive.

b. Toute relation relation symétrique et transitive telle quechaque élément est un relation avec au moins un élément estréflexive.

Relations d’ordre

Définition ..On appelle relation d’ordre sur E toute relation binaire réflexive, antisymétrique et transitive. On note traditionnel-lement 4 une relation d’ordre et on dira que (E,4) est un ensemble ordonné pour signifier que E est muni de larelation d’ordre 4.

Exemple ..Voici quelques illustrations. La relation 6 est une relation d’ordre sur R. La relation de divisibilité définie sur N∗ par n |m si et seulement si n divise m est une relation d’ordre. La relation d’inclusion⊂ sur P(E) est une relation d’ordre.

Définition ..

Une relation d’ordre 4 sur E est dite totale lorsque ∀(x, y) ∈ E2, x 4 y ou y 4 x. On dit alors que l’ensemble(E,4) est totalement ordonné.

Autrement dit, l’ordre 4 est total lorsque deux éléments quelconques de l’ensemble E sont com-parables au moyen de la relation 4.

Tests

.. Est-ce que (N,6) est totalement ordonné ? .. Soit E un ensemble tel que |E| > 1. Est-ce que (P(E),⊂)est totalement ordonné ?

Définition ..

Soient (E,4) un ensemble ordonné, F une partie non vide de E et x ∈ E. On dit que1) x est un majorant de F ou encore que x majore F lorsque ∀f ∈ F, f 4 x,2) x est un minorant de F ou encore que x minore F lorsque ∀f ∈ F, x 4 f ,3) x est un plus grand élément de F lorsque x ∈ F et x est un majorant de F ,4) x est un plus petit élément de F lorsque x ∈ F et x est un minorant de F .

Proposition .. Soient (E,4) un ensemble ordonné et F une partie non vide de E. Si F admet unplus petit (resp. plus grand) élément, celui-ci est unique.

Preuve. Il s’agit d’une conséquence immédiate de l’antisymétrie de 4 : soient m1 et m2 deuxplus petits éléments de F . Comme m2 ∈ F , on a m1 4 m2. Comme m1 ∈ F , on a égalementm2 4 m1. Ainsi, m1 = m2 par antisymétrie de 4.

On peut donc parler du plus petit du plus grand élément, lorsqu’il existe.

Exemple .. Dans ([0, 2[,6), F = [0, 1[ est minorée par 0 et majorée par 1 ; 0 est le plus petit élément de F , mais Fn’admet pas de plus grand élément. L’ensemble ordonné

∅, 0, 1

,⊂

admet ∅ comme minorant et aussi comme plus petit élément.Mais il n’admet pas de majorant.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Définition ..On dit qu’une partie F non vide d’un ensemble ordonné (E,4) admet une borne supérieure lorsque l’ensemble MF

des majorants de F est non vide et admet un plus petit élément. Ce dernier est alors unique : on l’appelle bornesupérieure de F et on le note sup(F ).

Il y a unicité de la borne supérieure en cas d’existence d’après la proposition .. On définit demême la borne inférieure inf(F ) de F 6= ∅, en cas d’existence, comme le plus grand élément del’ensemble des minorants de F .

Tests

.. Soient (E,4) un ensemble ordonné et F une partie de E.Que dire de sup(F ) lorsque F admet un plus grand élément x ?

.. Dans (]1, 3],6), on pose F1 =]1, 2], F2 =]1, 3[ etF3 =]1, 3]. Existence et calcul éventuel de inf(Fi) et sup(Fi)pour i ∈ 1, 2, 3.

.. Dans (P(E),⊂) pour E = 0, 1, 2, on poseF =

1, 2

. Existence et calcul éventuel de inf(F ) et

sup(F ).

.. Donner l’exemple d’un ensemble ordonné (E,4) et d’unepartie F de E tels que F admette un plus grand élément, uneborne inférieure mais pas de plus petit élément.

.. Soit E un ensemble non-vide. Dans (P(E),⊂) onconsidère un sous-ensemble F non-vide. Existence et calculéventuel de inf(F ) et sup(F ).

Relations d’équivalence et quotients

Définition ..

On appelle relation d’équivalence toute relation réflexive, symétrique et transitive.

Exemple ..La relation d’égalité = sur un ensemble E est une relation d’équivalence.La relation 6 sur R n’est pas une relation d’équivalence car elle n’est pas symétrique.La relation définie sur R parR := (x, y) ∈ R2 |x2 = y2 est une relation d’équivalence sur R.

Définition ..

Soit x un élément de E muni d’une relation d’équivalence R. On appelle classe d’équivalence de x modulo R, et onnote x, l’ensemble des éléments y en relation avec x, c’est-à-dire x = y ∈ E | xRy.

Pour tous les éléments x et y de E, on a xRy si, et seulement si, x = y. Puisqu’une relationd’équivalence est toujours réflexive, on a ∀x ∈ E, x ∈ x.

Proposition .. (Ensemble quotient) Soit R une relation sur un ensemble E. On appelle en-semble quotient de E par la relation d’équivalence R, et on note E/R, l’ensemble des classes d’équiva-lence de E moduloR :

E/R = x | x ∈ E.L’ensemble E/R constitue une partition de E.

Preuve. Puisque pour tout x dans E, x ∈ x ⊂ Sy∈E y, on a E ⊂ SA∈E/RA, l’inclusion réci-proque étant claire. De plus, si x ∩ y 6= ∅ alors il existe z ∈ E tel que zRx et zRy et par symétrieet transitivité de R, xRy d’où x = y. Ainsi, les classes d’équivalence de E par la relation R sontdeux à deux disjointes, d’où le résultat.

Ce résultat admet une réciproque : étant donnée une partition X d’un ensemble E, on peut luiassocier la relation définie par xRy si, et seulement si, il existe A ∈ X tel que x ∈ A et y ∈ A. Rest une relation d’équivalence et l’ensemble quotient de E parR vaut E/R = X . Ainsi se donnerune partition de E ou une relation d’équivalence sur E revient au même.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Relations. Quotients

Proposition .. Soient E un ensemble et R une relation d’équivalence sur E. L’application π :E → E/R définie par ∀x ∈ E, π(x) = x est surjective. On l’appelle la surjection canonique associée àla relation d’équivalenceR sur E.

Preuve. Soit X ∈ E/R. Par définition de l’ensemble quotient E/R, il existe x ∈ E tel queX = x = π(x). L’application π est donc surjective.

Exemple ..Soit n ∈ N∗. Pour k,m ∈ Z on note k ≡ m mod n si, et seulement si, n divise k − m. On vérifie sanspeine que cela définit une relation d’équivalence sur Z. Le quotient de Z par cette relation se note Z/nZ. Laprojection canonique associe à chaque entier k sa classe k = k + nZ = k + np | p ∈ Z.

Tests

.. Soit π : E → E/R la surjection canonique. Que vautπ−1(E/R) ? Que vaut π−1(x) pour x ∈ E ?

.. Que dire d’une relation d’équivalence dont la surjectioncanonique est bijective ?

Factorisation canonique d’une application

Nous nous proposons de montrer que toute application est la composée d’une surjection, d’unebijection et d’une injection. Soit f : X → Y une application. La relation R sur X qui est définiepar xRx′ si, et seulement si, f(x) = f(x′) est une relation d’équivalence. La classe d’équivalencede x ∈ X est la fibre f−1(f(x)) de f au-dessus de f(x). On note X/f le quotient de X parcette relation ; X/f est l’ensemble des fibres de f . Le diagramme suivant commute, c’est-à-diref = j f π,

Xf−−−−→ Y

π

??y x??j

X/ff−−−−→ f(X)

où π est la projection canonique, j est l’inclusion canonique et où f envoye chaque fibre f−1(y), y ∈f(X), sur y.

Tests

.. Expliciter la factorisation canonique de l’application f : 0, 1, 2, 3, 4 −→ a, b, c, d0 7→ b, 1 7→ c, 2 7→ a, 3 7→ b, 4 7→ c.

Exemples standards de quotients

Regrouper les éléments d’un ensemble E pour former l’ensemble quotient E/R s’appelle « pas-sage au quotient ». C’est un outil très puissant dont voici les situations les plus courantes (pourplus de détails voir vos cours de license).

Soit G est un groupe agissant sur un ensemble X . Les orbites de cette action forment unepartition de X , c’est-à-dire une relation d’équivalence sur X . On note X/G le quotient par cetterelation.

Soit G est un groupe et H ⊂ G un sous-groupe distingué. Pour x, y ∈ G on note xRy sixy−1 ∈ H . Alors R est une relation d’équivalence sur G ; on note G/H le quotient par cetterelation. Il possède une unique structure de groupe telle que la projection canonique π : G→ G/Hsoit un morphisme de groupes.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Soit E est un espace vectoriel et F ⊂ E un sous-espace vectoriel. Pour x, y ∈ E on note xRy six−y ∈ F . AlorsR est une relation d’équivalence surE ; on noteE/F le quotient par cette relation.Il possède une unique structure d’espace vectoriel telle que la projection canonique π : E → E/Fsoit linéaire.Géométriquement il faut s’imaginer le quotient E/F comme suit : chaque classe x = x+F, x ∈ E,est un sous-espace affine parallèle à F et E/F est l’ensemble de tous ces sous-espaces affines ; siG est un supplémentaire de F dans E alors il intersecte chaque classe en un unique point. AinsiE/F est isomorphe à G.

Soit A est un anneau et I ⊂ A un idéal bilatère. Pour x, y ∈ G on note xRy si x − y ∈ I . AlorsR est une relation d’équivalence sur A ; on note A/I le quotient par cette relation. Il possède uneunique structure d’anneau telle que la projection canonique π : A → A/I soit un morphismed’anneaux. L’exemple le plus classique et celui de Z/nZ (exemple ..).

Construction de Z,Q,R et C comme quotients

Le passage au quotient permet également de construire la chaîne Z ⊂ Q ⊂ R ⊂ C en partant desnombres naturels N.

L’ensemble des entiers relatifsZ est le quotient de N2 par la relation d’équivalence (m,n)R(p, q)si m+ q = p+ n. L’idée est simple : on construit un entier négatif comme différence entre entiersnaturels ; par exemple (3, 5) et (7, 9) représentent−2 car 3− 5 = 7− 9 = −2. On montre que Z estun anneau contenant N.

L’ensemble des nombres rationnels Q est le quotient de Z × Z∗ par la relation d’équivalence(m,n)R(p, q) si mq = pn. L’idée est simple : on construit un nombre rationnel comme quotient dedeux entiers ; par exemple (3, 5) et (6, 10) représentent la même fraction 3/5. On montre que Q estun corps contenant Z.

L’ensemble R des nombres réels se construit comme suit : dans l’anneau QN des suites ration-nelles on considère le sous-anneau A des suites de Cauchy. Les suites de Cauchy convergeantvers zéro constituent un idéal I de A. On pose R := A/I et on montre que R est un corps completcontenant Q.

Le corps C est le quotient de l’anneau R[X ] par l’idéal premier (X2 + 1). On montre que C estun corps algébriquement clos contenant R. On a X

2+ 1 = X2 + 1 = 0 ; ainsi la classe X de X est

le fameux nombre imaginaire i.

.. Ensembles dénombrables

La notion d’ensemble infini n’est pas immédiate. On dit que deux ensembles A et B ont le mêmecardinal lorsqu’il existe une bijection A→ B. Il faudra cependant prendre garde à ce que la notiongénérale de cardinal ne suit pas les mêmes règles que les cardinaux finis. Par exemple, 2N est unsous-ensemble strictement contenu dans N, pourtant N et 2N ont le même cardinal : l’applicationN → 2N, n 7→ 2n est clairement une bijection de N dans 2N. De même, [0, 1] est strictementcontenu dans [0, 2] mais l’application g : [0, 1]→ [0, 2], t 7→ 2t est une bijection de [0, 1] dans [0, 2].

Définition ..

Un ensemble A est dit dénombrable s’il est fini ou s’il existe une bijection entre A et N.

Proposition .. Un ensemble A est dénombrable si et seulement s’il existe une surjection N→ A.

Preuve. Supposons que A est dénombrable. Si A est fini il existe clairement une surjection de Nsur A. Si A est infini alors A et N ont même cardinal, autrement dit, il existe une bijection N→ A.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Ensembles dénombrables

Réciproquement supposons qu’il existe une surjection N → A. Si A est fini, alors A est dénom-brable. Si A est infini on peut choisir un élément a0 ∈ A, puis un élément a1 ∈ A \ a0, puis unélément an ∈ A\a0, a1, et ainsi de suite par l’axiome du choix. Autrement dit, il existe une suiteinjective (an)n∈N dans A. Cela permet de définir une application

ϕ : A −→ N , a 7−→¨n si a = an,

0 sinon.

Evidemment ϕ est surjective. D’après le théorème de Cantor-Bernstein (voir ..), il existe unebijection entre A et N, ce qui prouve que A est dénombrable.

Corollaire .. Tout sous-ensemble d’un ensemble dénombrable est dénombrable.

En résumé : Un ensemble A est dénombrable si on peut l’écrire comme A = a0, a1, a2, . . ..Exemple ..

L’ensemble Z des entiers 0, 1,−1, 2,−2, . . . est dénombrable. En effet tout le monde comprend les « troispetits points » que nous venons d’écrire. Il est superflu d’expliciter davantage, mais si on insiste :

N → Z , n 7→ an =

−n

2si n est pair

n+12

si n est impair

L’ensemble R des nombres réels est non dénombrable.Nous allons utiliser une preuve conçue par Cantor. Supposons par l’absurde que R est dénombrable. Alorsl’intervalle [0, 1[, un sous-ensemble de R, est également dénombrable : [0, 1[= a0, a1, a2, . . ..Tout réel possède une écriture décimale. On peut donc écrire une liste de tous les éléments de [0, 1[, dansleurs écritures décimales

a0 = 0, a00 a01 a02 . . .

a1 = 0, a10 a11 a12 . . .

a2 = 0, a20 a21 a22 . . .

...

où les akℓ, (k, ℓ) ∈ N2, sont des chiffres entre 0 et 9. On définit pour tout chiffre a

a =

1 si a 6= 1,

2 si a = 1.

Dans la liste, on considère maintenant la suite des chiffres diagonaux akk. Si dans cette suite on remplacechaque chiffre akk par akk, on obtient le nombre décimal

b = 0, a00 a11 a22 . . .

b étant un nombre réel dans [0, 1[, possédant un développement décimal unique, il doit figurer dans la liste,c’est-à-dire b = ak pour un certain k ∈ N. Cela est une contradiction : le k-ième chiffre après la virgule deak est akk, mais le k-ième chiffre après la virgule de b est akk , et akk 6= akk.

Proposition .. Une union dénombrable d’ensembles dénombrables est dénombrable.

Preuve. Soit J un ensemble d’indices dénombrable et soit (Aj)j∈J une famille d’ensemblesdénombrables. Pour pouvoir prendre l’union

Sj∈J Aj nous supposons que tous les Aj sont des

sous-ensembles d’un même ensemble.Nous dénombrons J = j0, j1, j2, . . . et Aj = aj0, aj1, aj2, . . . , où les « . . . » peuvent s’arrêter sil’ensemble est fini. On écrit tous les éléménts des Aj dans une matrice infinie

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

aj00 aj01 aj02 . . .aj10 aj11 aj12 . . .aj20 aj21 aj22 . . ....

......

qu’on dénombre selon le schéma suivantb b b b b

b b b b b

b b b b b

b b b b b

b b b b b

......

......

...

· · ·

· · ·

· · ·

· · ·

· · ·

Si on arrive à un élément qu’on a déjà compté, on passe au suivant, de même si on arrive à unemplacement vide (ça peut se passer si J ouAj sont finis). Si le processus s’arrête l’union est finie ;sinon elle est infinie dénombrable.

Exemple ..

L’ensemble Q des rationnels est dénombrable car on peut l’écrire comme union Q =[n>0

§m

n

m ∈ Zª.

Par conséquence il y a autant d’élements dans N que dans Q.

Proposition .. Un produit fini d’ensembles dénombrables est dénombrable.

Preuve. Considérons d’abord le cas de deux ensembles. Soient A = a0, a1, a2, . . . et B =b0, b1, b2, . . . dénombrables. On écrit tous les éléments du produit A×B

(a0, b0) (a0, b1) (a0, b2) . . .(a1, b0) (a1, b1) (a1, b2) . . .(a2, b0) (a2, b1) (a2, b2) . . .

......

...

En dénombrant comme dans la preuve de la proposition .. on voit que A×B est dénombrable.Par définition A×B ×C = (A×B)×C, donc le cas général suit par récurrence sur le nombre defacteurs.

Tests

.. Soit n ∈ N∗ . L’ensemble Qn est-il dénombrable ?

.. L’ensemble QN est-il dénombrable ?

.. L’ensemble Q(N) constitué des suites rationnelles quasinulles (tous termes nuls à partir d’un certain rang) est-ildénombrable ?

.. Le Q-espace vectoriel R admet-il une base dénombrable ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Un peu de combinatoire

.. Un peu de combinatoire

Arrangements

Proposons-nous d’arranger 3 objets A,B et C en une ligne, de gauche vers la droite. Combien depossibilités a-t-on ? La réponse est 6. En fait, ce sont ABC, ACB, BAC, BCA, CAB et CBA. On peutles retrouver grâce à une arbre de choix.

A

B

C

C

B

B

A

C

C

A

C

A

B

B

ATroisième position : un seul choix possible

Deuxième position : deux choix possibles

Première position : trois choix possibles

Si on veut arranger n objets, on procède de manière analogue : pour choisir l’objet qu’on vamettre en première position il y a n possibilités, puis pour l’objet en deuxième position il y a n− 1possibilités, etc., et enfin pour la dernière position il ne reste qu’un seul objet.

Nombre d’arrangements de n objets = n(n− 1)× · · · × 2× 1 = n!

Maintenant proposons-nous d’arranger pas tous les n objets mais seulement k objets qu’on choisitparmi eux. On a alors

pour la première position : n choix d’objet possibles,pour la deuxième position : n− 1 choix d’objet possibles,

...pour la k-ième position : n− k + 1 choix d’objet possibles.

Nombre d’arrangements de k objets parmi n objets = n(n− 1) · · · (n− k + 1) =n!

(n− k)!

On remarque que si k = n la formule redonne n!. Et si k > n alors n−k+1 est négatif et le produitest nul, comme il faut.

Nombre de combinaisons de k objets parmi n

Soient n et k deux entiers naturels. On appelle combinaison de k objets parmi n toute partie à kéléments d’un ensemble de n éléments. On note

nk

le nombre de combinaisons de k objets parmi

ns. Ce nombre s’appelle coefficient binomial et certains auteurs le notent Ckn. On a

n

k

=

n!

k!(n− k)! si k 6 n,

n

k

= 0 si k > n.

Preuve. La formule est évidente si k > n. Dans le cas k 6 n on établit d’abord le nombre d’arran-gements, à savoir n!

(n−k)! puis, pour ne plus tenir compte de l’ordre des k objets choisis, on divisepar k!.

Proposition .. (Formule du binôme). Pour tous nombres complexes a et b, tout entier n,

(a+ b)n =nX

k=0

n

k

akbn−k.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Preuve. En développant le produit (a + b)n = (a + b) · · · (a + b), on obtient des termes du typeakbn−k avec 0 6 k 6 n, l’indice k correspondant au nombre de facteurs du produit (a+b) . . . (a+b)pour lesquels on a choisi a. Puisqu’on dénombre

nk

choix possibles de k facteurs parmi n, on ob-

tient la formule de l’énoncé.

Deux cas spéciaux, le premier pour a = b = 1 et le second pour a+ b = 1 :

nXk=0

n

k

= 2n

nXk=0

n

k

an−k(1− a)k = 1

Tests

.. Montrer que

n

n − k

=

n

k

. Que signifie cette égalité ?

.. Combien de droites du plan peut-on tracer à partir de 13points trois à trois non alignés ?

.. Simplifier, pour tout n dans N, la somme

Sn =

nXk =1

2k−13n−k+1n

k

.

Lien formel avec les fonctions puissance en analyse

Le coefficient binomial se généralise à tout α ∈ C et n ∈ N,α

k

=α(α − 1) · · · (α− k + 1)

1× 2× · · · × k ,

et la formule du binôme devient le dévéloppement en série entière d’une fonction puissance

(1 + z)α =∞Xk=0

α

k

zk , |z| < 1.

Triangle de Pascal

On sait quen+1k+1

est le nombre de choix possibles de prendre k + 1 objets parmi n + 1 objets

M0, . . . ,Mn. Or il existe deux types de choix :

On choisit l’objet M0 et on complète le tirage avec k objets pris parmi les n objets restantsM1, . . . ,Mn. Il y a

nk

tels choix.

Soit on ne prend pas l’objet M0 et on choisit les k + 1 objets parmi les n objets restantsM1, . . . ,Mn. Il y a

nk+1

tels choix.

Cela montre le triangle de Pascal :n+ 1

k + 1

=

n

k + 1

+

n

k

11 1

1 2 11 3 3 1

1 4 6 4 1...

C’est bien joli mais pas vraiment utile. Si on veut calculer à la main les coefficients binomiauxpour développer, par exemple, (a+ b)20 il faudrait écrire vingt lignes du triangle ! Il peut s’avérerplus pratique d’utiliser l’égalité

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Un peu de combinatoiren

k + 1

=n(n− 1) · · · (n− k + 1)(n− k)

1× 2× · · · × k(k + 1)=

n

k

n− kk + 1

.

avec laquelle on trouve succéssivement20

1

= 20,

20

2

= 20× 19

2= 190,

20

3

= 190× 18

3= 1140,

20

4

= 1140× 17

4. . .

Tests

.. Démontrer par un calcul direct le triangle de Pascal :n

k

=

n − 1

k − 1

+

n − 1

k

.

.. Calculer9X

k=1

9k

(−2)k

.

Anagrammes et formule du multinôme

Proposition .. Le nombre d’anagrammes d’un mot à n lettres comportant i1 fois la lettre A1, . . . ,im fois la lettre Am est

n!

i1!i2! · · · im!.

Preuve. D’abord on distingue les lettres multiples, par exemple en les colorant. Il y a ainsi nlettres distinctes, donc n! de mots colorés possibles. Lorsqu’on oublie la coloration de la lettre A1

il faut diviser par le nombre de permutations de la lettre A1, donc il faut diviser par i1!. De mêmepour les autres lettres.Preuve alternative : Soit un mot à n lettres comportant i1 fois la lettre A1, . . . , im fois la lettreAm. Commençons par choisir les i1 positions de la lettre A1 : il y en a

ni1

. Puis, les i2 positions

possibles de la lettre A2 : on en dénombren−i1

i2

. Et ainsi de suite jusqu’aux

n−(i1+···+im−1)im

positions possibles de la lettre Am. On dénombre donc au total

n

n− i1

×n− i1i2

× . . .

n− (i1 + . . .+ im−1)

im

=

n!

i1! . . . im!.

Proposition .. (Formule du multinôme) Soient a1, . . . , am ∈ C et n ∈ N. Alors

(a1 + · · ·+ am)n =X

i1+···+im=n

n!

i1!i2! · · · im!ai11 · · · aimm .

Preuve. Développons cette expression par distributivité. On dénombre nm termes de la formeaℓ1aℓ1 . . . aℓn avec les ℓk dans 1, . . . ,m. Après regroupement des puissances, l’expression estdonc égale à la somme des termes du type ai11 × · · · × aimm avec i1 + · · ·+ im = n. Or, à (i1, . . . , im)fixé tel que i1+· · ·+im = n, on dénombre n!

i1!···im! termes du développement égaux à ai11 ×· · ·×aimm .

Cette formule généralise la formule du binôme. En effet, lorsque m = 2, on retrouve

(a1 + a2)n =

Xi1+i2 =n

n!

i1!i2!ai11 a

i22 =

nXi1 =0

n!

i1!(n− i1)!ai11 a

n−i12 =

nXk=0

n

k

ak1a

n−k2 .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Tests

.. Dénombrer les anagrammes du mot MISSISSIPPI. .. Déterminer le coefficient de a2bc dans le développementde (a + b + c)4.

Combinaisons avec répétitions

Il s’agit de déterminer le nombre de manières différentes de choisir k objets parmi n avec d’éven-tuelles répétitions (la situation k > n est possible). Par exemple, il y a 10 combinaisons avecrépétitions de 3 éléments de l’ensemble 1, 2, 3 :

1, 2, 3 ; 1, 1, 2 ; 1, 1, 3 ; 1, 2, 2 ; 2, 2, 3 ; 1, 3, 3 ; 2, 3, 3 ; 1, 1, 1 ; 2, 2, 2 ; 3, 3, 3.

Le dénombrement à l’aide des parties de l’ensemble formé par les n objets n’est plus possiblepuisqu’un ensemble n’admet aucun doublon. Ainsi 1, 1, 2 = 1, 2. Il nous faut donc modélisermathématiquement le choix de k éléments avec répétitions dans un ensemble E = e1, . . . , en àn éléments. Soit un tel choix. Notons xi le nombre de fois que l’élément ei a été choisi. On a alorsx1 + · · · + xn = k. Réciproquement, à tout n-uplet (x1, . . . , xn) ∈ Nn vérifiant x1 + . . . + xn = k,on associe un unique choix de k éléments parmi e1, . . . , en défini par : ei est choisi xi fois. Il s’agitdonc de dénombrer l’ensemble

Ekn =

(x1, . . . , xn) ∈ Nn : x1 + · · ·+ xn = k

©.

On peut représenter un n-uplet de Ekn =

(x1, . . . , xn) ∈ Nn : x1 + · · · + xn = k

©à l’aide de

bâtons et de boules. On place et matérialise à l’aide de bâtons | n boîtes qui contiennent chacunedes boules •. Dans la première boîte, on place x1 boules, dans la deuxième x2 boules, et ainsi desuite jusqu’à la dernière boîte où l’on place xn boules. Par exemple, l’élément (2, 1, 0, 3, 1) de E7

5

est représenté par la figure suivante

| • • | • | | • • • | • |.

L’ensemble Ekn est en bijection avec l’ensemble des figures ainsi obtenues. Or, construire une telle

figure revient à placer n− 1 bâtons | et k boules • entre les deux bâtons | extrêmes, ce qui revientà choisir la position des k boules parmi n+ k − 1 emplacements possibles, d’où

|Ekn| =

n+ k − 1

k

=

n+ k − 1

n− 1

Codes à k caractères choisis parmi n caractères

On se propose de former un digicode à k caractères choisis parmi n caractères. Pour le premiercaractère on a n choix possible, pour le second aussi, et de suite. Ainsi on obtient :

Nombre de codes à k caractères choisis parmi n caractères = n× n× · · · × n| z k fois

= nk

Notons qu’il est bien possible que k soit plus grand que n. On peut bien faire un code de longueur4 en utilisant 2 lettres, par exemple ABAB.

Tests

.. Combien de digicodes à quatre chiffres peut-on former ?Combien parmi eux sont à chiffres distincts ?

.. Combien de manières différentes y a-t-il de prendre 4 cartesdans un jeu à 24 cartes ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Un peu de combinatoire

Récréations binomiales

Sommes des coefficients binomiaux d’indices pairs et impairs. Notons Pn =P

062k6n

n2k

et In =

P062k+16n

n2k+1

. Comme

Pn + In =nX

k=0

n

k

= (1 + 1)n = 2n et Pn − In =

nXk=0

n

k

(−1)k = (1− 1) = 0,

on a Pn = In = 2n−1.

Sommes en colonnes dans le triangle de Pascal. Pour tous n et p dans N, on a

pXk=0

n+ k

n

=

n+ p+ 1

n+ 1

.

Cette formule se prouve par récurrence sur p ∈ N. Elle est banale pour p = 0. Si elle est vraie aurang p, on a

p+1Xk=0

n+ k

n

=

pXk=0

n+ k

n

+

n+ p+ 1

n

=

n+ p+ 1

n+ 1

+

n+ p+ 1

n

=

n+ p+ 2

n+ 1

d’après la relation de Pascal.

La formule de Vandermonde. Démontrons de deux manières différentes la formule de Van-dermonde,

nXk=0

n

k

2

=

2n

n

.

Par un dénombrement. Soient E1 et E2 deux ensembles disjoints à n éléments. Dénombrons l’en-semble des parties à n éléments de E = E1 ∪ E2. Puisque |E| = 2n, il y en a

2nn

. Parmi elles, il y

a les parties qui contiennent exactement k éléments de E1 et n− k éléments de E2 où 0 6 k 6 n :on en dénombre

nk

× nn−k

=nk

2 carnk

= nn−k

. Ainsi,

nXk=0

n

k

2

=

2n

n

.

Par la formule du binôme et les polynômes. Notons, pour tout nombre réel x, P (x) = (1 + x)2n.Calculons le coefficient de xn dans P (x) de deux manières différentes. D’après la formule dubinôme,

∀x ∈ R, P (x) =2nX

k=0

2n

k

xk,

le cœfficient recherché vaut donc2nn

. De plus, pour tout réel x,

P (x) = (1 + x)n(1 + x)n =

nX

k=0

n

k

xk

!2

=X

16i,j6n

n

i

n

j

xi+j

=2nX

k=0

kX

i=0

n

i

n

k − i

!xk.

Le coefficient de xn dans P (x) vaut donc

nXi=0

n

i

n

n− i

=

nXi=0

n

i

2

,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

d’où la formule.

Calcul de la somme Sn =X

063k6n

n

3k

. Notons j = e2iπ/3. On a,

(1 + 1)n + (1 + j)n + (1 + j2)n =nX

k=0

n

k

(1 + jk + j2k)

Or, si k est de la forme k = 3m, 1+jk+j2k = 3 ; si k est de la forme 3m+1, 1+jk+j2k = 1+j+j2 =0 et si k est de la forme k = 3m+2, 1+jk+j2k = 1+j2+j = 0. Ainsi (1+1)n+(1+j)n+(1+j2)n =3Sn et donc, puisque 1 + j2 = 1 + j et 1 + j = −j2,

3Sn = 2n + 2Re[(1 + j)n] = 2n + 2(−1)nRe[j2n] = 2n + 2(−1)n cos(4nπ/3).

L’idée principale (à retenir !) est que les racines n-ièmes de l’unité (avec n > 2) permettent d’ex-traire d’une somme de monômes donnée la somme des monômes dont la puissance divise l’entiern.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

.. Exercices

Enoncés des exercices

Exercice ..

On a quatre cartes marquées d’une lettre d’un côté et d’un chiffre de l’autre, disposées sur une table :

A D 3 7

Quelles cartes faut-il retourner pour vérifier si l’affirmation suivante est vraie : Si «A » figure au recto d’unecarte, alors « 3 » figure au verso ?Indication : Est-il insipensable de retourner la carte 3 ?

Exercice ..

En écrivant tous les entiers de 1 à 60 à la suite on obtient le nombre

1234567891011121314 . . . 5960.

Supprimer de ce nombre cent chiffres des sorte que le nombre restant soit

. le plus petit possible,

. le plus grand possible ;

Exercice ..

Un condamné est dans une pièce avec deux portes, chacune gardée par un gardien. Il sait que l’une desportes amène à la liberté et l’autre à la prison et que l’un des gardiens dit toujours la vérité tandis quel’autre ment toujours. Il a le droit de poser à un gardien au choix une seule question à réponse oui ou non,puis il a le droit de sortir par la porte qu’il veut.

. Quelle question posera-t-il et quelle porte prendra-t-il ensuite ?

. Reprendre la question précédente dans la situation où chaque gardien ne connait que soi-même et sapropre porte, c’est-à-dire il n’est pas au courant qu’il existe une autre porte avec un autre gardien.

Exercice ..

Un ensembliste définit un « couple » par :

(a, b) := a, a, b.

. Montrer que(a, b) = (c, d) ⇐⇒ a = c et b = d.

. Si on définit un « triplet » par(a, b, c) := a, a, b, a, b, c

est-ce qu’on a la propriété

(a, b, c) = (d, e, f) ⇐⇒ a = d et b = e et c = f ?

Proposer une meilleure définition d’un triplet.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Exercice ..

Soient x et y deux nombres réels. Montrer que |x+ y| = |x|+ |y| ⇐⇒ xy > 0.Indication : Pour montrer l’implication⇒, on pourra raisonner par contraposition.

Exercice ..

Une feuille de papier comporte les 100 affirmations suivantes :

Cette feuille contient exactement une phrase fausse.

Cette feuille contient exactement deux phrases fausses.

. . .

Cette feuille contient exactement 100 phrases fausses.

Quelles sont les affirmations vraies écrites sur cette feuille ?Indication : Examiner chacun des énoncés l’un après l’autre.

Exercice ..

Les assertions suivantes sont-elles équivalentes ?

∃! a ∈ A,∃! b ∈ B, P (a, b)

∃! b ∈ B,∃! a ∈ A, P (a, b)

∃! (a, b) ∈ A×B, P (a, b)

Exercice ..

Un plan est découpé en régions par un nombre fini de droites. Démontrer qu’il est possible de colorier cesrégions de sorte que deux régions limitrophes ne soient pas de la même couleur, et ceci avec seulementdeux couleurs.

Exercice ..

Soit E1, E2, . . . , En n ensembles distincts deux à deux. Montrer que l’un au moins des ensembles necontient aucun autre.Indication : Procéder par récurrence sur n.

Exercice ..

On définit les trois ensembles suivants :

A1 =(x, y) ∈ R2 , |x+ y| < 1

A2 =

(x, y) ∈ R2 , |x− y| < 1

A3 =

(x, y) ∈ R2 , |x|+ |y| < 1

. Représenter ces trois ensembles.

. En déduire une démonstration géométrique de

|x+ y| < 1 et |x− y| < 1 ⇔ |x|+ |y| < 1.

Indication : C’est une histoire de demi-plans...

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Es sei f : X → Y eine Abbildung, A,A′ Teilmengen von X und B,B′ Teilmengen von Y . Welche Bezie-hungen bestehen zwischen folgenden Mengen ?

f(A ∪A′) , f(A) ∪ f(A′) ,

f(A ∩A′) , f(A) ∩ f(A′) ,

f−1(B ∪B′) , f−1(B) ∪ f−1(B′) ,

f−1(B ∩B′) , f−1(B) ∩ f−1(B′) .

Indication : Man seigt dass

f(A ∪A′) = f(A) ∪ f(A′) ,

f(A ∩A′) ⊂ f(A) ∩ f(A′) ,

f−1(B ∪ B′) = f−1(B) ∪ f−1(B′) ,

f−1(B ∩ B′) = f−1(B) ∩ f−1(B′) .

Exercice ..

Soit f : E −→ F une application.

. Soit A ⊂ E. Prouver que A ⊂ f−1 (f(A)).

. Prouver que f est injective si et seulement si pour toute partie A de E, A = f−1(f(A)).

. Soit B ⊂ F . Prouver que f(f−1(B)) ⊂ B.

. Prouver que f est surjective si et seulement si pour toute partie B de F , f(f−1(B)) = B.

Indication :

Exercice ..

Soient f, g : R→ R deux fonctions. On suppose que pour tous réels x et y, (f(x)− f(y))(g(x)− g(y)) = 0.Démontrer que f est constante ou g est constante.

Conseil : prouver d’abord l’énoncé plus général suivant.

Soient R1 etR2 deux relations d’équivalence sur un ensemble E. On suppose que pour tous éléments x ety de E, xR1y ou xR2y. Démontrer que R1 ou R2 est triviale. (Une relation d’équivalence elle est appeléetriviale si elle met tout le monde en relation).Indication :

Exercice ..

On répartit au hasard 8 pions numérotés de 1 à 8 sur 4 cases numérotées de 1 à 4. Plusieurs pions peuventêtre placés sur la même case.Quelle est la probabilité qu’une case au moins soit vide ?Indication : Introduire les évènements Ai : « la case numéro i est vide » pour tout 1 6 i 6 4, et appliquer la formulede Poincaré.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Exercice ..

Un enfant écrit à son oncle, sa mère, son grand-père, sa cousine et un ami, mais il ne fait pas du toutattention si chaque lettre est dans l’enveloppe avec la bonne adresse. Quelle est la probabilité que personnene reçoive la lettre qui lui est adressée ?

Exercice ..

Le prince de Toscane demande un jour à Galilée : « Pourquoi, lorsqu’on jette trois dés, obtient-on plussouvent la somme 10 que la somme 9, bien que ces deux sommes soient obtenues toutes les deux de sixfaçons différentes ? » Pouvez-vous répondre à cette question ?

Exercice ..

Quel est le cardinal deOn(Z) ?Indication :

Exercice ..

Soit n ∈ N∗. En utilisant une preuve combinatoire, montrer que

2n

n

=

nXk=0

n

k

2

. On pourra utiliser une

partition d’un ensemble à 2n éléments en deux parties de n éléments.Indication :

Exercice ..

On trace les cordes d’un cercle C joignant deux à deux n points distincts A1, . . . , An de C. On suppose quetrois de ces cordes ne sont jamais concourantes. En combien de points intérieurs au cercle se coupent-elles ?Indication :

Exercice ..

Une fanfare est composée de np musiciens rangés sur p lignes et n colonnes. Le chef de fanfare range lesmusiciens de chaque colonne par taille croissante. Puis il range les musiciens de chaque ligne égalementpar taille croissante. Il constate que les musiciens de chaque colonne sont encore rangés par taille croissante.Pourquoi ?Indication : Cf. votre manuel Terracher de 2nde ...

Exercice ..

Dénombrer le nombre

. d’applications d’un ensemble à m éléments vers un ensemble à n élements,

. de bijections entre deux ensembles à n éléments,

. d’injections d’un ensemble à n− 1 éléments dans un ensemble à n éléments,

. de surjections d’un ensemble à n éléments sur un ensemble à n− 1 éléments.

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

. Pour un conseil de ministres on place n ministres autour d’une table ronde (n > 3). Chaque ministrediscute seulement avec ses deux voisins. Combien de conseils différents peut-on former ?

. On considère dans le plan un polygône régulier avec n sommets (n > 3). Déterminer le nombre detransformations (identité comprise) de type rotation ou reflexion qui laissent le polygône invariant.

. Déterminer le nombre de rotations qui laissent invariant un tetraèdre régulier.

. Même question pour un cube.

. Même question pour un octaèdre régulier.

Indication :

Exercice ..

Consider a set of hundred points in the plane. Show that there exists a line so that exactly fifty points areon each side of the line.Indication :

Exercice ..

Pour (n,m) ∈ N2 on note S(n,m) le nombre de surjections de J1, nK sur J1,mK.

. Que vaut S(n, n) pour n ∈ N∗ ? Que vaut S(n,m) si n < m ?

. Que vaut S(0, 0) ? Et S(n, 0) pour n ∈ N∗ ?

. Montrer que pour tout (n,m) ∈ N2, S(n+ 1, m) = m(S(n,m) + S(n,m− 1)).

Indication :

Exercice ..

Add all the natural numbers below one thousand that are multiples of three or five.

Exercice ..

Une suite est à image finie si l’ensemble des valeurs qu’elle prend est fini. Elle est stationnaire si elle estconstante à partir d’un certain rang. Elle est à support fini si elle n’a qu’un nombre fini de termes non-nuls.

. L’ensemble QN des suites rationnelles est-il dénombrable ?

. L’ensemble Q(N) des suites rationnelles à support fini est-il dénombrable ?

. L’ensemble S des suites rationnelles stationnaires est-il dénombrable ?

. L’ensemble F des suites rationnelles à images finies est-il dénombrable ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Exercice ..

La Française des Jeux propose le jeu Keno, une variante du loto. Pour une mise de 1e le jouer coche entre2 et 10 numéros de 1 à 70. La société de jeux procède à un tirage de 20 boules prises parmi 70 boulesnumérotés de 1 à 70. Le gain est déterminé par le nombre de « bonnes » cases cochées. Contrairement auloto habituel les gains sont fixes, c’est-à-dire les gagnants ne se partagent pas un même gateau.

. Munissez-vous d’une grille de Keno chez un buraliste. Sur le verso vous trouverez la liste des probabi-lités des différents gains possibles, écrites sous la forme 1/n où n est un nombre entier. Vérifier quelquesunes des ces valeurs. Est-ce qu’il s’agit de valeurs exactes ?

. Vaut-il mieux cocher trois cases ou quatre ?

. Ecrire un petit programme (par exemple avec Maple) qui établit, en fonction des bons numéros parmiles cases cochées, la probabilité sous la forme donnée dans le tableau.

Exercice ..

. Soit A une partie dénombrable de C. Montrer que C \ A est connexe par arcs.

. Montrer que GLn(C) est connexe par arcs.

Exercice ..

Formule d’inversion de Pascal

. Soient k, l, n des entiers naturels tels que l 6 k 6 n.

.a. Montrer que

n

k

k

l

=

n

l

n− lk − l

.

.b. En déduire que si l < n,nX

k=l

(−1)kn

k

k

l

= 0.

. Soit (an) et (bn) deux suites réelles vérifiant :

∀n ∈ N, bn =

nXk=0

n

k

ak

Montrer que

∀n ∈ N, an = (−1)nnX

k=0

(−1)kn

k

bk

Nombre de dérangementsSoient n ∈ N et E un ensemble à n éléments. On dit qu’une bijection f de E sur E admet un point fixe s’ilexiste a ∈ E tel que f(a) = a. On note dn le nombre de bijections de E sur E n’ayant aucun point fixe (cenombre ne dépend en effet que du cardinal de E). On appelle une telle bijection un dérangement de E.

. Quel est le nombre de bijections de E dans E ?

. Justifier qu’il existenk

dn−k bijections de E sur E possédant exactement k points fixes.

. En déduire que n! =nX

k=0

n

k

dk.

. Montrer que dn = n!

nXk=0

(−1)kk!

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Nombre de surjectionsSoient n, p ∈ N. Soient E un ensemble à p éléments et F un ensemble à n éléments. On note Sp,n le nombrede surjections de E sur F (en effet, ce nombre ne dépend que des cardinaux de E et F ).

. Quel est le nombre d’applications de E dans F ?

. Soit k ∈ J0, nK. Justifier qu’il existe exactementnk

Sp,k applications de E dans F telles que le cardinal

de leur image soit égal à k.

. En déduire que np =

nXk=0

n

k

Sp,k.

. Exprimer Sp,n à l’aide d’une somme.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

.. Réponses aux tests

.. A = 4k | k ∈ N = n ∈ N | ∃ k ∈ N : n = 4k.

.. B = e2kiπ/n | k ∈ J0, n − 1K = z ∈ C | zn = 1.

.. #([−5, 3[) = ∞, #(J−5, 3K) = 9.

.. |, ⋆, , , | = 2.

.. On trouve un ensemble de cardinal 23 = 8 (resp.

222= 16).

A = ∅, a, b, c, a, b, a, c, b, c, a, b, c,

B =∅, ∅, a, b, a, b,

∅, a, ∅, b, ∅, a, b, a, b,a, a, b, b, a, b,∅, a, b, ∅, a, a, b, ∅, b, a, b,

a, b, a, b, ∅, a, b, a, b.

.. Notons n le cardinal de E. Pour n = 0 on a|P(∅)| = |∅| = 1 = 20 . Soit n ∈ N∗ et supposons laformule vraie pour tout ensemble de cardinal n. Soit E unensemble de cardinal n + 1. On peut écrireE = x0, x1, . . . , xn. Les parties de E sont de deux types :premièrement celles qui ne contiennent pas x0 – elles sont desparties de x1, . . . , xn et par hypothèse de récurrence leurnombre est 2n ; deuxièmement celles qui contiennent x0 – ellessont de la forme x0 ∪A où A est une partie dex1, . . . , xn. Le nombre de tels A est 2n . Donc le nombre departies de E est 2n + 2n = 2n+1.

.. |A ∪ B ∪ C| =|A|+ |B|+ |C|− |A∩B|− |A∩C|− |B∩C|+ |A∩B∩C|.

.. D’après les règles de Morgan A ∩ B = A ∪ B. OrA,B \ A,A ∪ B est une partition de E, donc|E| = |A|+ |B \ A| + |A ∪ B|, d’où

|B \ A| = |E| − |A| − |A ∪ B| = 100 − 15 − 60 = 25.

.. Faux, la bonne formule estQn

k=1Ak

=Qn

k=1|Ak|.

..[

X∈P(E)

X = E et\

X∈P(E)

X = ∅.

.. Ceux qui sont mauvais ou riches.

.. La continuité uniforme est comme la continuité, maisavec un δ qui ne dépend que de ǫ et pas du point.

∀ ǫ > 0 ∃ δ > 0 ∀ a ∈ I ∀ x ∈ I avec |x− a| < δ :

|f(x)− f(a)| < ǫ.

∃ ǫ > 0 ∀ δ > 0 ∃ a ∈ I ∃ x ∈ I avec |x− a| < δ :

|f(x)− f(a)| > ǫ.

.. Si n est premier alors n n’est pas divisible par 6.

.. Oui, car l’une est la contraposée de l’autre.

.. R2 → R, (x, y) 7→ y − x2.

.. Supposons f g injective. Soient x, x′ ∈ X tels quef(x) = f(x′). Alors g(f(x)) = g(f(x′)) et par injectivité deg f on obtient x = x′. Cela prouve que f est injective.Supposons f g surjective. Soit z ∈ Z. Par surjectivité de g fil existe x ∈ X tel que g(f(x)) = z. Ainsi g(y) = z où on aposé y := f(x) ∈ Y . Cela prouve que g est surjective.

.. Une application est injective (resp. surjective resp.bijective) si et seulement si chacune de ses fibres possède auplus (resp. au moins resp. précisément) un élément.

.. Vrai, faux, faux, vrai, vrai, vrai. En fait, p1 est bijectivepour toute application f .

.. Non, car Y0 contient aussi les éléments de Y n’ayantpas d’antécédent par f . Donc β risque de ne pas être surjective.

.. R réflexive, symétrique, transitive.S symétrique.T réflexive, antisymétrique, transitive.

..

a. Vrai. En fait la seule relation symétrique et antisymétriqueest l’égalité =.

b. Vrai.

.. Oui.

.. Non. En effet, en notant a et b deux éléments distinctsde E, les parties a et b ne sont pas comparables parl’inclusion.

.. On a x = sup(F ). Preuve : Montrons que x est le pluspetit élément de MF . D’abord on remarque que x ∈ MF car xest un majorant de F . Soit y ∈ MF . Alors z 4 y pour toutz ∈ F . En particulier x 4 y.

.. sup(F1) = 2 et sup(F2) = sup(F3) = 3.

.. inf(F ) = ∅ et sup(F ) = 1, 2.

.. La partie F =0, 1, 0, 1

de

P(0, 1),⊂

.

.. inf(F ) =\A∈F

A et sup(F ) =[A∈F

A.

.. π−1(E/R) = E et π−1(x) = x.

.. Il s’agit de la relation d’égalité =.

.. On a f = j f π avec

π : 0, 1, 2, 3, 4 −→0, 3, 1, 4, 2

0 7→ 0, 3, 1 7→ 1, 4, 2 7→ 2, 3 7→ 0, 3, 4 7→ 1, 4.

f :0, 3, 1, 4, 2

−→ a, b, c

0, 3 7→ b, 1, 4 7→ c, 2 7→ a.

j : a, b, c −→ a, b, c, da 7→ a, b 7→ b, c 7→ c.

.. Oui, d’après la proposition ..

.. Non. En effet, pour tout nombre réel a il existe unesuite dans QN qui converge vers a. Deux suites qui convergentvers deux réels distincts sont forcément distinctes. Donc dansQN il y a au moins autant d’éléments que dans R. Or, on sait queR est non dénombrable.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Réponses aux tests

.. Oui. Pour n ∈ N∗ considérons l’injection suivante

ιn : Qn → Q(N) , (x1, . . . , xn) 7→ (x1, . . . , xn, 0, . . .) .

Alors

Q(N) =[n∈N

ιn(Qn)

et on conclut avec la proposition ..

.. Non. Supposons par l’absurde qu’il y a une basedénombrable (bn)n∈N du Q-espace vectoriel R. Cela signifieque l’application

Q(N) → R , (λn)n∈N 7→Xn∈N

λnbn,

est une bijection. Or Q(N) est dénombrable mais R ne l’est pas.

.. n

n − k

=

n!

(n − k)!(n − (n − k))!

=n!

(n − k)!k!=

n

k

.

C’est aussi clair sans aucun calcul car choisir k élements parmin revient à écarter n − k éléments parmi n.

.. Il y a autant de droites que de couples de points sansordre parmi 13 points ; ainsi, on dénombre132

= 13×12

2 = 78 droites.

.. On a

Sn =

nXk =1

2k−13n−k+1n

k

=

3

2

nXk =0

2k3n−kn

k

− 1

=

3

2[(2 + 3)n − 1] =

3

2[5n − 1].

..n − 1

k − 1

+

n − 1

k

=

(n − 1)!

(k − 1)!(n − k)!+

(n − 1)!

k!(n − k − 1)!

=(n − 1)!k

k!(n − k)!+

(n − 1)!(n − k)

k!(n − k)!

=n!

k!(n − k)!=

n

k

..

9Xk=1

9k

(−2)k

=

9Xk=0

9

k

− 1

2

k

− 1

=

1 − 1

2

9

− 1 =1

512− 1 = − 511

512.

.. 10!3!4!2! = 1260

.. D’après la formule du multinôme, le coefficient vaut4!

2!1!1! = 12.

.. Il y a 104 = 10000 digicodes, dont10 × 9 × 8 × 7 = 6930 sont à chiffres distincts.

..24

4

=

24 × 23 × 22 × 21

1 × 2 × 3 × 4= 10626.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

.. Solutions des exercices

Solution ..

Il faut retourner deux cartes : la carte A (de l’autrecôté il devrait y avoir un 3) et la carte 7 (de l’autrecôté il devrait ne pas y avoir un A).

Solution ..

Puisque le nombre du départ comporte 111chiffres, supprimer cent chiffres revient à garderonze chiffres.

. L’idée est de garder les plus petits chiffres de-vant. Le nombre du départ comporte exactementsix zéros. On supprime les chiffres en provenancede 1, 2, 3, . . . 50 à l’exception de leurs zéros ; il reste

0000051525354555657585960.

Il faut en garder onze chiffres. On prend les pluspetits et on trouve

00000123450.

. L’idée est de garder les plus grands chiffres de-vant. Le nombre du départ comporte exactementsix neufs. On supprime les chiffres en provenancede 1, 2, 3, . . . 49 à l’exception de leurs neufs ; il reste

999995051525354555657585960.

Il faut en garder onze chiffres. On prend les plusgrands et on trouve

99999785960.

Solution ..

. « Que répondrait ton collègue si je lui deman-dais si la porte qu’il garde amène à la liberté ? »Le condamné prend alors la porte si la réponse est« oui », et on prend l’autre porte si la réponse est« non ».

. Il suffit de définir au gardien un univers opposéau sien (il en existe précisément un tel univers op-posé), puis lui poser la même question que dans lepoint précédent.

Une autre manière de le faire est la suivante : « At-tribuant à chaque bonne chose (vérité, liberté) lavaleur 1 et à chaque mauvaise chose (mensonge,prison) la valeur −1, est-ce que chez toi la sommedes deux valeurs ou leur produit est strictementpositif ? »

Ca marche. En effet, notons S la somme et P leproduit.

Si le condamné demande au gardien qui ditla vérité et qui garde la porte de la liberté, alorsP = 1 × 1 = 1 et S = 1 + 1 = 2. Donc le gardienrépond « oui ».

S’il demande au gardien qui dit la vérité et quigarde la porte de la prison, alors P = −1 et S = 0.Donc le gardien répond « non ».

S’il demande au gardien qui ment et qui gardela porte de la liberté, alors P = −1 et S = 0. Doncle gardien répond « oui » (car il ment).

S’il demande au gardien qui ment et qui gardela porte de la prison, alors P = 1 et S = −2. Doncle gardien répond « non » (car il ment).

Solution ..

. L’implication⇐ est évident. Pour prouver l’im-plication ⇒ supposons que (a, b) = (c, d). Autre-ment dit a, a, b = c, c, d. L’élémenta de l’ensemble à gauche de l’égalité est doncaussi un élément de l’ensemble à droite de l’éga-lité ; par conséquence a = c ou a = c, d.

Si a = c alors a = c. On a donc l’éga-lité a, a, b = a, a, d. L’union des élé-ments de l’ensemble à gauche de l’égalité est a∪a, b = a, b ; elle est la même que l’union des

éléments de l’ensemble à droite de l’égalité quiest a, d. Par conséquence a, b = a, d, d’oùb = d.

Si a = c, d alors a = c = d. On a doncl’égalité a, a, b = a, a, a = a. Onen déduit b = a, donc b = d.

. Non. Contre-exemple :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

(0, 0, 1) = 0, 0, 0, 0, 0, 1 = 0, 0, 1,(0, 1, 1) = 0, 0, 1, 0, 1, 1 = 0, 0, 1.

Cette définition des triplets n’est pas satisfaisante.Vaut mieux définir les triplets à partir des couples,

(a, b, c) := ((a, b), c)

En détail ça donne :

(a, b, c) = ((a, b), c) = (a, b), (a, b), c,= a, a, b, a, a, b, c.

Solution ..

(⇐) : Supposons que xy > 0. Alors x et y ontle même signe. Si x et y sont tous les deux posi-tifs, x + y est aussi positif, d’où |x+ y| = x+ y =|x|+ |y|, tandis que si x et y sont tous les deux né-gatifs, x+y est aussi négatif, et |x+ y| = −x−y =|x|+ |y|.

(⇒) Pour montrer l’implication dans l’autresens (de gauche à droite), on peut raisonner parcontraposition, c’est-à-dire prouver que xy < 0⇒

|x+ y| 6= |x|+ |y|.Supposons donc que xy < 0. Alors x et y sont nonnuls et de signes opposés. Quitte à échanger x ety, on peut supposer que y < 0 < x, et on a donc|x| = x, |y| = −y. Il y a alors deux cas à distinguer : si x > −y, alors |x+ y| = x + y < x − y =|x|+ |y| ;

si x < −y, alors |x+ y| = −x − y < x − y =|x|+ |y| ;

Dans tous les cas, on a bien |x+ y| 6= |x|+ |y|.

Solution ..

Seule l’avant-dernier énoncé de la feuille est vrai.

Solution ..

Non. Voici un exemple imagé.Si a et b sont deux personnes, notons P (a, b) l’as-sertion « a est le père de b ». Considérons une as-semblée de cinq personnes A = x0, x1, y0, y1, y2telle que x0 est le père de x1 et telle que y0 est lepère de y1 et y2. On suppose qu’il n’y a aucun autrelien de parenté.

L’assertion ∃! (a, b) ∈ A × A, P (a, b) signifiequ’il existe un unique couple de personnes (a, b)

tel que a est le père de b ; elle est fausse car il existetrois tels couples.

L’assertion ∃! a ∈ A,∃! b ∈ A, P (a, b) signifiequ’il existe une unique personne a telle qu’il existeune unique personne b qui est son enfant ; cette as-sertion est vraie.

L’assertion ! b ∈ A,∃! a ∈ A, P (a, b) signifiequ’il existe une unique personne b telle qu’il existeune unique personne a qui est son père. Cette as-sertion est fausse car il existe trois tels b.

Solution ..

Récurrence sur le nombre n des droites.

n = 0 : il n’y a pas de droite et on colorie le planavec une seule couleur.

n ⇒ n + 1 : Soit n > 0 et soient D1, . . . , Dn+1 desdroites dans le plan, distinctes deux à deux. Parhypothèse de récurrence il existe un coloriage bi-colore C des régions délimitées par D1, . . . , Dn de

sorte que deux régions limitrophes ne sont pas dela même couleur. La droiteDn+1 partage le plan endeux demi-plans H et H ′. On obtient un nouveaucoloriage qui convient pour les régions délimitéespar D1, . . . , Dn+1 de la manière suivante : dansle plan H gardons le coloriage C et dans le planH ′ renversons le coloriage C, c’est-à-dire blanc de-vient noir et noir devient blanc.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Solution ..

On note HR(n) l’hypothèse de récurrence : « SiE1, E2, . . . , En sont n ensembles distincts deuxà deux, alors l’un au moins des ensembles necontient aucun autre. »

La propriété est évidente au rang n = 1.

Supposons HR(n) pour un certain n > 1 et mon-trons HR(n + 1). Soient donc E1, . . . , En, En+1

n + 1 ensembles distincts deux à deux. A fortiori,E1, . . . , En sont distincts deux à deux. Par hypo-thèse de récurrence, il existe i ∈ J1, nK tel que Ei

ne contient aucun des Ej pour j ∈ J1, nK \ i. Il ya alors deux cas à étudier.

Si Ei ne contient pas En+1, alors Ei ne contientaucun autre ensemble et le tour est joué.

Si Ei contient En+1, on montre que En+1 necontient aucun des autres ensemble. En effet,En+1

ne peut pas contenir Ei sinon on auraitEi = En+1

ce qui est exclu puisque tous les ensembles sontdistincts. En+1 ne peut pas non plus contenir undes Ej pour j ∈ J1, nK \ i sinon Ei contiendraitce même Ej , ce qui est exclu.

La propriétéHR(n) est donc vraie pour tout n parrécurrence.

Solution ..

. Notons A,B,C,D les points de coordonnéesrespectives (1, 0), (0, 1), (−1, 0), (0,−1).Les droites (AB), (CD), (AC), (BD) ont pouréquations respectives x + y = 1, x + y = −1,x − y = 1, x − y = −1. On en déduit que A1 estla portion du plan strictement comprise entre lesdroites (AB) et (CD) et que A2 est la portion duplan strictement comprise entre les droites (AC) et

(BD).En se plaçant succesivement sur les quatre qua-drants R+ ×R+, R+×R−, R− ×R+, R− ×R−, onmontre que A3 est la réunion des triangles OAB,OAD, OCA, OCD autrement dit le carré ABCD.

. La question précédente montre que A1 ∩ A2 =A3, ce qui équivaut bien à l’équivalence deman-dée.

Solution ..

f(A ∪A′) = f(A) ∪ f(A′).Wir zeigen zuerst “⊃” :

A ⊂ A ∪A′

A′ ⊂ A ∪ A′ ⇒f(A) ⊂ f(A ∪ A′)

f(A′) ⊂ f(A ∪A′)

⇒ f(A) ∪ f(A′) ⊂ f(A ∪A′)

Zu “⊂” : Sei y ∈ f(A∪A′). Es gibt ein x ∈ A∪A′

mit y = f(x). Wenn x ∈ A, dann hat man y =f(x) ∈ f(A) ⊂ f(A) ∪ f(A′). Wenn x 6∈ A, dannist x ∈ A′ und y = f(x) ∈ f(A′) ⊂ f(A) ∪ f(A′).

f(A ∩A′) ⊂ f(A) ∩ f(A′). Beweis :A ∩ A′ ⊂ AA ∩ A′ ⊂ A′ ⇒

f(A ∩A′) ⊂ f(A)f(A ∩A′) ⊂ f(A′)

⇒ f(A ∩ A′) ⊂ f(A) ∩ f(A′).

Achtung ! Im allgemeinen ist

f(A ∩A′) 6= f(A) ∩ f(A′).

Als Beispiel nehme man als Abbildung f :0, 1 → 0 und als Teilmengen A = 0 undA′ = 1. Dann ist

f(A∩A′) = f(∅) = ∅ 6= 0 = 0∩0 = f(A)∩f(A′).

f(A ∩A′) ⊂ f(A) ∩ f(A′) ⊂ f(A) ∪ f(A′).Ist nach dem Vorangegangenen klar.

f−1(B ∪B′) = f−1(B) ∪ f−1(B′).Wir beweisen zunächst “⊃” :B ⊂ B ∪B′

B′ ⊂ B ∪B′ ⇒f−1(B) ⊂ f−1(B ∪B′)

f−1(B′) ⊂ f−1(B ∪ B′)

⇒ f−1(B) ∪ f−1(B′) ⊂ f−1(B ∪B′).

Zu “⊂” : Sei x ∈ f−1(B ∪ B′). Dann ist f(x) ∈B ∪ B′. Wenn f(x) ∈ B, dann x ∈ f−1(B). Wennf(x) 6∈ B, dann f(x) ∈ B′ und x ∈ f−1(B′). Injedem Falle also x ∈ f−1(B) ∪ f−1(B′).

f−1(B ∩B′) = f−1(B) ∩ f−1(B′).Zu “⊂” :B ∩B′ ⊂ BB ∩B′ ⊂ B′ ⇒

f−1(B ∩B′) ⊂ f−1(B)

f−1(B ∩B′) ⊂ f−1(B′)

⇒ f−1(B ∩B′) ⊂ f−1(B) ∩ f−1(B′).

Zu “⊃” : Sei x ∈ f−1(B) ∩ f−1(B′). Dann istf(x) ∈ B und f(x) ∈ B′. Also f(x) ∈ B ∩B′. Dasbedeutet aber, dass x ∈ f−1(B ∩B′).

f−1(B) ∩ f−1(B′) ⊂ f−1(B) ∪ f−1(B′).Ist klar.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. Soit x ∈ A. On a alors f(x) ∈ f(A) et doncx ∈ f−1(f(A)).

. Raisonnons en deux temps.

⋄ Supposons f injective.

Soit x ∈ f−1(f(A)). On a f(x) ∈ f(A). Ainsi, ilexiste x′ ∈ A tel que f(x′) = f(x). D’où par injec-tivité de f , x = x′ et donc x ∈ A.

⋄ Supposons que ∀A ⊂ E,A = f−1(f(A)).

Soit (x, x′) ∈ A2 tel que f(x) = f(x′). On a alorsx = f−1(f(x)) = f−1(f(x′)) = x′. Doncl’application f est injective.

. Soit y ∈ f(f−1(B)). Il existe un élément x def−1(B) tel que f(x) = y et ainsi y ∈ B.

. Raisonnons en deux temps.

⋄ Supposons f surjective. Soit y ∈ B. Puisque f estsurjective, il existe x ∈ E tel que y = f(x). Ainsi,x ∈ f−1(B) et y ∈ f(f−1(B)).

⋄ Supposons que ∀B ⊂ F,B = f(f−1(B)). En par-ticulier F = f(f−1(F )) = f(E) ce qui prouve quef est surjective.

Solution ..

Pour un élément x de E notons [x] resp. [[x]] saclasse parR1 resp.R2. Supposons queR1 n’est pastrivial. Alors il existe a ∈ E tel que [a] est un sous-ensemble strict de E. Choisissons un b ∈ E \ [x].Alors

∀ (x, y) ∈ [a]× E \ [a] : xR2y.

pour tout . En particulier

(∗) ∀ x ∈ [a] : xR2b,

(∗∗) ∀ x ∈ E \ [a] : aR2x.

Alors, d’après (∗), la classe [[b]] contient l’ensemble[a]. Puis, d’après (∗∗), la classe [[b]] contient aussil’ensemble E \ [a]. Donc [[b]] = E, ce qui montreque la relation R2 est triviale.

Pour la question sur les fonctions, il suffit de consi-dérer la relation par les fibres :

xR1y ⇐⇒ f(x) = f(y) et xR2y ⇐⇒ g(x) = g(y).

Solution ..

Notons Ω l’ensemble de toutes les dispositionspossibles des pions dans les cases. On a card (Ω) =48. On trouve card (Ai) = 38, card (Ai ∩ Aj) = 28

si i 6= j et card (Ai∩Aj ∩Ak) = 1 si i, j, k distinctsdeux à deux. Grâce à la formule de Poincaré, on

en déduit : P 4[i=1

Ai

=

1

484.38−6.28 +4−0

=

24712

65536≈ 0.377.

Solution ..

Fixons un ordre des cinq personnes et notons Ak l’évènement « la k-ème personne reçoit la bonne lettre »,1 6 k 6 5. On cherche la probabilité de l’événement

T5

k=1∁Ak. D’après la règle de Morgan on a

5\k=1

∁Ak = ∁

5[k=1

Ak.

Pour appliquer la formule de Poincaré nous calculons

P (Aj) =1

5, P (Aj ∩Ak) =

1

5× 4, P (Aj ∩Ak ∩Aℓ) =

1

5× 4× 3, P (Aj ∩Ak ∩Aℓ ∩ Am) =

1

5!,

P (A1 ∩A2 ∩A3 ∩A4 ∩A5) =1

5!,

où j, k, ℓ,m sont distincts deux à deux. Ainsi

P

5[

k=1

Ak

= 5× 1

5−5

2

1

5× 4+

5

3

1

5× 4× 3−5

4

1

5!+

1

5!=

120− 60 + 20− 5 + 1

120=

76

120=

19

30.

La probabilité qu’aucun ne reçoive la bonne lettre vaut donc11

30.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Solution ..

Les sommes en question sont

9 = 1 + 2 + 6 = 1 + 3 + 5 = 1 + 4 + 4

= 2 + 3 + 4 = 2 + 2 + 5 = 3 + 3 + 3,

10 = 1 + 3 + 6 = 1 + 4 + 5 = 2 + 4 + 4

= 2 + 5 + 3 = 2 + 2 + 6 = 3 + 3 + 4.

Mais elles n’ont pas toutes la même probabilité.En fait lancer trois dés revient à lancer un dé troisfois, en tenant compte de l’ordre. Donc une sommeavec tous chiffres égaux, comme 3 + 3 + 3, a pro-babilité 1/216, tandis qu’une somme avec exacte-

ment deux chiffres égaux a probabilité 3/216 et,enfin, une somme de trois chiffres distincts a pro-babilité 6/216. Ainsi on trouve

P (9) =6 + 6 + 3 + 6 + 3 + 1

216=

25

216,

P (10) =6 + 6 + 3 + 6 + 3 + 3

216=

27

216.

La différence est tellement faible que le prince deToscane l’a certainemnt pas trouvée empirique-ment mais par le calcul !

Solution ..

Une matrice deMn(R) est orthogonale si et seule-ment si la famille de ses vecteurs colonnes est unebase orthonormée de Rn. En particulier, chaquevecteur colonne doit être unitaire. Comme on re-cherche des matrices à coefficients entiers, cha-cune des colonnes possède un seul coefficient nonnul égal à ±1. Notons σ(i) la position du seul co-

efficient non nul de la ième colonne. Comme lesvecteurs colonnes sont deux à deux orthogonaux,i 6= j ⇒ σ(i) 6= σ(j). Autrement dit, σ ∈ Sn. Il ya donc n! façons de placer les coefficients non nulsdans la matrice. Comme chacun de ces coefficientspeut être égal à±1, on en déduit que le cardinal deOn(Z) est 2nn!.

Solution ..

Soit E un ensemble à 2n éléments et (E1, E2) unepartition de E avec card E1 = card E2 = n. No-tons E l’ensemble des parties de E à n élémentset, pour 0 6 k 6 n, Ek l’ensemble des parties deE à n élémnents possédant eaxctement k élémentsdans E1. Il est clair que (E0, E1, . . . , En) est une par-tition de E . Se donner un élément de Ek revient àse donner une partie à k éléments de E1 et une

partie à n − k éléments de E2. On en déduit quecard Ek =

nk

n

n−k

=nk

2 par symétrie des co-efficients binomiaux. On sait que card E =

2nn

.

Comme (E0, E1, . . . , En) est une partition de E , on

en déduit que card E =

nXk=0

card Ek puis la for-

mule demandée.

Solution ..

Comme trois de ces cordes ne sont jamais concou-rantes, il suffit de dénombrer le nombre de pointsd’intersection de ces cordes deux à deux. NotonsE l’ensemble des combinaisons de 4 points parmiA1, . . . , An de C. Pour E ∈ E , notons CE l’en-semble des paires de cordes dont les extrémitéssont des points de E. La famille (CE)E∈E est unepartition de l’ensemble des paires de cordes d’ex-

trémités A1, . . . , An. Il suffit alors de remarquerque si l’on se donne 4 points parmi A1, . . . , An,parmi les 6 cordes formées 4 points, seules deuxd’entre elles se coupent à l’intérieur du cercle (lequadrilatère non croisé formé par ces 4 pointsest convexe). Le nombre de points recherché estdonc

n4

.

Solution ..

Pour 1 6 i 6 n, notons xi (resp. yi) la taille du mu-sicien en ième position sur la première ligne (resp.sur la deuxième ligne) après le tri par colonnes etavant le tri par lignes. On a donc xi 6 yi pour1 6 i 6 n. Notons σ (resp.τ ) la permutation cor-respondant au tri de la première ligne (resp. de ladeux ième ligne). On a donc xσ(1) 6 xσ(2) 6 · · · 6xσ(n) (resp. yτ(1) 6 yτ(2) 6 · · · 6 yτ(n)). On veut

montrer que xσ(i) 6 yτ(i) pour 1 6 i 6 n.Soit i ∈ J1, nK. Pour i 6 j 6 n, on a yσ(j) 6 xσ(j) 6

xσ(i). Doncj, yj > xσ(i)

> n− i+ 1.Supposons qu’il existe i ∈ J1, nK tel que xσ(i) >yτ(i). On a alors pour 1 6 j 6 i, yτ(j) 6 yτ(i) <

xσ(i). Par conséquent,j, yj < xσ(i)

> i et parpassage au complémentaire,

j, yj > xσ(i)

6n − i. Il y a donc contradiction. Par conséquent,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

xσ(i) 6 yτ(i) pour 1 6 i 6 n.Le raisonnement fait pour la première et deuxièmeligne vaut également pour la deuxième et troi-sième ligne, etc.. jusqu’à la (p − 1)ème ligne et la

pème ligne. On prouve ainsi que les musiciens sontencore rangés par taille croissante dans chaque co-lonne.

Solution ..

. nm

. n!

. n!

. Soit A un ensemble à n éléments et B un en-semble à n − 1 éléments. Chaque surjection f :A → B possède n − 1 fibres f−1(b), b ∈ B ;toutes les fibres sont des singeltons à l’exception

d’une qui contient précisément deux éléments.Pour construire une surjection de A sur B on adonc

n2

possibilités pour constituer des fibres

dans A, puis on a (n − 1)! possibilités pour leurassocier des images dans B. Le nombre de surjec-tions de A sur B est donc

n

2

(n− 1)! =

n! (n− 1)

2.

Solution ..

. Comme seulement la position relative des mi-nistres compte on peut fixer le premier ministresur une chaise. Il reste alors (n− 1)! combinaisonspour placer les autres. Une reflexion par rapportà l’axe passant par le premier ministre et le centrede la table ne fait qu’échanger les notions de “voi-sin gauche” et "voisin droite”, donc elle ne changepas le conseil de ministres. Par conséquence les(n − 1)! combinaisons viennent en pairs de deuxqui donnent le même conseil. Ainsi le nombre deconseils différents est (n− 1)!/2 .

. Evidemment il y a n rotations d’angle2kπ/n, k = 0, . . . , n − 1. Puis il y a les reflexionsassociées aux axes de symétrie :• si n est impair ce sont les droites qui passent par

un sommet et le milieu du côté opposé,• si n est pair ce sont les droites qui passant par

deux sommets opposés ou par les milieux dedeux côtés opposés.

En tout il y a donc 2n transformations de type rota-tion ou reflexion qui laissent le polygône invariant.

. Les axes de rotation d’un tetraèdre régulier sont• les droites passant par un sommet et le centre

de la face opposée. Il y en a 4 ; l’angle de rota-tion correspondant est 2π/3,

• les droites passant par les milieux de deuxarêtes opposées. Il y en a 3 ; l’angle correspon-dant est π.

En tout, cela fait 12 rotations (identité comprise)qui laissent invariant un tetraèdre régulier.

. Les axes de rotation d’un cube sont• les droites passant par les centres de deux faces

opposées. Il y en a 3 ; l’angle correspondant est2π/4,

• les droites passant par les milieux de deuxarêtes opposées. Il y en a 6 ; l’angle correspon-dant est π,

• les droites passant par deux sommets opposés.Il y en a 4 ; l’angle correspondant est 2π/3.

En tout, cela fait 24 rotations (identité comprise)qui laissent invariant un cube.

. Les rotations laissant invariant un octaèdre ré-gulier sont précisément celles qui laissent inva-riant un cube. En effet le cube est le dual de l’oc-taèdre dans le sens suivant : les centres des facesd’un cube constituent les sommets d’un octaèdre,et les centres des faces d’un octaèdre constituentles sommets d’un cube.

Solution ..

Note P1, . . . , P100 the given points. Choose aline D so that all these points are located at oneside of D . Consider all the lines (PℓPk) where1 6 ℓ < k 6 100. There are finitely manysuch lines ; hence their intersection with D consti-tutes a finite set of points, say S . Choose a pointA ∈ D \S .Now rotate the line D around the point A. It willhit the points P1, . . . , P100 one-by-one and not si-

multaneously. So just stop rotating after hitting thefiftieth point and you have found a line as aked for.

Of course this idea works not only with 100 pointsbut with any even number. The following figureillustrates an example with six points. You startwith the blue line D and rotate it around A untilyou obtain the red line.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

bb

b

b

b

b

b

A

D

Solution ..

. On a S(n, n) = n! puisque dans le cas n = mles surjections de J1, nK sur J1, mK sont des bijec-tions.Si n < m alors il n’existe pas de surjection de J1, nKsur J1,mK, donc S(n,m) = 0.

. Pour mieux cerner de quoi il s’agit il faut re-venir à la version ensembliste de la notion d’ap-plication. Une application X → Y entre deux en-sembles X et Y est définie à partir de son graphequi est un sous-ensemble Γ du produit X × Y vé-rifiant la propriété suivante :

(∗) ∀x ∈ X ∃1 y ∈ Y : (x, y) ∈ Γ.

On a S(0, 0) = 1. En effet, on est dans le cas oùX = Y = ∅. AlorsX×Y = ∅ et le graphe ne peutêtre que l’ensemble vide ; on parle alors d’applica-tion vide. Comme en plus Y est vide la conditionde surjectivité est trivialement satisfaite.On a S(n, 0) pour n ∈ N∗. En effet, on est dans lecas où X 6= ∅ et Y = ∅ ; alors la condition (∗) nepeut pas être validée, donc il n’existe pas d’appli-cation X → Y .Remarquons en passage qu’on a aussi S(0, m) = 0pour tout m ∈ N∗, mais pour une autre raison :si X = ∅ et Y 6= ∅ alors il existe une applicationX → Y , à savoir l’application vide, mais elle n’estpas surjective.

. Soit (n,m) ∈ N2. Pour calculer S(n+1, m) nousdevons dénombrer les possibilités de construireune application surjective f : J0, nK → J1, mK.Nous distinguons deux cas pour une telle surjec-tion f .

f−1(f(0)) 6= 0. Cela siginfie que 0 n’est pasle seul élément que f envoye sur f(0). Ainsi la res-triction

h = f |J1,nK : J1, nK→ J1, mK , k 7→ f(k),

est surjective. Il existe S(n,m) telles surjections h,et il y a m choix possibles pour le nombre f(0). Ona alors mS(n,m) possibilités d’obtenir f .

f−1(f(0)) = 0. Cela siginfie que f envoyetous les éléments non-nuls sur un image différentede f(0). Alors l’application

g : J1, nK→ J1,mK \ f(0) , k 7→ f(k),

est bien définie et surjective. Il existe m choix pos-sibles pour f(0), et il existe S(n,m−1) possibilitéspour une surjection g comme ci-dessus. On a alorsmS(n,m− 1) manières différentes d’obtenir f .

Nous avons donc montré que S(n + 1,m) =m(S(n,m) + S(n,m− 1)).

Solution ..

Recall that

1 + 2 + 3 · · ·+ n =n(n+ 1)

2.

The positive multiples of 3 smaller than 1000 areof the form 3k with k ∈ J1, 333K. Their sum is

A =

333Xk=1

3k = 3

333Xk=1

k = 3333(333 + 1)

2= 166833.

Similarly the sum of the positive multiples of 5smaller than 1000 is

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

B =

199Xk=1

5k = 99500.

Therefore the number S we are looking for is

S = A+B − C,

where C is sum of the numbers “counted twice”,i.e. the multiples of 15,

C =

66Xk=1

15k = 33165.

Hence S = 233168.

Solution ..

. Non. Pour tout x ∈ R il existe une suite s ∈ QN telle que lim s = x. On a donc une application de R dansQN et, puisque deux suites distinctes ne peuvent pas avoir une même limite, il s’agit d’une injection.Comme R est non-dénombrable il en est de même de QN.

. Oui. Nous donnons trois preuves.

Pour n ∈ N∗ considérons l’injection suivante

ιn : Qn → Q(N) , (x1, . . . , xn) 7→ (x1, . . . , xn, 0, . . .) .

On aQ(N) =

[n∈N

ιn(Qn).

On conclut par le fait que toute réunion dénombrable d’ensembles dénombrables est dénombrable.

On définit une injection de Q(N) dans N par le codage suivant. Une suite rationnelle stationnaire s s’écritsous la forme

s =

a0a1,a2a3, . . .

a2na2n+1

, 0 , . . .

ak ∈ Z.

Autrement dit, la suite s est entièrement codée par le (2n+ 2)-uplet de nombres entiers(a0, a1, a2, a3, . . . , a2n, a2n+2). Comment coder ce (2n+2)-uplet par un seul entier ? On a envie de procéderpar concaténation, mais le problème est que par exemple les suites ( 2

3, 13

5, 0, . . .) et ( 2

31, 35, 0, . . .) seraient

toutes les deux codés par le même entier 23135. Remède : on note les ak en écriture binaire et on associe à lasuite s l’entier naturel suivant en base de 10 :

∗ a0 ∗ a1 ∗ a2 ∗ a3 · · · ∗ a2n ∗ a2n+2 ∈ N,

où l’étoile devant αk vaut 2 si ak > 0 et 3 si ak < 0. Par exemple, la suite ( 14, 23, −7

10, 0, . . .) est codée par

l’entier 212100210211311121010.

Codage à la Gödel : on définit une injection Q(N) → N comme suit. A la suites =

a0a1, a2

a3, . . . a2n

a2n+1, 0 , . . .

on associe le nombre rationnel

Q2n+1

k=0pakk , où les pk sont la suite

croissante des nombres premiers.

. Oui, parce que S =S

a∈Q

a+Q(N)

est une réunion dénombrable d’ensembles dénombrables.

. Non. En effet, F contient l’ensemble 0, 1N qui est en bijection avec [0, 1]. Il suffit de dévélopper lesréels dans [0, 1] en base 2.

Solution ..

. Pour 2 6 m 6 n 6 10 notons Pn,m la probabilité d’avoir m bonnes cases lorsqu’on a coché n cases.Calculons par exemple P7,5. Au total on peut remplir la grille de

707

manières différentes ; le nombre des

possibilités correspondant à exactement cinq bonnes cases est205

502

car il faut choisir cinq parmi les

vingt bonnes cases et deux parmi les cinquante mauvaises cases. La probabilité recherchée est donc

P7,5 =

205

502

707

=13965

881452.

On vérifie que 1/63 est une valeur approchée de P7,5. Plus généralement, on obtient par le mêmeraisonnement

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Pn,m =

20m

50

n−m

70n

.

. On calcule que l’espérance pour trois cases cochées est −0.2502740227 tandis que pour quatre casescohées elle est de −0.3575109473. Il vaut donc mieux cocher trois cases.

.

keno:=proc(n,m); # on coche n nombres, m sont bons

binomial(20,m)*binomial(50,n-m)/binomial(70,n):

end proc:

kenoapprox:=proc(n,m) local k;

k:=1:

while 1/k > keno(n,m) do k:=k+1 od:

if keno(n,m)-1/k > 1/(k-1)-keno(n,m) then k:=k-1 fi:

1/k; end proc:

Solution ..

.328

= 10518300. On calculeX = 0 ∪ Y = 0

= X = 0 + Y = 0

− X = Y = 0 = 28

8

+

24

8

−21

8

= 3640086.

Donc le nombre recherché est 10518300 − 3640086 = 6878214.

Solution ..

Formule d’inversion de Pascal

. .a. On a d’une part n

k

k

l

=

n!

k!(n− k)!k!

l!(k − l)! =n!

(n− k)!l!(k − l)!

et d’autre part n

l

n− lk − l

=

n!

l!(n− l)!(n− l)!

(k − l)!(n− k)! =n!

l!(k − l)!(n− k)!On en déduit bien l’égalité demandée.

.b.nX

k=l

(−1)kn

k

k

l

=

nXk=l

(−1)kn

l

n− lk − l

d’après la question précédente

=

n

l

nXk=l

(−1)kn− lk − l

=

n

l

n−lXj=0

(−1)j+l

n− lj

en effectuant le changement d’indice j = k − l

= (−1)ln

l

n−lXj=0

(−1)jn− lj

= (−1)l

n

l

(1− 1)n−l d’après la formule du binôme

= 0 car n− l > 0

. Soit n ∈ N.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

nXk=0

(−1)kn

k

bk =

nXk=0

(−1)kn

k

kXl=0

k

l

al

=

nXk=0

kXl=0

(−1)kn

k

k

l

al

=X

06l6k6n

(−1)kn

k

k

l

al

=

nXl=0

nXk=l

(−1)kn

k

k

l

=

nXl=0

al

nXk=l

(−1)kn

k

k

l

Or, d’après la question précédente,

nXk=l

(−1)kn

k

k

l

= 0 quand l < n. On en déduit que

(−1)nnX

k=0

(−1)kn

k

bk = (−1)nan

nXk=n

(−1)kn

k

k

n

= (−1)nan(−1)n

n

n

n

n

= an

Nombre de dérangements

. On a n possibilités pour choisir l’image du premier élément, n− 1 possibilités pour le second, . . .et 1possibilité pour le dernier élément. Ceci signifie qu’il existe n× (n− 1) × · · · × 1 = n! bijections de E dansE.

. Choisir une telle application consiste à choisir k points fixes (nk

possibilités) puis à définir un

dérangement des n− k éléments restants (dn−k possibilités). On en déduit qu’il existenk

dn−k applications

vérifiant la condition de l’énoncé.

. Comme le nombre de points fixes d’une bijection de E peut prendre les valeurs de 0 à n, on a

n! =

nXk=0

n

k

dn−k. En effectuant le changement d’indice l = n− k puis en tirant partie de la symétrie des

coefficients binomiaux (

nn−l

=nl

), on a bien le résultat voulu.

. La formule de la question précédente étant vraie pour tout n ∈ N, on peut utiliser la question 2. On endéduit que

dn = (−1)nnX

k=0

(−1)kn

k

k! = n!

nXk=0

(−1)n−k

(n− k)!

En effectuant le changement d’indice l = (n− k), on obtient dn = n!

nXl=0

(−1)ll!

.

Nombre de surjections

. A chacun des p éléments de E, on peut associer un des n éléments de F . Ceci signifie qu’il existe np

applications d’un ensemble à p éléments dans un ensemble à n éléments.

. Choisir une telle application consiste à choisir une partie à k éléments de E (nk

possibilités) puis à

définir une surjection de l’ensemble de départ sur cette partie (Sp,k possibilités). On en déduit qu’il existenk

Sp,k applications vérifiant la condition de l’énoncé.

. Puisque le cardinal de l’image d’une application de E dans F ne peut prendre une valeur strictement

supérieure à n, on a np =

nXk=0

n

k

Sp,k.

. La formule de la question précédente étant vraie pour tout n ∈ N, on peut utiliser la question 2. On en

déduit que Sp,n = (−1)nnX

k=0

(−1)kn

k

kp.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Ensembles. Applications. Relations. Dénombrabilité

Sp,n = (−1)nnX

k=0

(−1)kn

k

kp

Université Paris Sud agreg 2012 - 2013

Calcul vectoriel dans Kn

Dans le cours de géométrie du secondaire, nous avons appris à calculer lasomme de deux vecteurs du plan euclidien, et à multiplier un vecteur par unnombre réel. Or, il est possible de définir des opérations analogues sur beau-coup d’autres objets mathématiques. Par exemple, la définition de l’addition dedeux fonctions ou de la multiplication d’une fonction par un nombre réel sonttrès naturelles. Dès lors que sur un ensemble donné il est possible d’addition-ner entre eux deux éléments quelconques, et de multiplier les éléments par lesscalaires, nous dirons que cet ensemble peut être muni d’une structure d’es-pace vectoriel (et que ses éléments sont des vecteurs), sous réserve que les deuxopérations ainsi définies obéissent à un certain nombre de règles raisonnablesque nous préciserons.Dans ce chapitre, nous commençons par l’exemple simple des espaces consti-tués de n-uplets. Cet exemple est fondamental car d’une part il peut êtreconsidéré comme le modèle de tous les espaces vectoriels de dimension finie,et d’autre part parce que presque tous les autres exemples d’espaces vectorielsque nous considérerons dans ce cours seront construits à partir de celui-là.Dans tout ce qui suit, K désigne le corps des réels ou le corps des complexes,mais tous les énoncés restent valables si K est un sous-corps quelconque deC, comme R, Q ou un corps de nombres algébriques. Presque tous les énoncésrestent valables pour d’autres corps, comme par exemple Z/pZ, avec p premier.

.. L’espace vectoriel canonique Kn

Définition ..Soit n > 1 un entier. L’addition de deux éléments de Kn et la multiplication d’un élément de Kn par un élément deK sont définies par

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn), (.a)

λ · (x1, . . . , xn) = (λx1, . . . , λxn). (.b)

Muni des opérations définies par (.a) et (.b), l’ensemble Kn est appelé l’espace vectoriel cano-nique de dimension n sur K. Ses éléments, les n-uplets de nombres, sont des vecteurs.L’adjectif « canonique » (ou son synonyme « naturel ») apparaît souvent en algèbre. En français, lesubstantif « canon » est un terme d’origine juridique qui désigne un ensemble de règles (penserau droit canon de l’Église romaine, ou au canon de beauté en art). En mathématiques, il qualifieune situation (ou une équation, ou un ensemble de règles) qui sert de modèle pour de nombreusesautres situations. Il est notamment employé lorsque l’on veut privilégier un choix que l’on juge leplus naturel parmi d’autres. Par exemple, le couple de triplets ((x1, x2, x3), (y1, y2, y3)) s’identifie« canoniquement » avec le 6-uplet (x1, x2, x3, y1, y2, y3) ; bien sûr, on peut également l’identifieravec (y1, y2, y3, x1, x2, x3) ou encore avec (x1, y2, y3, x2, y1, x3), mais nous sommes tous d’accordque ce serait un choix moins « naturel ».Il faut toutefois noter que l’adjectif « canonique » n’est pas canoniquement défini : il n’existe pasde méthode mathématique pour décider si un choix est canonique, cela reste une conventionplus ou moins justifiée par l’usage. Ainsi R3 est un espace vectoriel canonique qui représentel’espace ambiant, mais la correspondance entre l’espace ambiant et R3 n’est pas canonique, carpour identifier l’espace ambiant à R3, il faut choisir un repère et il n’en existe pas de privilégié :chaque observateur a le droit de choisir le repère qu’il veut.

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

La définition fait intervenir l’addition et la multiplication dans K dans chaque composante. Ainsiles règles de calcul dans K (commutativité, associativité, élément neutre, etc.) induisent les huitrègles suivantes dans Kn.

Règle .. Pour tous v, u, w dans Kn et tous λ, µ dans K, on a

1) v + u = u+ v ;2) (v + u) + w = v + (u+ w) ;3) v + 0 = v ;4) v + (−v) = 0 ;

5) 1 · v = v ;6) λ · (µ · v) = (λµ) · v ;7) (λ + µ) · v = λ · v + µ · v ;8) λ · (v + u) = λ · v + λ · u.

Notation. Dans 3) et 4), on a noté 0 le n-uplet (0, . . . , 0).Dans 4), on a utilisé la notation suivante : si v = (x1, . . . , xn) alors −v = (−x1, . . . ,−xn).Souvent, nous écrirons λv à la place de λ · v.

Pourquoi ne nous contentons-nous pas d’étudier R2 et R3 ? Premièrement, beaucoup de proprié-tés que nous allons démontrer ne sont pas spécifiques à la dimension 2 ou 3. Nous les compren-drons mieux si nous les démontrons directement dans leur généralité. Deuxièmement, de nom-breux problèmes en sciences ont lieu dans des espaces « plus grands » que R3. Par exemple, enmécanique newtonienne, on paramètre les configurations d’une particule par R3 × R3 = R6. Eneffet, la loi fondamentale de la dynamique montre que le mouvement d’une particule en présencede forces connues est caractérisé par la donnée de sa position initiale x = (x1, x2, x3) ∈ R3 et desa vitesse initiale v = (v1, v2, v3) ∈ R3. Le couple (x, v) dans R6 caractérise donc le mouvementd’une particule.Le fait que l’on ne puisse plus visualiser Rn dès que n > 4 ne doit pas effrayer. Il arrive mêmeque l’on puisse souhaiter que n soit le plus grand possible. Par exemple, pour prévoir le tempsqu’il fera, les agences de météorologie disposent de stations disséminées sur toute la planète pourmesurer la température et la pression de l’atmosphère (et bien d’autres données). Pour chaquestation j, avec 1 6 j 6 N , on obtient donc un couple (Pj , Tj) ∈ R2. L’état météorologique de laplanète, à un instant donné, est alors décrit par un élément (P1, T1, P2, T2, . . . , PN , TN) ∈ R2N . Lesprévisions seront d’autant plus précises que le maillage des stations est fin, c’est-à-dire que N estgrand.

Tests

.. Écrire chacun des vecteurs suivants sous la forme d’un seultriplet.

u = (4,−1, 2) − 2(1, 2,−3),

v = (−2i, i, 0) + 2i(1 + 2i)(1, 4 + 2i,−i).

... Sous-espaces vectoriels. Famille génératrice

L’espace canonique Kn est suffisamment important pour que nous exposions maintenant dans cecas particulier les principales notions que nous allons rencontrer plus tard dans un cadre beau-coup plus général.

Définition ..

Un sous-espace vectoriel de Kn est un sous-ensemble non vide F ⊂ Kn tel que pour tous v, u dans F et toutλ ∈ K on a v + u ∈ F et λv ∈ F .

Règle .. Un sous-espace vectoriel contient toujours le vecteur nul.

Preuve. Soit F ⊂ Kn un sous-espace vectoriel. Par la définition on sait que F n’est pas vide, c’est-à-dire qu’il existe un vecteur v dans F . Encore par la définition, pour tout λ ∈ K on a λ · v ∈ F ;en particulier 0 · v ∈ F . Or 0 · v = (0, . . . , 0), ce qui est le n-uplet nul ou encore le vecteur nul.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com L’espace vectoriel canonique Kn

L’espaceKn contient toujours deux sous-espaces évidents dits « triviaux » : l’espace nul (0, . . . , 0)qui contient seulement le n-uplet nul de Kn et l’espace Kn tout entier. Dès que n > 2, il en contientbien d’autres. Par exemple, pour tout e ∈ Kn \ (0, . . . , 0), le lecteur vérifiera facilement que lapartie Ke = λe | λ ∈ K est un sous-espace vectoriel de Kn. On appelle droite vectorielle un telsous-espace vectoriel. Cette construction se généralise de la manière suivante.

Définition ..

Une combinaison linéaire des vecteurs v1, . . . , vp dans Kn est une somme de la forme λ1v1 + · · · + λpvp oùλj ∈ K. Les λj sont appelés coefficients.

Il est clair qu’une combinaison linéaire de vecteurs de Kn est encore un vecteur dans Kn.

Règle .. SoitF un sous-ensemble non vide deKn. AlorsF est un sous-espace vectoriel si et seulements’il est stable par combinaisons linéaires, c’est-à-dire si toute combinaison linéaire d’éléments de F estencore dans F .

Preuve. Supposons que F est un sous-espace vectoriel de Kn.Soient v1, . . . , vp dans F et soient λ1, . . . , λp dans K. Alors λjvj ∈ F pour tout j ∈ J1, pK et, parrécurrence, la somme λ1v1 + λ2v2 + · · ·+ λpvp est aussi dans F . Inversement, supposons que F est stable par combinaison linéaire. Alors évidemment, pouru, v dans F et λ ∈ K, les vecteurs v + u et λv sont dans F car ce sont des combinaisons linéairesparticulières de v et u. Donc, d’après la définition .., F est un sous-espace vectoriel.

Proposition .. Soit v1, . . . , vp des vecteurs de Kn. On note

vect(v1, . . . , vp) := Kv1 + · · ·+Kvp :=

(pX

j=1

λjvj

λj ∈ K

)l’ensemble de toutes leurs combinaisons linéaires.Cet ensemble F est un sous-espace vectoriel de Kn, appelé sous-espace vectoriel engendré parv1, . . . , vp . On dit aussi que la famille (v1, . . . , vp) est une famille génératrice de F .

Preuve. Il faut vérifier que F = vect(v1, . . . , vp) est un sous-espace vectoriel. Pour cela vérifionsles propriétés de la définition ... L’ensemble F est non vide car il contient le vecteur nul ; eneffet, il suffit de prendre tous les coefficients λj nuls. Soient λ ∈ K et u et w dans F . Il existe descoefficients λ1, . . . , λp, µ1, . . . , µp tels que u =

Ppj=1 λjvj et w =

Ppj=1 µjvj . Alors

u+ w =

pXj=1

λjvj +

pXj=1

µjvj =

pXj=1

(λj + µj)vj , λu = λ

pXj=1

λjvj =

pXj=1

(λλj)vj .

Cela montre que u+ w et λu sont des combinaisons linéaires de v1, . . . , vp, c’est-à-dire que u + wet λu sont des éléments de F .

Ainsi, pour construire des exemples de sous-espaces vectoriels de Kn, il suffit de choisir des vec-teurs v1, . . . , vp dans Kn et de prendre le sous-espace vectoriel engendré par ceux-là. Nous verronsbientôt dans le théorème .. que tout sous-espace vectoriel de Kn est de cette forme.

Proposition .. Soit (v1, . . . , vp) une famille dans Kn et G ⊂ Kn un sous-espace vectoriel. Alors ona l’équivalence

vect(v1, . . . , vp) ⊂ G ⇐⇒ ∀ j ∈ J1, pK : vj ∈ G.Autrement dit, pour prouver que le sous-espace engendré par une famille de vecteurs est contenudans un sous-espace vectoriel donné il suffit de montrer que chaque élément de la famille l’est.Preuve. Montrons (⇐) : comme le sous-espace vectorielG est stable par combinaisons linéaires,il contient avec les vecteurs v1, . . . , vp aussi toutes leurs combinaisons linéaires. Autrement dit,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

v1

v1

v2

v1

v2

v3

Fig. .. Droite, plan et espace engendrés par un, deux ou trois vecteurs

vect(v1, . . . , vp) ⊂ G.Maintenant prouvons (⇒) : on a v1 = 1 · v1+0 · v2+ · · ·+0 · vp ∈ vect(v1, . . . , vp) ⊂ G. De même,on montre que vj ∈ G pour tout j > 2.

Corollaire .. Deux familles dans Kn engendrent le même sous-espace vectoriel si, et seulement si,chaque vecteur d’une famille est combinaison linéaire des vecteurs de l’autre famille, et vice versa.

Tests

.. Soit F = vect((2, 1, 1), (1, 0, 1)). Lesquels des vecteurssuivants sont dans F ?

(2, 1, 1), (1, 1, 0), (2, 0, 1).

.. Combien de sous-espaces vectoriels possède l’espacecanonique Kn pour n = 1 ? pour n = 2 ?

.. Soit B = (x, y) ∈ R2 | x2 + y2 6 1. Déterminer tous lessous-espaces vectoriels de R2 contenus dans B.

.. Soient m,n deux entiers tels que 0 < m < n. Est-ce queRm est un sous-espace vectoriel de Rn ?

... Systèmes linéaires

Déjà, au lycée, nous avons résolu des systèmes linéaires, notamment de 2 ou 3 équations et à 2 ou3 inconnues. La méthode de résolution la plus utilisée consistait à procéder par substitution : onisole une inconnue dans l’une des équations pour la remplacer dans les autres, et ainsi de suite.Un système linéaire de m équations à n inconnues (ou système m× n) est de la forme8>><>>: a11x1 + a12x2 + · · · + a1nxn = y1

a21x1 + a22x2 + · · · + a2nxn = y2...

am1x1 + am2x2 + · · · + amnxn = ym .

(.)

Les nombres aℓk et yℓ sont des éléments donnés de K. Les inconnues sont les variables x1, . . . , xn.L’accolade à gauche n’a rien à voir avec la notation d’un ensemble, elle est là uniquement pourdes raisons de lisibilité.Une solution du système est un n-uplet x = (x1, . . . , xn) ∈ Kn qui vérifie toutes les équations dusystème. La méthode par substitution est particulièrement simple si le système est de la formetriangulaire de l’exemple suivant.

Exemple .. 8>>><>>>:x1 + x2 + · · · + xn−1 + xn = y1x2 + · · · + xn−1 + xn = y2

...xn−1 + xn = yn−1

xn = yn

On résout facilement, en partant du bas. Le lecteur vérifiera que l’on obtient l’unique solution(x1, . . . , xn) = (y1 − y2 , y2 − y3 , . . . , yn−1 − yn , yn) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com L’espace vectoriel canonique Kn

Un système homogène est un système dont le membre à droite est nul :8>><>>: a11x1 + a12x2 + · · · + a1nxn = 0a21x1 + a22x2 + · · · + a2nxn = 0

...am1x1 + am2x2 + · · · + amnxn = 0 .

(.)

Proposition .. L’ensemble de solutions d’un système linéaire à n inconnues est un sous-espacevectoriel de Kn si et seulement s’il s’agit d’un système homogène.

Preuve. Considérons le système linéaire (.) et supposons que son ensemble de solutions estun sous-espace vectoriel de Kn. Un sous-espace vectoriel contient toujours le vecteur nul (voir larègle ..). Donc (0, . . . , 0) est solution et en remplaçant dans (.) on obtient y1 = · · · = ym = 0,c’est-à-dire que le système est homogène.Pour la réciproque supposons que le système est homogène et notons F son ensemble de solu-tions. Le vecteur x = (0, . . . , 0) est solution du système, donc F est non vide. Il reste à montrerque F est stable par combinaisons linéaires. Soient x et x′ dans F . Alors on a pour tout ℓ ∈ J1,mK

aℓ1x1 + aℓ2x2 + · · ·+ aℓnxn = 0 et aℓ1x′1 + aℓ2x

′2 + · · ·+ aℓnx

′n = 0 . (.)

En ajoutant ces deux équations, nous obtenons pour tout ℓ ∈ J1,mK

aℓ1(x1 + x′1) + aℓ2(x2 + x′2) + · · ·+ aℓn(xn + x′n) = 0.

Cela montre que x + x′ est aussi solution du système. Soit λ ∈ K. En multipliant la premièreéquation de (.) par λ, nous obtenons pour tout ℓ ∈ J1,mK

aℓ1(λx1) + aℓ2(λx2) + · · ·+ aℓn(λxn) = 0,

ce qui prouve que λx est aussi solution du système.

Dans les exemples suivants, les sous-espaces vectoriels sont tous des ensembles de solutions d’unsystème linéaire homogène.

Exemple ..

⋄ L’ensemble (x, y) ∈ R2 | x− 2y = 0 est un sous-espace vectoriel deR2. Géométriquement, ce sous-espace est une droite passant par l’ori-gine.

b

b

(1, 0)

(0, 1)

⋄ L’ensemble (x, y, z) ∈ R3 | x − 2y + 4z = 0 est un sous-espace vectoriel de R3. Géométriquement, cesous-espace est un plan passant par l’origine.

⋄ L’ensemble (x, y, z) ∈ R3 | x−2y+4z = x+3y = 0 est un sous-espace vectoriel de R3. Ce sous-espaceest l’intersection de deux plans distincts passant par l’origine, donc une droite.

L’union de deux sous-espaces vectoriels n’est pas un sous-espace vectoriel, en général.

Exemple ..L’ensemble G = (x, y) ∈ R2 | (x − 2y)(x+ y) = 0 est l’union de deux sous-espaces vectoriels, à savoir

deux droites dans R2. Mais G n’est pas un sous-espace vectoriel car G n’est pas stable pour l’addition. Eneffet, (2, 1) et (1,−1) sont dans G mais la somme (2, 1) + (1,−1) = (3, 0) ne l’est pas.

Tests

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

.. Quels ensembles sont des s.e.v. de R3 ?

E = (x, y, z) | (x− 2y)z = 0F = (x, y, z) | x− 2y = zG = (x, y, z) | x− 2y = y + z = 1H = (x, y, z) | x− 2y = x + y + z = 0

.. Donner un exemple de système linéaire

a. n’ayant pas de solution.

b. ayant une infinité de solutions.

.. Soient v, v1, . . . , vp des vecteurs de Kn . Si on veut montrerque v est combinaison linéaire des v1, . . . , vp , on est amené àrésoudre un système linéaire. Combien d’inconnues et combiend’équations possède ce système ?

.. Familles libres, familles liées

... Dépendance linéaire

Nous abordons dans cette partie la notion importante de famille libre et la notion contraire defamille liée. Ces notions nous conduiront aux concepts de dimension et de base. Comme dansle reste de ce chapitre, nous avons pris le parti d’une présentation opératoire pour pouvoir fairerapidement des calculs. À la page nous revisiterons ces notions dans un cadre plus général.

Définition ..

1) Une famille (v1, . . . , vp) de vecteurs dans Kn est libre si pour tous λ1, . . . , λp dans K, on a l’implication

λ1v1 + · · ·+ λpvp = 0 =⇒ λ1 = · · · = λp = 0 .

2) Une famille (v1, . . . , vp) de vecteurs dans Kn est liée s’il existe λ1, . . . , λp dans K non tous nuls et tels que

λ1v1 + · · ·+ λpvp = 0 .

Autrement dit, une famille de vecteurs est libre si la seule manière d’obtenir le vecteur nul commecombinaison linéaire de cette famille consiste à prendre tous les coefficients nuls. Une équationλ1v1+ · · ·+λpvp = 0, où l’un des coefficients au moins est non nul, s’appelle relation de dépendancelinéaire entre v1, . . . , vp. Une famille de vecteurs est liée si, et seulement si, elle admet une relationde dépendance linéaire. Les notions de famille libre et de famille liée sont antinomiques, c’est-à-dire qu’une famille est soit libre, soit liée.Si la famille (v1, . . . , vp) est liée (resp. libre), alors on dit aussi que les vecteurs v1, . . . , vp sontlinéairement dépendants (resp. indépendants). Deux vecteurs liés sont dits colinéaires, et trois vecteursliés sont dits coplanaires.

Exemple ..

⋄ Les vecteurs u = (1, 2, 3) et v = (3, 6, 9) sont colinéaires. En effet, on a la relation 3u− v = 0. En général,deux vecteurs sont colinéaires si, et seulement si, l’un est un multiple de l’autre.

⋄ Les vecteurs u = (1, 2, 3), v = (3, 1, 2) et w = (2, 3, 1) sont linéairement indépendants. En effet, soientλ1, λ2, λ3 ∈ R tels que λ1u+ λ2v + λ3w = 0. Cela équivaut au système homogène(

λ1 + 3λ2 + 2λ3 = 02λ1 + λ2 + 3λ3 = 03λ1 + 2λ2 + λ3 = 0 .

On le résout et on trouve comme unique solution la solution triviale λ1 = λ2 = λ3 = 0.

⋄ Les vecteurs u = (1, 2, 3), v = (3, 1, 2) et w = (−3, 4, 5) sont coplanaires. En effet, comme ci-dessus,on obtient un système en trois inconnues λ1, λ2, λ3 . On trouve une solution non triviale, par exemple(−3, 2, 1). On a donc la relation de dépendance linéaire −3u+ 2v + w = 0.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Familles libres, familles liées

On voit que pour examiner la liberté d’une famille, on est ramené à un système linéaire. Dans lesexemples ci-dessus le lecteur peut le résoudre par simple substitution, mais pour des systèmesplus grands il devra attendre la page pour apprendre une méthode plus efficace.Notez bien que les notions de « libre » ou « liée » ne portent pas sur des vecteurs isolés mais sur lafamille tout entière des vecteurs donnés. L’ordre des vecteurs dans la famille est sans importance ;par exemple, la famille (u, v, w) est libre si, et seulement si, la famille (w, u, v) l’est.

Règle ..1) La famille vide ∅ est libre.2) Une famille constituée d’un seul vecteur est liée si, et seulement si, ce vecteur est nul.3) Toute sous-famille d’une famille libre est libre.4) Toute famille contenant une famille liée est liée.5) Toute famille contenant le vecteur nul est liée.6) Toute famille contenant deux fois le même vecteur est liée.

Preuve.1) C’est le cas particulier de la définition .. avec p = 0. Alors la phrase « pour tous λ1, . . . , λp

dans K » mord dans le vide et implique tout ce qu’on veut.2) C’est le cas particulier de la définition .. avec p = 1.3) Soit F = (v1, . . . , vp) une famille libre. Une sous-famille de F est de la forme F ′ =

(vj1 , . . . , vjr ) où 1 6 j1 < j2 < · · · < jr 6 p avec r 6 p. Puisque l’ordre des vecteurs dansla famille n’a pas d’importance pour sa liberté on peut supposer que F ′ = (v1, . . . , vr). Pourmontrer que F ′ est libre, soient λ1, . . . , λr ∈ K tels que λ1v1 + · · · + λrvr = 0. Comme notrehypothèse porte sur la famille F entière, introduisons les coefficients λr+1 = · · · = λp = 0 ;ainsi on a λ1v1 + · · · + λpvp = 0. Par la liberté de F on en déduit λ1 = · · · = λp = 0. Enparticulier λ1 = · · · = λr = 0, ce qui prouve que F ′ est libre.

4) C’est exactement la contraposée du point précédent ! Si la famille F ′ est liée et contenue dansF alors F ne peut pas être libre.

5) C’est une conséquence de 2) et 4). Mais on peut aussi le voir directement : une famille(v1, v2, . . . , vp) avec v1 = 0 admet la relation de dépendance linéaire λ1v1 + · · · + λpvp = 0où λ1 = 1 et λj = 0 pour j > 2.

6) Une famille (v1, v2, . . . , vp) avec v1 = v2 admet la relation de dépendance linéairePλjvj = 0

où λ1 = −λ2 = 1 et λj = 0 pour j > 3.

Proposition .. Soit F = (v1, . . . , vp) une famille de vecteurs de Kn. Alors les propriétés suivantessont équivalentes :1) La famille F est libre ;2) Aucun des vecteurs de F n’est combinaison linéaire des autres ;3) Tout vecteur de vect(F ) possède une écriture unique comme combinaison linéaire en F ;4) L’application f : Kp → Kn, (λ1, . . . , λp) 7→

Pλjvj est injective.

Preuve. Nous allons prouver l’équivalence circulaire 1)⇒ 2)⇒ 3)⇒ 4)⇒ 1) .1)⇒ 2) Soit F libre. Supposons par l’absurde qu’il existe k ∈ J1, pK tel que vk est combinai-son linéaire des autres vecteurs de F . Il existe donc λ1, . . . , λk−1, λk+1, . . . , λp dans K tels quevk =

Pj 6=k λjvj . Alors vk −

Pj 6=k λjvj = 0, ce qui est une relation de dépendance linéaire entre

v1, . . . , vp, contradiction.2)⇒ 3) On suppose la propriété 2). Par définition tout vecteur de vect(F ) est une combinaison li-néaire en F . Pour montrer l’unicité des coefficients supposons qu’il existe un vecteur v ∈ vect(F )admettant deux écritures v =

Pλjvj =

Pµjvj avec λ1, . . . , λp, µ1, . . . , µp ∈ K. Nous devons

prouver que λj = µj pour tout j ∈ J1, pK. Supposons par l’absurde qu’il existe un indice k tel queλk 6= µk. Alors on peut isoler vk comme suit :

pXj=1

λjvj =

pXj=1

µjvj ⇒ λkvk − µkvk =

pXj 6=k

µjvj −pX

j 6=k

λjvj ⇒ vk =

pXj 6=k

µj − λjλk − µk

vj . (.)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

Ainsi vk est une combinaison linéaire des autres vecteurs de F , ce qui contredit 2) et prouvel’unicité.3)⇒ 4) On suppose la propriété 3). Pour montrer l’injectivité de l’application f , soit (λ1, . . . , λp)et (µ1, . . . , µp) dans Kp tels que f(λ1, . . . , λp) = f(µ1, . . . , µp). Cela signifie que

Pλjvj =

Pµjvj .

D’après 3) cette égalité implique que λj = µj pour tout j ∈ J1, pK, autrement dit (λ1, . . . , λp) =(µ1, . . . , µp). Cela prouve l’injectivité de f .

4)⇒ 1) On suppose la propriété 4). Pour montrer que F est libre, soient λ1, . . . , λp ∈ K tels queλ1v1 + · · ·+ λpvp = 0. Cela signifie que f(λ1, . . . , λp) = 0. Mais d’autre part on a f(0, . . . , 0) = 0.Par injectivité de f on obtient (λ1, . . . , λp) = (0, . . . , 0), ce qui prouve la liberté de F .

En contraposant les deux premières propriétés de la proposition, on obtient le corollaire suivant.

Corollaire .. Une famille de vecteurs est liée si, et seulement si, elle contient un vecteur qui estcombinaison linéaire des autres.

Pour isoler le vecteur vk dans (.), nous avons utilisé le fait que l’on peut diviser par tout élé-ment non nul du corps K. C’est pourquoi nous nous sommes placés dans Rn ou Cn, et non dansZn. L’ensemble Zn peut cependant être muni naturellement d’une opération d’addition et d’uneopération de multiplication par les scalaires (éléments de Z). On obtient ainsi une structure algé-brique très naturelle et très intéressante sur Zn , mais ce n’est pas une structure d’espace vectoriel.C’est ce que l’on appelle un module. La structure algébrique de module est importante mais plusdélicate, elle ne sera étudiée qu’en troisième année de licence.

Méthode .. Astuce générale en algèbre linéaire sur un corps

Dès qu’un coefficient dans une combinaison linéaire est non nul, on peut isoler le vecteur correspondant.

Voici un critère simple pour la liberté d’une famille de deux vecteurs de K2.

Proposition .. (Déterminant 2× 2)Deux vecteurs (a, b) et (c, d) de K2 sont colinéaires si, et seulement si, leur déterminant ad− bc est nul.

Preuve. Soit (a, b) et (c, d) deux vecteurs de K2. Supposons que ad− bc = 0. On a alors les égalités

(∗) c(a, b)− a(c, d) = 0, (∗∗) d(a, b)− b(c, d) = 0.

Il faut prouver que la famille ((a, b), (c, d)) est liée. Elle l’est certainement si (c, d) = 0. Poursuivonsavec le cas où (c, d) 6= 0. Si c 6= 0, alors (∗) est une relation de dépendance linéaire. Si c = 0, alorsd 6= 0 et (∗∗) est une relation de dépendance linéaire. Supposons que la famille ((a, b), (c, d)) est liée. Il existe alors λ, µ ∈ K non tous nuls, tels queλ(a, b) + µ(c, d) = 0. Quitte à échanger les rôles des deux vecteurs, on peut supposer que λ 6= 0.On a (a, b) = α(c, d) avec α = −µ/λ. Par conséquent ad− bc = (αc)d− (αd)c = 0.

Il est important de comprendre que deux vecteurs quelconques de K2 sont presque toujours libres,tandis que la non-liberté est le cas singulier : choisissez deux vecteurs « au hasard », ils ne se-ront pas colinéaires en général. En effet, pour que deux vecteurs (a, b) et (c, d) soient colinéaires,nous venons de montrer qu’il faut et il suffit que le quadruplet (a, b, c, d) appartienne à la partieV = (x, y, s, t) ∈ K4 | xt − ys = 0 ⊂ K4 . Or V est toute « petite » dans K4 . Pour une justifica-tion rigoureuse de cette dernière assertion, il faudra attendre le cours de théorie de la mesure detroisième année. En attendant, donnons l’explication suivante, non parfaitement fondée puisquenous ne disons pas ce qu’est une probabilité sur K4.

Pour prendre au hasard (a, b, c, d) dans K4 , choisissons d’abord b, c, d. La probabilité que d = 0est nulle. Donc, presque sûrement, la fonction affine K→ K, a 7→ ad− bc n’est pas constante. Elle

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Familles libres, familles liées

s’annule ainsi en un unique point isolé, et la probabilité de choisir ce point est nulle. Ainsi, en ap-pliquant la règle des probabilités conditionnelles, puisque les choix de a, b, c, d sont indépendants,la probabilité que ad− bc = 0 est nulle.

De même, si on choisit trois vecteurs au hasard dans K3, il est presque certain qu’ils ne seront pascoplanaires. Plus généralement, une famille de vecteurs choisis au hasard dans Kn est presquetoujours libre, pourvu que le nombre de vecteurs choisis ne dépasse pas la dimension n (voir larègle ..).

Tests

.. Pour examiner la liberté de p vecteurs de Kn , il suffit derésoudre un système linéaire. Combien d’équations a-t-il, etcombien d’inconnues ?

.. Les vecteurs (1, 2, 5), (−1, 4, 3) dans K3 sont-ilscolinéaires ?

.. Les vecteurs (1, 2, 0, 0), (3, 6, 15, 0), (0, 0, 3, 2) dans K4

sont-ils coplanaires ?

.. Y a-t-il une différence entre « λ1, . . . , λn sont tous nonnuls » et « λ1, . . . , λn sont non tous nuls » ?

.. Soit u, v, w dans Kn . Que penser des propositionssuivantes ?

a. λ1u + λ2v + λ3w = 0, avec λ1 = λ2 = λ3 = 0, impliqueque u, v, w sont libres.

b. λ1u + λ2v + λ3w = 0, avec λ1 = 1, λ2 = 0, implique queu, v, w sont liés.

c. λ1u + λ2v + λ3w = 0, avec λ1 = λ2 = λ3, implique queu, v, w sont liés.

.. Soit u, v, w dans Kn . Que penser des propositionssuivantes ?

a. u, v, w sont coplanaires si, et seulement si, u est combinaisonlinéaire de v, w.

b. Si u, v, w sont liés, alors il existe une infinité de relations dedépendance linéaire.

... Enrichir une famille libre. Épurer une famille génératrice

Le but de cette partie est d’expliquer comment trouver une famille génératrice aussi petite quepossible. À cette fin, en partant d’une famille génératrice donnée, il est nécessaire de savoir dis-criminer les générateurs « superflus », c’est-à-dire ceux qui peuvent être supprimés sans dimi-nuer le sous-espace vectoriel engendré. Inversement, en partant d’une famille libre donnée, nouspouvons nous demander comment « enrichir » cette famille pour trouver une famille libre aussigrande que possible.Le lemme suivant répond à ces questions et sera le pivot de beaucoup de nos démonstrationsd’algèbre linéaire. Sa preuve repose toujours sur la même idée (voir p.) : si un coefficient dansune combinaison linéaire est non nul, on peut diviser pour isoler le vecteur concerné !

Lemme .. Soit v1, . . . , vp des vecteurs de Kn et k ∈ 1, . . . , p un indice fixé.1) Remplacer un générateur.

Soit u =Pp

j=1 λjvj avec λk 6= 0. Alors

vect(v1, . . . , vp) = vect(v1, . . . , vk−1, u, vk+1, . . . , vp) .

2) Additionner à un générateur une combinaison linéaire des autres.

Pour tout (λ1, . . . , λk , . . . , λp) ∈ Kp−1

vect(v1, . . . , vp) = vect(v1 , . . . , vk−1 , vk +P

j 6=k λjvj , vk+1 , . . . , vp) .

3) Supprimer un générateur d’une famille liée.Supposons que

Ppj=1 λjvj = 0 est une relation de dépendance linéaire, avec λk 6= 0. Alors

vect(v1, . . . , vp) = vect(v1, . . . , Òvk, . . . , vp) .

4) Enrichir un famille libre.Supposons (v1, . . . , vp) libre. Soit u ∈ Kn\vect(v1, . . . , vp). Alors (u, v1, . . . , vp) est libre.

. La notation Òλk est très commode pour indiquer la suppression du coefficient λk dans une liste de nombres.

Autrement dit, (λ1, . . . ,Òλk, . . . , λp) = (λ1, . . . , λk−1, λk+1, . . . , λp). Le chapeau b est en quelque sorte le symbolemathématique du Tarnhelm wagnérien !

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

Preuve.1) Il s’agit de montrer que les familles F = (v1, . . . , vp) et G = (v1, . . . , vk−1, u, vk+1, . . . , vp)

engendrent le même sous-espace vectoriel. Pour cela nous utilisons le critère du corollaire.., à savoir vérifier que chaque vecteur de F est combinaison linéaire des vecteurs de G , etvice versa. Le seul cas qui n’est pas évident est de montrer que vk est combinaison linéaire desvecteurs de G . Puisque λk 6= 0, on peut isoler vk pour obtenir

vk =1

λk

u −

Xj 6=k

λjvj

∈ vect(G ).

2) est un cas particulier de 1) avec λk = 1.3) est un cas particulier de 1) avec u = 0. On a

vect(v1, . . . , vp) = vect(v1, . . . , vk−1, 0, vk+1, . . . , vp) = vect(v1, . . . , Òvk, . . . , vp) .4) Pour montrer la liberté de la famille augmentée, supposons que λu +

Ppj=1 λjvj = 0 avec

λ, λ1, . . . , λp ∈ K. Si λ 6= 0, alors u = − 1λ

Ppj=1 λjvj est combinaison linéaire des v1, . . . , vp ,

contrairement à l’hypothèse. Ainsi λ = 0, puisPp

j=1 λjvj = 0. Comme (v1, . . . , vp) est libre, ona λj = 0 pour tout j = 1, . . . , p. La famille (u, v1, . . . , vp) est donc bien libre.

Utilisons le lemme ..pour montrer une inégalité importante : il ne peut y avoir plus de vecteurslibres que de générateurs.

Proposition .. Soit u1, . . . , uq dans Kn. Soit v1, . . . , vp des vecteurs linéairement indépendantsdans vect(u1, . . . , uq). Alors p 6 q.

Preuve. Posons F = vect(u1, . . . , uq). Supposons par l’absurde que p > q+1. L’idée de la preuveconsiste à remplacer, les uns après les autres, les générateurs u1, . . . , uq de F par les vecteursv1, v2 . . . , vq .Étape 1. On a v1 =

Pqj=1 αjuj , avec α1, . . . , αq ∈ K. Comme v1 6= 0, on sait qu’au moins un des

coefficents α1, . . . , αq est non nul. Quitte à renuméroter u1, . . . , uq, on peut supposer que α1 6= 0.En vertu du 1) du lemme .. on a F = vect(v1, u2, . . . , uq).Étape 2. Écrivons v2 = β1v1 +

Pqj=2 βjuj . Au moins un des coefficients β2, . . . , βq est non nul,

car v2 n’est pas combinaison linéaire de v1 . Quitte à rénuméroter u2, . . . , uq, on peut supposer queβ2 6= 0. En vertu du 1) du lemme .. on a F = vect(v1, v2, u3 . . . , uq).

On itère le procédé. Après q étapes, on obtient F = vect(v1, . . . , vq). Donc vq+1 est combinaisonlinéaire des vecteurs v1, . . . , vq , ce qui montre que la famille (v1, . . . , vq, vq+1) est liée. Comme elleest une sous-famille de la famille libre (v1, . . . , vp), c’est une contradiction.

Tests

.. Soit u, v, w ∈ Kn . Que penser des égalités suivantes ?

vect(u, v, w) = vect(u, v + u, w − u)

vect(u, v, w) = vect(u, v, w + u + v)

.. Soit u, v, w ∈ Kn tels que 2u + 3v + 4w = 0. Est-il vraique vect(u, v, w) = vect(u, v) ?

... Bases

Nous venons de présenter deux procédés, l’un pour enrichir une famille libre, l’autre pour épu-rer une famille génératrice de tous ses éléments superflus. Dans cette partie, nous étudions les

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Familles libres, familles liées

familles obtenues en poussant ces deux procédés à leur maximum. Il est remarquable que l’onobtienne, dans les deux cas, le même type de famille.

Proposition .. Soit F ⊂ Kn un sous-espace vectoriel et b1, . . . , bp ∈ F . Alors les deux propriétéssuivantes sont équivalentes :1) La famille (b1, . . . , bp) est libre et génératrice de F ;2) Tout vecteur de F s’écrit de manière unique comme combinaison linéaire des b1, . . . , bp .Une telle famille s’appelle une base de F .

Preuve.1)⇒ 2) On suppose que (b1, . . . , bp) est libre et génératrice de F . Soit u ∈ F . Alors il existeλ1, . . . , λn tels que u =

Ppj=1 λjbj . Pour prouver l’unicité de cette écriture on prend µ1, . . . , µp

dans K tels que u =Pp

j=1 µjbj . AlorsPp

j=1(λj − µj)bj = u − u = 0. Par liberté on obtientλj − µj = 0 pour tout j = 1, . . . , p.2)⇒ 1) La partie « existence » de l’hypothèse 2) affirme déjà que (b1, . . . , bp) est génératrice deF . Pour prouver la liberté de (b1, . . . , bp) il faut faire appel à la partie « unicité » : supposonsPp

j=1 λjbj = 0 ; d’autre partPp

j=1 0 · bj = 0, donc par unicité de l’écriture du vecteur nul commecombinaison linéaire des b1, . . . , bp, on a λj = 0 pour tout j = 1, . . . , p.

Cas particulier : la famille vide ∅ est la base de l’espace nul F = 0.

... Base canonique de Kn

Dans le cas où F = Kn, il existe une base privilégiée, formée par les n-uplets

e1 = (1, 0, 0, . . . , 0)e2 = (0, 1, 0, . . . , 0)

...en = (0, 0, . . . , 0, 1).

(.)

Il est immédiat que pour tout (x1, . . . , xn) dans Kn, on a (x1, . . . , xn) =Pn

k=1 xkek . Ainsi les co-efficients de la combinaison linéaire sont précisément les composantes du n-uplet. Cela montred’une part que tout vecteur de Kn s’écrit comme combinaison linéaire des e1, . . . , en, et d’autrepart que cette écriture est unique. Donc (e1, . . . , en) est une base de Kn. On l’appelle la base cano-nique ou la base naturelle de Kn.

Règle .. Toute famille libre dans Kn contient au plus n vecteurs. Toute famille génératrice de Kn

possède au moins n vecteurs.

Preuve. On fait appel à la proposition .. et à la base canonique (e1, . . . , en). Soit (v1, . . . , vp)une famille libre dans Kn ; or Kn = vect(e1, . . . , en), donc p 6 n. Soit (u1, . . . , uq) une famillegénératrice de Kn ; or (e1, . . . , en) est libre dans Kn = vect(u1, . . . , uq), donc n 6 q.

... Existence d’une base. Dimension

Lorsque F est un sous-espace vectoriel strictement inclus dans Kn, l’existence d’une base estmoins évidente. De plus, même si une telle base sur F est pratique pour ramener des calculs surdes vecteurs à des calculs en coordonnées sur des scalaires, il n’existe pas, en général, de baseprivilégiée, de sorte qu’il n’y a pas lieu d’identifier F à un espace canonique.Et pourtant, il est bien évident que la distinction entre la structure algébrique d’un espace ca-nonique et celle d’un sous-espace est artificielle : dans les deux cas, tout repose sur les mêmesrègles ... Au chapitre , nous étendrons la définition des espaces vectoriels pour pouvoir traiterles espaces vectoriels et les sous-espaces vectoriels de la même façon.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

Il est à noter qu’ici encore, le fait de travailler sur un corps est essentiel. La proposition qui suitn’a pas d’équivalent en général pour les modules sur un anneau.

Proposition .. (Complétion en une base, extraction d’une base)Soit F ⊂ Kn un sous-espace vectoriel et soit (v1, . . . , vm) une famille de vecteurs de F .1) Si (v1, . . . , vm) est libre, on peut la compléter en une base de F , c’est-à-dire qu’il existe vm+1, . . . , vr

dans F tels que (v1, . . . , vr) soit une base de F .2) Si (v1, . . . , vm) est génératrice de F , on peut en extraire une base de F , c’est-à-dire qu’il existe des

entiers 1 6 j1 < j2 < . . . < jr 6 m tels que (vj1 , . . . , vjr ) soit une base de F .

Preuve.1) L’idée de la preuve est d’agrandir la famille libre (v1, . . . , vm) en une famille libre maximale.

Si vect(v1, . . . , vm) = F , alors la famille (v1, . . . , vm) est génératrice de F et libre, donc unebase de F . Dans le cas contraire, on a vect(v1, . . . , vm) $ F et on choisit un vecteur vm+1 ∈F\vect(v1, . . . , vm). D’après le lemme .., la famille augmentée (v1, . . . , vm+1) est libre. Sielle est génératrice de F , alors c’est une base de F . Sinon, on itère le procédé jusqu’à ce quece ne soit plus possible, ce qui finit toujours par arriver car, d’après la règle .., une famillelibre de Kn ne peut contenir plus de n vecteurs libres. Cela signifie qu’à une certaine étape, onatteint l’égalité vect(v1, . . . , vr) = F , où (v1, . . . , vr) est libre et donc une base de F .

2) L’idée de la preuve est d’extraire de la famille génératrice (v1, . . . , vm) de F une famille géné-ratrice minimale. Si (v1, . . . , vm) est libre, alors c’est une base de F . Sinon, il existe une relationde dépendance linéaire et le lemme .. permet de supprimer un vecteur parmi v1, . . . , vmpour obtenir une famille encore génératrice de F . On itère le procédé tant que possible, c’est-à-dire tant que la famille obtenue n’est pas libre, ce qui ne peut durer que pendant au plusm étapes puisque la famille vide est libre. Ainsi le procédé finit par s’arrêter. On obtient alorsune famille libre et génératrice de F , c’est-à-dire une base de F .

Théorème ..1) Tout sous-espace vectoriel de Kn possède une base.2) Soit F ⊂ Kn un sous-espace vectoriel. Alors deux bases de F contiennent toujours le même nombre

de vecteurs, appelé la dimension de F et noté dim(F ).

Un sous-espace vectoriel de dimension 1 est appelé une droite, un sous-espace vectoriel de dimen-sion 2 est appelé un plan.Preuve.1) Existence d’une base : il suffit de compléter la famille vide en une base.2) Dimension : soit (b1, . . . , bp) et (b′1, . . . , b

′q) des bases de F . Les vecteurs b1, . . . , bp sont dans

Kn = vect(b′1, . . . , b′q), donc p 6 q d’après la proposition ... De manière similaire, q 6 p.

Tirons deux conséquences de ce théorème.

⋄ La base naturelle de Kn contient n vecteurs. Ainsi Kn est (heureusement) de dimension n.

⋄ Tout sous-espace vectoriel de Kn est de la forme vect(v1, . . . , vp) avec vj ∈ Kn et p 6 n.

La dimension correspond au nombre de paramètres nécessaires pour décrire tout élément del’espace. Si (v1, . . . , vr) est une base de F , alors tout élément u ∈ F s’écrit de manière unique

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Familles libres, familles liées

sous la forme u =Pr

j=1 λjvj . C’est-à-dire que r paramètres, à savoir les coefficients λj , sontnécessaires et suffisants pour décrire un élément de F .

Proposition .. Soit F ⊂ Kn un sous-espace vectoriel et r = dim(F ). Alors1) toute famille génératrice de F possède au moins r vecteurs ;2) toute famille génératrice de F constituée de r vecteurs est une base de F ;3) toute famille libre dans F possède au plus r vecteurs ;4) toute famille libre dans F constituée de r vecteurs est une base de F .

Preuve. Les points 1) et 3) sont des conséquences immédiates de la proposition ... Pour mon-trer 2), soit (v1, . . . , vr) génératrice de F . Supposons par l’absurde que (v1, . . . , vr) n’est pas libre.Alors il existe une relation de dépendance linéaire

Prj=1 λjvj = 0 où λk 6= 0 pour un certain k ;

d’après le point 3) du lemme .., la famille (v1, . . . , Òvk, . . . , vr) est aussi génératrice de F , ce quiest une contradiction au point 1).Enfin, montrons 4). Soit (v1, . . . , vr) libre dans F . Supposons par l’absurde que (v1, . . . , vr) n’estpas génératrice de F . Alors il existe un vecteur v ∈ F \ vect(v1, . . . , vr). D’après le lemme .., lafamille (v, v1, . . . , vr) est encore libre dans F , ce qui est une contradiction au point 3).

Proposition .. Soit F et G deux sous-espaces vectoriels de Kn tels que G ⊂ F . Alors dim(G) 6dim(F ). De plus, dim(G) = dim(F ) si, et seulement si, G = F .

Preuve. On pose m = dim(G) et r = dim(F ). Soit (b1, . . . , bm) une base de G. C’est aussi unefamille libre dans F . Le point 3) de la proposition ..montre alors que m 6 r. Si de plus m = r,alors on déduit du point 4) de la proposition .. que (b1, . . . , bm) est une base de F , d’où G = F .

Exemple ..Comme nous l’avons vu dans l’exemple .., la famille de trois vecteurs ((1, 2, 3) , (3, 1, 2) , (2, 3, 1)) estlibre dans K3. La dimension de K3 étant 3, il s’agit d’une base de K3.

La base de K3 de l’exemple ci-dessus est moins « belle » que la base canonique. En revanche, nousallons voir dans l’exemple suivant que pour les sous-espaces vectoriels, il n’y a pas de base plus« belle » que les autres.

Exemple ..Soit F = (x, y, z) ∈ K3 | x− y + z = 0 .⋄ Soit (x, y, z) dans F . On observe que y = x+ z, d’où

(x, y, z) = (x, x+ z, z) = x(1, 1, 0) + z(0, 1, 1).

Cela montre que tout vecteur de F est combinaison linéaire des deux vecteurs (1, 1, 0) et (0, 1, 1). On voitsans peine que ces deux vecteurs sont dans F et qu’ils sont non colinéaires. Donc ((1, 1, 0), (0, 1, 1)) est unebase de F . En particulier dim(F ) = 2, c’est-à-dire que F est un plan.

⋄ Les deux vecteurs (1, 0,−1) et (0, 1, 1) sont non colinéaires et dans F . Ils forment une base de F cardim(F ) = 2.

Il n’y a pas de raison de préférer la base ((1, 1, 0), (0, 1, 1)) à la base ((1, 0,−1), (0, 1, 1)).

Définition ..

Le rang d’une famille (v1, . . . , vp) de vecteurs de Kn est la dimension de l’espace engendré par cette famille, soitencore rg(v1, . . . , vp) = dim vect(v1, . . . , vp).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

Exemple ..Dans l’exemple .., nous avons vu que la famille

(v1, v2, v3) = ((1, 2, 3), (3, 1, 2), (−3, 4, 5))

est liée. Donc rg(v1, v2, v3) < 3. D’autre part, les vecteurs v1 et v2 ne sont pas colinéaires, doncrg(v1, v2, v3) > 1. Aussi rg(v1, v2, v3) = 2.

Règle .. Pour toute famille (v1, . . . , vp) dans Kn on a rg(v1, . . . , vp) 6 min(p, n) .

Preuve. Soit (v1, . . . , vp) une famille dans Kn et F = vect(v1, . . . , vp). On pose r := rg(v1, . . . , vp).Puisque F ⊂ Kn on a r = dim(F ) 6 dim(Kn) = n car la dimension d’un sous-espace est majoréepar la dimension de l’espace ambiant (voir la proposition ..). Et puisque (v1, . . . , vp) est géné-ratrice de F , on a r 6 p car le nombre de générateurs d’un espace est minoré par sa dimension(voir la proposition ..).

Tests

.. Les vecteurs (−2,−1, 0), (1, 2, 3), (4, 5, 6), (7, 8, 9)sont-ils liés ? Répondre sans aucun calcul.

.. Considérons les vecteurs u = (−1, 0, 7), v = (1, 2,−3)et w = (1, 4, 1) de R3 . Vérifier que w = u + 2v, puis écrire wde deux manières différentes comme combinaison linéaire deu, v, w.

.. Que penser de l’assertion suivante ? L’ensemble desolutions d’un système linéaire homogène avec n inconnues estde la forme vect(v1, . . . , vp) avec vj ∈ Kn .

.. Les vecteurs suivants constituent-ils une base de Kn ?(1, 0, 0, 0, . . . , 0)

(1, 1, 0, 0, . . . , 0)

(1, 1, 1, 0, . . . , 0)

...

(1, 1, 1, 1, . . . , 1).

.. Exemple : l’espace des carrés magiquesUn carré magique de type 3 × 3 est un carré de 9 réels(x11, x12, x13, x21, x22, x23, x31, x32, x33) dont les sommes dechaque ligne et de chaque colonne donnent le même nombre, ap-pelé le caractère du carré.

x11 x12 x13x21 x22 x23x31 x32 x33

Par exemple M1 =

1 0 −10 0 0

−1 0 1, M2 =

0 1 −10 0 0

0 −1 1, M3 =

0 0 0

1 0 −1−1 0 1

, M4=0 0 0

0 1 −10 −1 1

sont des carrés magiques de caractère nul, alors que I =1 0 0

0 1 0

0 0 1et

4 2 −8−1 0 −1−5 −4 7

sont des carrés magiques de caractères 1 et −2 respectivement.

Nous notons K l’ensemble des carrés magiques de type 3 × 3. Tout carré peut s’écrire sur uneseule ligne (x11, x12, x13, x21, x22, x23, x31, x32, x33). Cela permet de considérer K comme sous-ensemble de l’espace canonique K9. Soit (λ, λ′) ∈ R2 etM etM ′ des carrés magiques de caractèresrespectifs ξ et ξ′. Alors on voit facilement que la combinaison linéaire λM + λ′M ′ est encore uncarré magique et que son caractère est λξ + λ′ξ′ . Nous en déduisons deux conséquences :

⋄ K est un sous-espace vectoriel de K9.

⋄ Toute combinaison linéaire de deux carrés magiques à caractère nul est encore un carré magiqueà caractère nul. Ainsi l’ensemble K0 des carrés magiques à caractère nul est aussi un sous-espacevectoriel de K9. Autrement dit, on a l’inclusion de sous-espaces vectoriels K0 ⊂ K ⊂ K9 .

Quelle est la dimension de K ? Avant de la calculer, on peut déjà deviner que la réponse est 5. Eneffet, pour construire un carré magique, on fixe arbitrairement son caractère (un degré de liberté),

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exemple : l’espace des carrés magiques

puis les quatre composantes du sous-carré nord-ouest (quatre degrés de liberté) – pour les cinqautres composantes, il n’y a alors plus le choix.

Proposition .. Les carrés magiques M1, . . . ,M4, I ci-dessus forment une base de l’espace K descarrés magiques de type 3× 3. En particulier la dimension de K est 5.

Preuve. Nous procédons en plusieurs étapes. Montrons que (M1, . . . ,M4) est une famille génératrice de K0. Soit

M0 =

x11 x12 x13x21 x22 x23x31 x32 x33

un carré magique quelconque de K0 . Posons

N =M0 − x11M1 − x12M2 − x21M3 − x22M4 .

Pour prouver que M0 est une combinaison linéaire de M1 , . . . ,M4 , il suffit de montrer queN = 0 . Notons yℓk les coefficients de N . Il est immédiat que les quatre composantes nord-ouesty11, y12, y21, y22 de N sont nulles. Un calcul immédiat donne

y13 = x13 − x11 × (−1)− x12 × (−1)− x21 × 0− x22 × 0 = x11 + x12 + x13 = 0.

Un calcul analogue montre que y12 = y31 = y32 = 0. Le calcul pour la composante sud-est y33 estlégèrement différent :

y33 = x33 − (x11 + x12)− (x21 + x22) = x33 − (−x13)− (−x23) = 0.

Ainsi on a démontré que K0 = vect(M1, . . . ,M4). Montrons que (M1, . . . ,M4) est libre. Soit (µ1, . . . , µ4) ∈ R4 tel que

P4j=1 µjMj = 0. En raison-

nant sur les quatre composantes nord-ouest, nous obtenons µ1 = · · · = µ4 = 0. Ainsi (M1, . . . ,M4)est une base de K0 . Puisque I 6∈K0 , la famille (I,M1,M2,M3,M4) est libre d’après le lemme ... Il reste à prouverqu’elle est génératrice de K . Soit M un carré magique arbitraire. Notons ξ son caractère et écri-vons M = ξI+(M − ξI). Comme M − ξI est dans K0, ce carré se décompose en une combinaisonlinéaire des carrésM1, . . . ,M4. Aussi M peut-il bien s’écrire comme une combinaison linéaire descarrés I,M1, . . . ,M4 .

Corollaire .. Soit ξ ∈ R. Alors les carrés magiques de caractère ξ sont les carrés de la forme

ξI+4X

k=1

µkMk , avec (µ1, . . . , µ4) ∈ R4 .

Tests

.. Quelle est la dimension de K0 ?

.. Trouver un carré magique de caractère 4 et dont toutes lescomposantes sont des entiers non nuls.

.. Donner une base de l’espace des carrés magiques de format2 × 2.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

.. Exercices

Enoncés des exercices

Exercice ..

Déterminer la dimension du sous-espace vectoriel de R 3 engendré par les vecteurs

. u = (1, 2, 0), v = (−1, 1, 1) ;

. u = (1, 0,−2), v = (0, 2, 1), w = (−1, 4, 2) ;

. u = (1, 1,−2), v = (1, 3, 2), w = (−2, 0, 1), z = (1,−1, 0) .

Exercice ..

SoitF = (λ+ µ, 2λ− µ, 3λ+ 4µ, 2µ) | (λ,µ) ∈ K2 .

. Montrer que F est un sous-espace vectoriel de K4.

. Déterminer la dimension de F .

Exercice ..

Soit u = (1, 1, 0), v = (0, 1, 1), w = (1, 2, 1), s = (1, 0, 1), t = (1, 0,−1).. Compléter (u, v) en une base de K3.

. Extraire de (u, v, w, s) une base de K3.

. Peut-on extraire de (u, v, w, t) une base de K3 ?

Exercice ..

Soit u, v, w trois vecteurs de Kn et α, β, γ des scalaires tels que αβ 6= 0 et

αu+ βv + γw = 0.

Prouver que vect(u,w) = vect(v, w).

Exercice ..

Expliquer pourquoi les ensembles suivants sont des sous-espaces vectoriels de R3 et déterminer leursdimensions.

. E = vect((1, 2, 3), (3, 2, 1), (1, 1, 1)) ;

. F = (x, y, z) | x = y ;. G = (x, y, z) | x+ 3y = y + z = 2x− z = 0 ;. H = (x, y, z)|x+ 3y = y + z = x+ 2y − z = 0 ;. L = (x, y, z) | x+ 3y = y + z = 2x− z .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

On pose u = (1,−1, 1), v = (2, 1,−1) et w = (−1, 3, 1). Montrer que pour tout vecteur a = (x, y, z) ∈ R3 ilexiste un unique triplet (α, β, γ) ∈ R3 tel que

a = αu+ βv + γw .

Déterminer (α, β, γ) en fonction de (x, y, z) . Comment appelle-t-on la famille définie par B = (u, v, w) ?

Exercice ..

Déterminer tous les t ∈ [0, 12[ tels que les deux vecteurs suivants sont liés

vt = (sin(2πt), cos(2πt)) ,

ut =sinπt

6

, cos

πt

6

.

(Indication : regarder une horloge !)

Exercice ..

Lesquels des ensembles suivants sont des sous-espaces vectoriels de R3 ?

. L’ensemble E des (x, y, z) ∈ R3 tels que

x2 + y2 + z2 = 0 ;

. L’ensemble F des (x, y, z) ∈ R3 tels que

x2 + y2 + z2 = −2(xy + xz + yz) ;

. L’ensemble G des triplets de la forme

(µ, λ+ µ, λ2 − µ) , où (λ, µ) ∈ R2 ;

. L’ensemble H des triplets de la forme

(3λ3 + 2µ− 1,−λ3 + µ− 1

2, 1− 2µ), où (λ, µ) ∈ R2 .

Reprendre l’exercice en remplaçant R par C.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

.. Réponses aux tests

.. u = (2,−5, 8)v = (−4,−20 + i, 4i+ 2)

.. (2, 1, 1) et (1, 1, 0).

..

a. Deux, à savoir les sous-espaces triviaux 0 et K.

b. Une infinité, par exemple les droites K(cosϑ, sinϑ) oùϑ ∈ R.

.. Il n’y a que l’espace nul. En effet si (x, y) est un vecteurnon nul, alors λ(x, y) 6∈ B pour tout réel λ assez grand.

.. Non, Rm n’est même pas un sous-ensemble de Rn .

.. F est un s.e.v. car ensemble de solution d’un systèmelinéaire homogène. De même pour H. L’ensemble G ne contientpas le vecteur nul. L’ensemble E n’est pas stable par additioncar (1, 1, 0) et (2, 1, 1) sont dans E mais pas leur somme.

..

a. 0x1 + 0x2 = 1

b. x1 + x2 = 0

.. p inconnues et n équations.

.. p inconnues et n équations.

.. Non.

.. Non.

.. Oui. Par exemple 0, 1 sont non tous nuls, mais ne sontpas tous non nuls.

.. Faux, vrai, faux.

..

a. Faux. Par exemple les vecteurs u = (1, 0), v = (0, 1),w = (0, 0) sont coplanaires, mais u n’est pas combinaisonlinéaire de v, w.

b. Vrai car si l’on multiplie une équation par 2 on obtient uneéquation équivalente.

.. Elles sont vraies.

.. Oui.

.. Oui, car il s’agit de 4 vecteurs dans R3 (qui est dedimension 3).

.. w = 0 · u + 0 · v + 1 · w,w = 1 · u + 2 · v + 0 · w.

.. C’est vrai, car l’espace de solutions est un sous-espacevectoriel de Kn et tout sous-espace vectoriel de Kn possède unebase.

.. Oui. Pour démontrer que tout vecteur de Kn s’écrit demanière unique comme combinaison linéaire de ces vecteurs, onest ramené au système linéaire de l’exemple ... Il possèdeune unique solution.

.. dim(K0) = 4.

..2 1 11 2 11 1 2

..1 00 1

,0 11 0

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

. u et v sont manifestement non colinéaires, doncdim(vect(u, v)) = 2.

. u et v sont manifestement non colinéaires. Siw = λu + µv, on voit directement sur les deuxpremières coordonnées que λ = −1 et µ = 2 cequi donne une contradiction avec la dernière co-ordonnée. Ainsi, w n’est pas une combinaison li-

néaire des vecteurs (u, v), donc (u, v, w) est libreet dim(vect(u, v, w)) = 3.

. Comme ci-dessus, on voit rapidement que(v, w, z) est libre, donc dim(vect(u, v, w, z)) > 3.Comme on est dans R3 on a dim(vect(u, v, w, z)) =3.

Solution ..

. On a

F = λ(1, 2, 3, 0) + µ(1,−1, 4, 2) | (λ, µ) ∈ K2= vect((1, 2, 3, 0) , (1,−1, 4, 2)).

. dim(F ) = 2.

Solution ..

. La famille (u, v) est libre, donc on peut la com-pléter en une base de K3. Pour cela il suffit d’ajou-ter n’importe quel vecteur qui n’est pas dans leplan vect(u, v). Par exemple (u, v, s) est une basede K3.

. (u, v, s).

. Non. Puisque w = u + v et t = u − von a vect(u, v, w, t) = vect(u, v) donc la famille(u, v, w, t) n’est pas génératrice de K3 et toutesous-famille encore moins.

Solution ..

C’est une conséquence du lemme .. : commeα 6= 0 et β 6= 0 on peut enlever au choix le gé-

nérateur u ou le générateur v,

vect(u, v, w) = vect(u,w) = vect(v, w) .

Solution ..

. Par définition, E est le sous-espace vectorielde R3 engendré par les vecteurs u = (1, 2, 3),v = (3, 2, 1), et w = (1, 1, 1). Il est clair que u, vsont linéairement indépendants, d’où dim F > 2.D’autre part, w = u+v

4, ce qui implique que E =

vect(u, v) et dim(E) = 2.

. L’ensemble F est un sous-espace vectoriel deR3 en tant qu’espace des solutions du système ho-mogène x − y = 0 (trois inconnues x, y, z et uneéquation). Une base de F est ((0, 0, 1), (1, 1, 0)).Donc dim F = 2.

. L’ensemble G est un sous-espace vectoriel deR3 en tant qu’espace des solutions du système ho-mogène suivant : (

x+ 3y = 0y + z = 0

2x− z = 0.

Le vecteur nul en est l’unique solution. DoncG estl’espace nul et dim(G) = 0.

. L’ensemble H est un sous-espace vectoriel deR3 en tant qu’espace des solutions du système ho-mogène suivant :(

x+ 3y = 0y + z = 0

x+ 2y − z = 0.

On résout ce système (la première équation est su-perflue car elle est la somme des deux autres) et ontrouve que H = K(3,−1, 1), donc dimH = 1.

. L’ensemble L est un sous-espace vectoriel deR3 en tant qu’espace des solutions du système ho-mogène suivant :§

−x+ 3y + z = 0−2x+ y + 2z = 0.

On trouve que les solutions sont de la forme(λ, 0, λ) avec λ ∈ R. Donc (1, 0, 1) est une base deL et dim L = 1.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul vectoriel dans Kn

Solution ..

Pour (x, y, z) ∈ R3 donné, on résout le système àtrois inconnues α, β, γ(

α + 2β − γ = x−α + β + 3γ = yα − β + γ = z

par exemple par substitutions successives, commeau lycée ; on trouve l’unique solution

(α, β, γ) =4x− y + 7z

12,2x+ y − z

6,y + z

4

.

La famille B = (u, v, w) est donc une base de R3.

Solution ..

Le paramètre t représente l’heure entre minuit etmidi, et le vecteur ut (resp. vt) représente la petite(resp. grande) aiguille sur une horloge. Dire queles vecteurs sont liés revient à dire que les aiguillessont alignées.Les deux aiguilles sont alignées si et seulement sila différence des deux angles, 2πt et πt

6, est un mul-

tiple de π. Autrement dit, si et seulement si

2πt− πt

6= kπ , k ∈ Z.

On trouve t = 6k/11. Pour 0 6 t < 12, les aiguillessont donc alignées précisément 22 fois, lorsque

t =6k

11, k ∈ J0, 21K.

Evidemment on aboutit au même résultat si on uti-lise la proposition .., puis les formules d’addi-tion des fonctions trigonométriques.

Solution ..

. E est un sous-espace vectoriel de R3 car c’estl’espace nul.

. L’équation x2 + y2 + z2 + 2(xy + xz + yz) = 0équivaut à (x+y+z)2 = 0 ou encore à x+y+z = 0.Donc F est bien un sous-espace vectoriel.

. G n’est pas un sous-espace vectoriel de R3. Eneffet, on voit sans peine queG contient les vecteurs(0, 1, 1) et (0,−1, 1), mais il ne contient pas leursomme (0, 0, 2).

. On peut écrire H de la manière suivante,

H = λ3(1,−1, 0)+(2µ−1)(1, 12,−1) | (λ, µ) ∈ R2 .

Remarquons que les deux applications de R dansR définies par λ 7→ λ3 et par µ 7→ 2µ− 1 sont sur-

jectives. Cette observation permet de changer deparamétrisation. En posant α = λ3 et β = 2µ − 1on trouve alors

H = α(1,−1, 0) + β(1,1

2,−1) | (α, β) ∈ R2

= vect((1,−1, 0), (1, 1/2,−1)),

ce qui montre bien que H est un sous-espace vec-toriel de R3.

Reprenons les questions dans le cas complexe.E n’est pas un sous-espace vectoriel de C3. En ef-fet,E contient les vecteurs (1, i, 0) et (1,−i, 0) maisil ne contient pas leur somme (2, 0, 0). Pour F,G etH les réponses ci-dessus ainsi que leurs preuvesrestent valables dans le cas complexe.

Université Paris Sud agreg 2012 - 2013

Calcul matriciel

Une matrice se présente sous la forme d’un tableau de nombres, mais peut don-ner lieu à plusieurs interprétations selon ce que l’on veut en faire. Cela ne peutêtre qu’un simple tableau de nombres, ou bien on peut la voir comme une listede vecteurs colonnes ou une liste de vecteurs lignes. Elle peut aussi coder lescoefficients d’un système linéaire et aider à le résoudre, et c’est principalementpour cela que nous l’introduisons dans ce chapitre. Enfin, comme nous le ver-rons dans les chapitres suivants, elle peut modéliser toute application linéaireentre espaces vectoriels de dimension finie.

.. Matrices

... L’espace vectoriel Mmn(K)

Définition ..

Une matrice de formatm×n à coefficients dans K est une famille de nombres aℓk ∈ K avec 1 6 ℓ 6 m et 1 6 k 6 n.Elle se dispose sous la forme d’un rectangle

A = (aℓk)16ℓ6m16k6n

=

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

.

L’indice ℓ est appelé l’indice ligne, l’indice k est appelé l’indice colonne . Le m-uplet a1k

...amk

est le k-ième vecteur

colonne et le n-uplet (aℓ1, . . . , aℓn) le ℓ-ième vecteur ligne de A.Si m = n, on dit que A est une matrice carrée d’ordre n.On note Mmn(K) l’ensemble des matrices m× n à coefficients dans K et Mn(K) = Mnn(K).

Par exemple, les carrés magiques de la page sont des matrices carrées d’ordre 3.Pour alléger les notations nous avons écrit aℓk à la place de aℓ,k . On peut toujours insérer lavirgule lorsqu’une confusion est à craindre. On distinguera par exemple l’ensemble M2,4(K) desmatrices 2× 4 et l’ensemble M24(K) des matrices carrées d’ordre 24.Nous notons simplement A = (aℓk) lorsque le contexte ne laisse aucune ambiguïté sur l’ensembledes indices.

Écriture des vecteurs en lignes ou colonnes

Une matrice 1×n est une ligne tandis qu’une matrice n×1 est une colonne. Comme les deux sontdes n-uplets, nous identifions l’espace canonique Kn à M1n(K) ou encore à Mn1(K), c’est-à-direque nous écrivons les n-uplets de Kn en ligne ou en colonne, selon nos besoins. On parle alors devecteur ligne ou de vecteur colonne.

Identification avec Kmn

Nous pouvons écrire les coefficients d’une matrice m × n en une seule ligne, c’est-à-dire en unmn-uplet. Pour cela, il suffit de choisir un ordre de lecture des coefficients, par exemple ligneaprès ligne

. Souvent nous choisirons de noter ℓ l’indice des lignes et k l’indice des « kolonnes ».

www.mathoman.com Chapitre : Calcul matriciel

(a11, . . . , a1n, a21, . . . , a2n, . . . . . . , am1, . . . , amn).

Une fois un tel ordre arbitrairement fixé, Mmn(K) s’identifie à Kmn. Ainsi la structure de l’espacecanonique Kmn est transportée sur Mmn(K) : nous avons défini l’addition de deux matricesm×net la multiplication d’une matrice par un nombre λ dans K. Ces définitions ne dépendent pas duchoix de l’ordre de lecture des coefficients qui a servi à réaliser l’identification car les opérationsse définissent directement sur les matrices par les formules suivantes :

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

+

b11 b12 . . . b1n

b21 b22 . . . b2n...

......

bm1 bm2 . . . bmn

=

a11 + b11 a12 + b12 . . . a1n + b1n

a21 + b21 a22 + b22 . . . a2n + b2n

......

...

am1+bm1 am2+bm2. . . amn+bmn

λ ·

a11 a12 . . . a1na21 a22 . . . a2n

......

...

am1 am2 . . . amn

=

λa11 λa12 . . . λa1nλa21 λa22 . . . λa2n

......

...

λam1 λam2 . . . λamn

.

De même, les notions de famille libre, famille génératrice et de base sont valables aussi pour lesfamilles de matrices. En particulier, Mmn(K) possède une base canonique : elle est constituée desmatrices Eℓk, 1 6 ℓ 6 m, 1 6 k 6 n, où Eℓk est la matrice dont tous les coefficients sont nuls saufcelui d’indice (ℓ, k) qui vaut 1. Par exemple, dans M2(K),

E11 =

1 00 0

, E12 =

0 10 0

, E21 =

0 01 0

, E22 =

0 00 1

.

Autrement dit, les matrices de la base canonique de Mmn(K) sont de la forme

Eℓk = (δ(ℓ,k),(p,q))16p6m16q6n

avec le symbole de Kronecker δα,β =

¨1 si α = β ,0 si α 6= β .

Toute matrice A = (aℓk) ∈Mmn(K) se décompose de façon unique sous la forme

A =X

16ℓ6m16k6n

aℓkEℓk.

Tests

.. Calculer1 30 1

+ 1

2

−2 02 6

. .. Quelle est la dimension de M2,3(K) ? Décomposer

1 2 00 0 3

en la base canonique.

... Multiplication matricielle. L’anneau Mn(K)

Définition ..

(Produit d’une matrice et d’un vecteur colonne)La multiplication d’une matrice A = (aℓk) ∈Mmn(K) par un vecteur x ∈ Kn est définie par

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

x1

x2

...xn

=

a11x1 + a12x2 + · · ·+ a1nxn

a21x1 + a22x2 + · · ·+ a2nxn

...am1x1 + am2x2 + · · ·+ amnxn

. (.)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices

Le produit Ax est donc un vecteur dans Km.

Par exemple, le produit d’une matrice 2× 3 par un vecteur dans K3 donne un vecteur dans K2 :1 2 03 2 1

231

=

1× 2 + 2× 3 + 0× 13× 2 + 2× 3 + 1× 1

=

813

.

Une autre écriture de la formule (.) esta11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

x1x2...xn

= x1

a11a21...

am1

+ x2

a12a22...

am2

+ · · ·+ xn

a1na2n...

amn

.

On en déduit la règle suivante.

Règle .. Le produit Ax d’une matrice A ∈ Mmn(K) et d’un vecteur x ∈ Kn est la combinaisonlinéaire des vecteurs colonnes de A affectée des coefficients de x.Autrement dit, si C1, . . . , Cn désignent les colonnes de A, alors

A

x1...xn

Ǒ=

nXk=1

xkCk.

En reprenant l’exemple précédent,1 2 03 2 1

231

= 2

13

+ 3

22

+ 1

01

=

813

.

Explicitons deux cas particuliers.

⋄ Pour m = n = 1, le produit s’écrit sous la forme (a1)(x1) = a1x1, ce qui peut se voir commel’expression d’une règle de trois, avec x1 pour variable et a1 ∈ K pour coefficient de proportion-nalité.

⋄ Pour m = 1, la matrice A est réduite à une ligne et on retrouve le produit scalaire déjà vu au

lycée : (a1, . . . , an)

x1...xn

Ǒ= a1x1 + · · ·+ anxn.

Règle .. Soit A ∈Mmn(K). Pour tous x, y dans Kn et pour tout λ ∈ K,

A(x + y) = Ax+Ay et A(λx) = (λA)x.

Preuve. Notons C1, . . . , Cn les colonnes de A. On trouve, avec la règle ..,

A(x+ y) =nX

k=1

(xk + yk)Ck =nX

k=1

xkCk +nX

k=1

ykCk = Ax+Ay ,

A(λx) =nX

k=1

(λxk)Ck =nX

k=1

xk(λCk) = (λA)x.

Définition ..

(Produit de deux matrices)Si A = (aℓk) est de type m × n et si B = (bkj) est de type n × p, alors le produit AB est la matrice (cℓj) de typem× p définie par

cℓj =

nXk=1

aℓkbkj . (.)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Le coefficient cℓj du produit AB est le produit de la ℓ-ième ligne de A par la j-ième colonne de B,soit encore

cℓj = (aℓ1, . . . , aℓn)

b1j...bnj

Ǒ= aℓ1b1j + aℓ2b2j + · · ·+ aℓnbnj .

AB

AB

=

Remarque.. Le produit de deux matrices n’existe pas toujoursLe produit matriciel est défini seulement quand le nombre de colonnes de la première matrice estégal au nombre de lignes de la deuxième.

Exemple ..0 1 24 −1 0

1 1 2 2−7 3 0 43 0 1 0

!=

−1 3 2 411 1 8 4

.

Dans cet exemple il est impossible de faire le produit dans l’autre sens, on ne peut pas multiplierune matrice 3 × 4 avec une matrice 2 × 3. Essayez-le ! Vous allez vous heurter à l’obstacle demultipler une ligne de longueur 4 avec une colonne de hauteur 2.En revanche, si les deux matrices sont carrées, le produit a encore un sens si on inverse l’ordredes matrices, mais le résultat est différent en général : la multiplication n’est pas commutative.

Exemple ..1 10 1

0 11 0

=

1 11 0

6=0 11 1

=

0 11 0

1 10 1

.

Contrairement au calcul dans un corps, le produit de deux matrices non nulles peut donner lamatrice nulle. On appelle de telles matrices des diviseurs de zéro.

Exemple ..1 00 0

0 00 1

=

0 00 0

;

1 12 2

3 −1−3 1

=

0 00 0

.

La définition du produit de deux matrices généralise la définition du produit d’une matrice etd’un vecteur. Si on conçoit la matrice B comme la juxtaposition de ses vecteurs colonnes, alors leproduit AB est la juxtaposition des produits de A avec chacune des colonnes de B. Autrementdit,

AB =

A

b11...bn1

Ǒ, . . . , A

b1p...bnp

ǑǑ.

En développant selon la règle .. on obtient la propriété suivante.

Règle ..Les colonnes de AB sont des combinaisons linéaires des colonnes de A. Plus précisément, en notantC1, . . . , Cn les colonnes de A, on a

AB =

nX

k=1

bk1Ck , . . . ,nX

k=1

bkpCk

!. (.)

De manière analogue, si l’on conçoit la matrice A comme l’empilement de ses lignes, alors leproduit AB est l’empilement des produits de chacune de ces lignes avec B,

AB =

(a11, a12, . . . , a1n)B(a21, a22, . . . , a2n)B

...(am1, am2, . . . , amn)B

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices

Règle ..Les lignes deAB sont des combinaisons linéaires des lignes deB. Plus précisément, en notantL1, . . . , Ln

les lignes de B, on a

AB =

Pnk=1 a1kLk

...Pnk=1 amkLk

Ǒ. (.)

Un peu d’entraînement est nécessaire pour jongler entre ces différents points de vue et voir queles formules (.), (.) et (.) reviennent au même ! Mais le lecteur est vivement invité à fairecette gymnastique d’assouplissement d’esprit, indispensable pour le calcul matriciel.

Tests

.. Calculer : A =

1 3 02 −1 3

0−12

; B =

3 10 2

2

;

C = (1, 2, 3)

456

; D =

456

(1, 2, 3).

.. Soit A ∈ Mmn(K) et B ∈ Mpq(K) telles que AB = BA.Que peut-on déduire sur m,n, p, q ?

.. Soit eℓ le ℓ-ième vecteur de la base canonique de Km noté enligne, et e′k le k-ième vecteur de la base canonique de Kn noté encolonne. Pour A ∈ Mmn(K) calculer eℓA , Ae′k et eℓAe′k .

... Règles de calcul

Nous venons de définir une opération de multiplication sur les matrices. Comme toujours quandon rajoute une structure algébrique sur un ensemble, il est intéressant d’en étudier la compatibilitéavec les structures déjà existantes, comme ici la structure d’espace vectoriel de Mmn(K). Cala seraparticulièrement remarquable dans le cas où m = n, pour lequel nous obtiendrons une structured’anneau.

Définition ..

La matrice identité d’ordre n est la matrice In = (δℓk) ∈Mn(K). Tous ses coefficients diagonaux sont égaux à 1 ettous les autres sont nuls.

In =

1. . .

1

∈Mn(K).

Notation. Lorsqu’on laisse un vide dans une région d’une matrice, cela signifie que tous les co-efficients dans cette région sont nuls.

On vérifie facilement que la matrice identité joue bien le rôle d’un élément neutre dans la multi-plication matricielle.

Règle .. Pour tout A ∈Mmn(K), on a AIn = ImA = A.

Nous avons vu que le produit matriciel n’est pas en général commutatif (voir l’exemple ..).Toutefois, la multiplication matricielle satisfait fort heureusement les autres règles habituelles decalcul comme la distributivité et l’associativité. Il faut seulement veiller à respecter l’ordre danslequel les matrices sont multipliées.

Règle .. Pour A,A′ dans Mmn(K), B,B′ dans Mnp(K), C ∈Mpq(K) et λ ∈ K, on a

1) A(B +B′) = AB +AB′ ; 3) λ(AB) = (λA)B = A(λB) ;2) (A+A′)B = AB +A′B ; 4) A(BC) = (AB)C.

D’après 3) et 4), il n’y a pas d’ambiguïté à écrire sans parenthèses les produits λAB et ABC.Preuve. Notons A = (αhj) ∈ Mmn(K), B = (βjk) ∈ Mnp(K), et C = (γkℓ) ∈ Mpq(K).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Déterminons d’abord le coefficient d’indice (h, ℓ) de (AB)C. Il est le produit de la h-ième ligne deAB avec la ℓ-ième colonne de C ; il vaut donc

(∗)pX

k=1

nX

j=1

αhjβjk

!γkℓ.

Maintenant, comparons-le avec le coefficient d’indice (h, ℓ) deA(BC). Ce dernier est le produit dela h-ième ligne deA avec la ℓ-ième colonne deBC. Nous l’écrivons ci-dessous et le tranformons enl’expression (∗), en utilisant dans K l’associativité de×, la commutativité de + et la distributivité.

nXj=1

αhj

pX

k=1

βjkγkℓ

!=

nXj=1

pX

k=1

αhj(βjkγkℓ)

!=

nXj=1

pX

k=1

(αhjβjk)γkℓ

!=

pXk=1

nX

j=1

(αhjβjk)γkℓ

!=

pXk=1

nX

j=1

αhjβjk

!γkℓ.

Proposition .. L’ensemble Mn(K) des matrices carrées d’ordre n, muni de l’addition et de lamultiplication matricielles, est un anneau. Son élément neutre pour la multiplication est la matrice In.

La démonstration se fait en vérifiant point par point les axiomes d’un anneau. C’est un exercicefacile laissé au lecteur.

Tests

.. Trouver une involution non triviale dans M2(K), c’est-à-direune matrice A ∈ M2(K) vérifiant A2 = I2 et A 6= ±I2 .

.. Notons Eℓk les vecteurs de la base canonique de Mn(K).Soit A ∈ Mmn(K) et B ∈ Mnm(K). Calculer les produitsAEℓk , EℓkB et EℓkEpq .

.. Rang d’une matrice

... Le rang des lignes est égal au rang des colonnes

Rappelons que le rang d’une famille de vecteurs est la dimension du sous-espace engendré parces vecteurs (voir p. ). Les lignes d’une matrice de format m × n engendrent un sous-espacevectoriel de Kn et, de même, ses colonnes engendrent un sous-espace vectoriel de Km. Ces deuxsous-espaces vectoriels ne sont pas comparables si m 6= n car ils sont contenus dans deux espacesdifférents. Nous allons démontrer maintenant une chose étonnante : ils ont la même dimension.

Proposition .. Soit A ∈Mmn(K) une matrice. Alors le rang de la famille de ses vecteurs lignesest égal au rang de la famille de ses vecteurs colonnes.On appelle ce nombre rang de A, noté rg(A). On a rg(A) 6 min(m,n).

Preuve. Notons L1, . . . , Lm les lignes de A et C1, . . . , Cn ses colonnes de sorte que

A =

L1

L2

...Lm

= (C1, . . . , Cn).

D’après le théorème .., il existe une base (b1, . . . , bp) de l’espace vect(L1, . . . , Lm) ; l’entier pest donc le rang des lignes de A. Les lignes de A sont des combinaisons linéaires des b1, . . . , bp,c’est-à-dire qu’il existe des λij ∈ K tels que

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Rang d’une matrice8>><>>:L1 = λ11b1 + λ12b2 + · · · + λ1pbp ,L2 = λ21b1 + λ22b2 + · · · + λ2pbp ,

...Lm = λm1b1 + λm2b2 + · · · + λmpbp.

(.)

Chacune de ces équations est une égalité entre n-uplets, que l’on peut donc écrire composante parcomposante. Notons

b1 = (β11, β12, . . . , β1n), b2 = (β21, β22, . . . , β2n), . . . , bp = (βp1, βp2, . . . , βpn).

La première composante de chaque équation du système (.) donne

C1 = β11

λ11λ21...

λm1

+ β21

λ12λ22...

λm2

+ · · ·+ βp1

λ1pλ2p...

λmp

.

De même, pour k = 1, . . . , n, la k-ième composante du système donne

Ck = β1k

λ11λ21...

λm1

+ β2k

λ12λ22...

λm2

+ · · ·+ βpk

λ1pλ2p...

λmp

.

Par conséquent, les colonnes de A sont des combinaisons linéaires des p vecteursλ11λ21...

λm1

,

λ12λ22...

λm2

, . . . ,

λ1pλ2p...

λmp

.

Donc le rang des colonnes de A est majoré par p, c’est-à-dire par le rang des lignes. Que le rangdes lignes soit majoré par le rang des colonnes se démontre de manière analogue, d’où l’égalitéde ces deux rangs. La majoration rg(A) 6 min(m,n) est alors une conséquence immédiate du faitque les lignes sont dans Kn et que les colonnes sont dans Km.

Pour mieux apprécier ce qu’il y a d’étonnant dans ce résultat considérons l’exemple suivant.

Exemple ..

Considérons la matrice carrée A =

1 2 32 4 13 6 5

!∈ M3(R).

Nous remarquons que la deuxième colonne est un multiple de la première. Donc il y a une relation dedépendance linéaire entre les colonnes, d’où rg A < 3. Les deux dernières colonnes étant non colinéaires,on a rg A > 1. Ainsi rg(A) = 2. D’après la proposition .., il existe alors aussi une relation de dépendancelinéaire entre les lignes et cela ne saute pas aux yeux !

Remarque..

. Choisissons une matrice 3×6 avec des coefficients pris au hasard. Quel est son rang ? Réponse :son rang est presque sûrement 3. En effet, les trois vecteurs lignes sont pris au hasard dansl’espace vectoriel K6, de dimension 6. Aussi seront-ils libres avec une probabilité de 1.

. En général, une matrice A choisie au hasard dans Mmn(K) est de rang maximal, c’est-à-direrg(A) = min(m,n) avec 100% de chances. Voir aussi la discussion page .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

. Si un professeur cherche, par exemple pour « inventer » un exercice, n vecteurs liés dans Kn,il peut procéder de deux manières :

⋄ Choisir n−1 vecteurs quelconques dans Kn, puis prendre comme n-ième vecteur n’importequelle combinaison linéaire des n− 1 premiers vecteurs.

⋄ Prendre n vecteurs colonnes liés dans Kn, en utilisant la première méthode, les rassembleren une matrice n× n, puis considérer les vecteurs lignes de cette matrice.

Voici la différence entre les deux méthodes : dans la première, le professeur connaît une re-lation de dépendance linéaire car il l’a construite lui-même. Dans la seconde méthode, il nela connaît pas plus que les étudiants auxquels l’exercice est destiné ; il sait seulement que lesvecteurs sont liés.

Tests

.. Quel est le rang de In ?

.. Déterminer de tête le rang de4 3 −1 −21 1 5 10

et

1 2 3 45 0 0 12 4 6 8

.

.. Lors d’un cours, un professeur écrit une matrice 3 × 3 autableau. Comme il l’avait choisie au hasard, il était convaincuqu’elle serait de rang 3, mais les étudiants ont déterminé que lerang était 2. Est-ce en contradiction avec l’affirmation selonlaquelle la probabilité de cet événement est nulle ?

Matrices en blocsIl est parfois pratique de partager une matriceA de formatm×n en plusieurs blocs. Si par exemplen = n1 + n2 et m = m1 +m2 avec n1, n2,m1,m2 ∈ N, alors nous pouvons la séparer en blocs Apq

de format np × nq tel que

A =

A11 A12

A21 A22

.

On convient qu’une matrice de format 0× n ou m× 0 est vide. Si par exemple m2 = 0, la matriceest partitionnée en deux blocs A = (A11, A12).Il est clair que la somme de deux matrices de même format et de même partition en blocs peuts’effectuer blocs par blocs. De plus, on peut remarquer que le produit matriciel peut égalements’effectuer en utilisant des blocs. Le produit généralise la formule du produit matriciel avec descoefficients scalaires. Il faut cependant être attentif ici à bien respecter l’ordre dans les produits deblocs, car ceux-là ne sont en général pas commutatifs.

Règle .. Soient n1, n2,m1,m2, r1, r2 des entiers et soientB11 B12

B21 B22

et

A11 A12

A21 A22

deux matrices avec des blocs Bjp de format rj ×mp et Apq de format mp × nq . Alors

B11 B12

B21 B22

A11 A12

A21 A22

=

B11A11 +B12A21 B11A12 +B12A22

B21A11 +B22A21 B21A12 +B22A22

.

Dans le cas particulier où tous les blocs sont de format 1 × 1, nous retrouvons bien entendu laformule habituelle du produit matriciel.

Le lecteur vérifiera aisément cette règle par un calcul direct. Nous la redémontrerons plus tard,au chapitre , page , par des considérations plus abstraites.

Exemple .. ∗ ∗ ∗ ∗∗ ∗ ∗ ∗∗ ∗∗ ∗∗ ∗

∗ ∗ ∗ ∗ ∗ ∗∗ ∗ ∗ ∗ ∗ ∗∗ ∗ ∗ ∗∗ ∗ ∗ ∗

Ǒ=

∗ ∗ ∗ ∗ ∗ ∗∗ ∗ ∗ ∗ ∗ ∗∗ ∗ ∗ ∗∗ ∗ ∗ ∗∗ ∗ ∗ ∗

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Rang d’une matrice

Notation. Il est commode de remplir les composantes que l’on ne souhaite pas expliciter par unsymbole conventionnel, par exemple une étoile, ou des hachures. L’espace vide est traditionnelle-ment réservé au cas où la composante est nulle. Les barres dans les matrices sont des séparationspour distinguer les blocs.

... Le groupe GL(n,K) des matrices inversibles

Dans un corps, tous les éléments non nuls sont inversibles. Dans un anneau, ce n’est pas néces-sairement le cas. Par exemple, dans l’anneau M2(K), la matrice ( 1 0

0 0 ) n’est pas inversible car il estimpossible d’obtenir la matrice identité en multipliant ( 1 0

0 0 ) par une autre matrice.

Proposition ..Une matrice A ∈Mn(K) est inversible s’il existe une matrice A−1 ∈Mn(K) telle que

AA−1 = A−1A = In.

Le sous-ensemble de Mn(K) formé des matrices inversibles et muni du produit matriciel est un groupedont l’élément neutre est la matrice identité. On l’appelle le groupe linéaire, noté GL(n,K).Pour tous A,B ∈ GL(n,K) on a (AB)−1 = B−1A−1.

Preuve. Vérifions que GL(n,K) est bien un groupe. L’associativité de la multiplication et le faitque In est l’élément neutre découlent des propriétés du produit matriciel que nous avons déjàvues (voir les règles .. et ..). En outre, si A,B dans Mn(K) sont inversibles, alors

(B−1A−1)(AB) = B−1(A−1A)B = B−1InB = B−1B = In ,(AB)(B−1A−1) = A(BB−1)A−1 = AInA−1= AA−1= In ,

ce qui montre que le produit AB est inversible avec (AB)−1 = B−1A−1.

Règle .. Le groupe GL(n,K) est commutatif si, et seulement si, n = 1.

Preuve. Évidemment GL(1,K) = K \ 0 est commutatif. Considérons le cas n = 2. Dansl’exemple .. nous avons déjà vu que les matrices ( 1 1

0 1 ) et ( 0 11 0 ) ne commutent pas. Montrons

qu’elles sont dans GL(2,K). Il suffit d’exhiber, pour chacune, l’inverse :1 10 1

1 −10 1

=

1 −10 1

1 10 1

= I2 ,

0 11 0

2

= I2 .

Si n > 3, on voit par multiplication en blocs que les matrices suivantes sont inversibles et necommutent pas :

1 10 1

1. . .

1

,

0 11 0

1. . .

1

.

Nous allons maintenant donner plusieurs critères pour reconnaître les matrices inversibles. Pourcela, le lemme suivant sera utile.

Lemme .. La multiplication matricielle n’augmente pas le rang. Autrement dit, pour tous A ∈Mmn(K) et B ∈Mnp(K), on a rg(AB) 6 min(rg(A), rg(B)).

Preuve. C’est l’occasion d’utiliser les énoncés .., .. et ... Les colonnes de AB sont descombinaisons linéaires des colonnes de A, d’où la majoration rg(AB) 6 rg(A) . Les lignes de ABsont des combinaisons linéaires des lignes de B, d’où la majoration rg(AB) 6 rg(B).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Proposition .. Soit A ∈Mn(K). Les propriétés suivantes sont équivalentes :1) La matrice A est inversible ;2) A est inversible à droite, c’est-à-dire qu’il existe B ∈Mn(K) tel que AB = In ;3) A est inversible à gauche, c’est-à-dire qu’il existe B′ ∈Mn(K) tel que B′A = In ;4) Les colonnes de A forment une base de Kn ;5) Les lignes de A forment une base de Kn ;6) rg(A) = n.

Preuve. L’équivalence entre les trois dernières propriétés est une conséquence directe de laproposition ...4)⇒ 2) Si les colonnes forment une base de Kn, alors tout vecteur de Kn peut s’écrire commecombinaison linéaire des colonnes C1, . . . , Cn de A. C’est vrai en particulier pour les vecteurse1, . . . , en de la base canonique (notés en colonnes). Il existe donc des coefficients βkℓ ∈ K tels que

(∗) ∀ ℓ ∈ J1, nK : eℓ =nX

k=1

βkℓCk .

Posons B = (βkℓ) ∈Mn(K). Les vecteurs eℓ étant les vecteurs colonnes de la matrice identité, leséquations (∗) signifient que In = AB. Donc A est bien inversible à droite.5)⇒ 3) Même chose en travaillant sur les lignes à la place des colonnes.2)⇒ 6) D’après le lemme .., nous avons rg(A) > rg(AB) = rg(In) = n. De plus, rg(A) 6 nd’après la proposition ... Ainsi rg(A) = n.3)⇒ 6) La preuve est analogue.

Nous avons prouvé l’équivalence des propriétés 2) à 6). Il reste à montrer l’équivalence entre 1)

et 2).1)⇒ 2) C’est trivial.2)⇒ 1) Comme 2) et 3) sont équivalentes, partons de l’hypothèse qu’il existeB etB′ dans Mn(K)telles que B′A = AB = In et montrons que B = B′. On a

B = InB = (B′A)B = B′(AB) = B′In = B′.

Remarque..On retiendra notamment que, s’ils existent, les inverses à gauche ou à droite d’une matrice carréeA sont identiques, et qu’ils sont donc l’inverse de A. En particulier cela signifie que pour voir sideux matrices carrées A et B sont inverses l’une de l’autre, il suffit de vérifier une seule des deuxégalités AB = In ou BA = In.

Règle .. (Inversion d’une matrice 2× 2)La matrice

a bc d

∈M2(K) est inversible si, et seulement si, son déterminant ad− bc est non nul. Dansce cas,

a bc d

−1

=1

ad− bc

d −b−c a

.

Preuve. Le lecteur vérifie sans peine quea bc d

d −b−c a

= (ad− bc) ( 1 0

0 1 ). Donc si ad− bc 6= 0, on

en déduit quea bc d

est inversible et que

a bc d

−1= 1

ad−bc

d −b−c a

. Réciproquement, si ad−bc = 0

les vecteurs (a, b) et (c, d) sont liés d’après la proposition .. et donc la matrice n’est pas inver-sible d’après la proposition ...

Sous-matricesSoit A une matrice. Une sous-matrice de A ou une matrice extraite de A est une matrice obtenue ensupprimant une ou plusieurs lignes ou colonnes de A.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Rang d’une matrice

Par exemple

0 1 2 35 6 7 89 10 11 12

possède les sous-matrices

0 1 2 35 6 7 8

,

0 25 79 11

,

5 69 10

,

1 36 8

.

Un tel découpage d’une matrice peut être intéressant pour calculer son rang. Nous nous appuyonssur l’observation élémentaire suivante.Prenons une famille (v1, . . . , vr) dans Kp et complétons chaque vj = (vj1, . . . , vjp) d’un nombre qde composantes arbitraires. On obtient une famille de vecteursevj = (vj1, . . . , vjp, ∗, . . . , ∗) ∈ Kp+q, j = 1, . . . , r,

où les étoiles désignent des scalaires qu’il n’est pas utile d’expliciter. Si certains vecteurs parmiles v1, . . . , vr constituent une famille libre dans Kp, alors les vecteurs correspondants dans Kp+q

forment aussi une famille libre. En effet, une relation de dépendance linéaire sur les vecteursétendus dans Kp+q induit automatiquement une relation sur les vecteurs correspondants dansKp. Cela prouve que rg(v1, . . . , vr) 6 rg(ev1, . . . , evr).Règle .. Soit A une matrice.1) Pour toute sous-matrice B de A on a rg(B) 6 rg(A).2) Notons r = rg(A). Alors A possède une sous-matrice inversible de type r × r. Aucune sous-matrice

carrée d’ordre plus grand que r n’est inversible.

Preuve.1) SoitB une sous-matrice deA et notons p = rg(B). Alors, parmi les lignes deB, il existe p lignes

v1, . . . , vp qui sont linéairement indépendantes. En complétant ces lignes par les composantessupprimées de A on obtient p lignes de A linéairement indépendantes. Donc p 6 rg(A).

2) Soit A ∈Mmn(K) et notons r = rg(A). Notons F le sous-espace vectoriel de Kn engendré parles lignes deA. D’après la proposition .. on obtient une base de F en supprimant des lignesbien choisies de A. Notons B la matrice r × n ainsi obtenue. On a rg(B) = r. En supprimantdes colonnes bien choisies de B on obtient une matrice carrée C d’ordre r et de rang r, doncinversible. La deuxième affirmation est une conséquence du premier point.

Exemple ..

La matrice

∗ ∗ ∗ ∗2 3 ∗ ∗1 1 ∗ ∗

est de rang supérieur ou égal à 2.

Tests

.. Est-ce que GL(n,K) est un sous-groupe de Mn(K) ?

.. À l’aide de blocs, construire un morphisme de groupesinjectif de GL(n,K) × GL(m,K) dans GL(n+ m,K).

.. Soit A ∈ Mmn(K) et B,B′ dans Mnm(K) telles queAB = Im et B′A = In . Peut-on en déduire que B = B′ ?

Matrice transposée

Les considérations précédentes sur le rang d’une matrice ont fait apparaître que des raisonne-ments peuvent se faire aussi bien sur les lignes que sur les colonnes. Dans cette partie, nous allonsformaliser cette symétrie entre lignes et colonnes.

Définition ..

Soit A = (aℓk) ∈ Mmn(K). La matrice transposée de A est la matrice tA de Mnm(K) dont le coefficient d’indice(ℓ, k) est akℓ.

La transposition d’une matrice intervertit les rôles des colonnes et des lignes.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Exemple ..

Si A =

1 2 34 5 6

, alors tA =

1 42 53 6

!.

Règle .. Soit A ∈Mmn(K) et B ∈Mnp(K).1) La transposition est involutive : t(tA) = A.2) La transposition conserve le rang : rg(tA) = rg(A).3) La transposition intervertit l’ordre des facteurs dans un produit : t(AB) =t BtA.4) Si A est inversible, alors tA l’est aussi et (tA)−1 =t (A−1).

Nous pouvons donc ôter les parenthèses et écrire sans ambiguïté tA−1.

Preuve.1) Cela résulte de la définition.2) D’après la proposition .. l’espace engendré par les lignes a la même dimension que l’espace

engendré par les colonnes.3) Notons A = (aℓk) et B = (bkj). Considérons le coefficient d’indice (j, ℓ) de t(AB), c’est-à-dire

le coefficient cℓj de AB.

cℓj =nX

k=1

aℓkbkj = (b1j , . . . , bnj)

aℓ1...aℓn

Ǒ.

Donc le coefficient d’indice (j, ℓ) de t(AB) est le produit de la j-ième ligne de tB par la ℓ-ièmecolonne de tA, ce qu’il fallait démontrer.

4) Calculons : t(A−1)(tA) =t (AA−1) =t In = In . Ainsi la matrice t(A−1) est l’inverse à gauche detA et donc l’inverse de A (voir la proposition ..).

Tests

..

a. Matrice symétrique : trouver une matrice A telle que tA = A.

b. Matrice antisymétrique : trouver une matrice A telle quetA = −A.

.. Vrai ou faux ?

a. Toute combinaison linéaire de matrices inversibles est aussiinversible.

b. Si A est inversible, alors −A l’est aussi.

c. Si A,B dans M3(K) sont de rang 2, alors rg(AB) > 2.

.. La méthode du pivot de Gauss

La méthode du pivot ou le procédé d’élimination de Gauss est un algorithme qui permet de

⋄ trouver le rang d’une matrice ou d’une famille finie de vecteurs de Kn,

⋄ déterminer une base d’un sous-espace vectoriel de Kn,

⋄ résoudre les systèmes linéaires,

⋄ calculer l’inverse d’une matrice.

... L’algorithme du pivot

Soit A = (aℓk) une matrice m× n. Notons L1, . . . , Lm ses lignes et C1, . . . , Cn ses colonnes,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com La méthode du pivot de Gauss

A =

a11 . . . a1n...

...am1 . . . amn

Ǒ= (C1, . . . , Cn) =

L1

...Lm

Ǒ.

Nous allons nous servir de six types d’opérations élémentaires.

Opérations élémentaires sur les lignes :échange de deux lignes : Lℓ ←→ Lj , où ℓ 6= j ;multiplication par un scalaire non nul : Lℓ 7→ λLℓ , où λ ∈ K∗ ;addition d’un multiple d’une autre ligne : Lℓ 7→ Lℓ + µLj , où ℓ 6= j, µ ∈ K.

Opérations élémentaires sur les colonnes :échange de deux colonnes : Ck ←→ Cp , où k 6= p ;multiplication par un scalaire non nul : Ck 7→ λCk , où λ ∈ K∗ ;addition d’un multiple d’une autre colonne : Ck 7→ Ck + µCp , où k 6= p, µ ∈ K.

Proposition ..1) Les opérations élémentaires sur les lignes d’une matrice ne changent pas le sous-espace vectoriel

engendré par ses lignes.2) Les opérations élémentaires sur les colonnes d’une matrice ne changent pas le sous-espace vectoriel

engendré par ses colonnes.3) Les opérations élémentaires conservent le rang de la matrice.

Preuve.1) Il est évident qu’une permutation des lignes ou la multiplication d’une ligne par un scalairenon nul laisse vect(L1, . . . , Lm) inchangé. Pour l’addition d’un multiple d’une autre ligne, c’estune conséquence du lemme ...2) La démonstration est analogue.3) C’est une conséquence des points précédents et du fait que le rang des lignes est égal au rangdes colonnes (voir la proposition ..).

L’idée de la méthode du pivot est d’arriver, par une succession finie d’opérations élémentairessur les lignes, à une « matrice échelonnée » dont le rang est manifeste.1) Installation d’un pivotOn se ramène, par une éventuelle permutation des lignes, au cas où a11 6= 0. (Cela fonctionneseulement si la première colonne est non nulle ; sinon on passe directement à la colonne suivante.)On multiplie alors la première ligne par 1

a11pour obtenir une matrice de la forme

1 ∗ . . . ∗a21 a22 . . . a2n...

......

am1 am2 . . . amn

.

On appelle le nombre 1 en haut à gauche le pivot.2) Nettoyage en dessous du pivotPar l’opération élémentaire L2 7→ L2 − a21L1 , nous obtenons

1 ∗ . . . ∗0 ∗ . . . ∗a31 a32 . . . a3n...

......

am1 am2 . . . amn

.

Par des opérations élémentaires du même type, le pivot « nettoie » aussi tous les autres coefficientsde la colonne. Nous obtenons la matrice

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel1 ∗ · · · ∗0... A′

0

où le bloc A′ est de format (m− 1)× (n− 1).

Suite de l’algorithmeOn applique au bloc A′ les deux étapes que nous venons de décrire : installation d’un pivot, puis« nettoyage » en dessous. À l’intérieur du bloc A′ on obtient un nouveau bloc A′′ et on recom-mence. . .Fin de l’algorithmeL’algorithme s’arrête lorsque le bloc obtenu est nul ou vide, c’est-à-dire quand on ne trouve plusde pivot. Le résultat est une matrice eA dite en « escalier » ou « échelonnée »,eA =

0BBBBBB 1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗1 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

1 ∗ ∗ ∗ ∗ ∗ ∗1 ∗ ∗ ∗

1 ∗ ∗0 0 0

1CCCCCCA . (.)

La matrice ci-dessus est un exemple avec cinq pivots. Plus généralement, on obtient une matricequi peut finir avec une ligne non nulle ou avec plusieurs lignes nulles, ou encore commenceravec des colonnes nulles (si les premières colonnes de A sont nulles). La hauteur des « marches »de l’escalier est toujours d’une unité tandis que la largeur des « marches » peut être plus grandelorsqu’on arrive à un bloc dont la première colonne est nulle.Notons eA =

eaℓk la matrice échelonnée. Il existe une suite finie 1 6 k1 < k2 < . . . < kr 6 n, où rest le nombre de pivots, telle que8<:eaℓkℓ

= 1 si ℓ = 1, . . . , r « les pivots »eaℓk = 0 si ℓ = 1, . . . , r et k < kℓ « nul à gauche des pivots »eaℓk = 0 si ℓ > r « nul sous la ligne du dernier pivot ».(.)

Par exemple, dans (.), on a r = 5 et (k1, . . . , k5) = (1, 2, 4, 7, 8). Seules la première et la troisième« marche » sont de largeur 1. Il est inutile d’apprendre par cœur les formules (.), mais il estimportant de comprendre la forme échelonnée et de savoir mettre une matrice sous cette forme.

Exemple ..Ici on permute d’abord deux lignes pour placer le premier pivot en haut à gauche et on simplifie la troi-

sième ligne (c’est un bon réflexe) :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com La méthode du pivot de Gauss

A =

0 0 1 1 −1 4

1 − 3 1 − 1 − 2 0

− 8 24 − 4 16 4 8

− 1 3 0 − 1 7 10

←−←−| × 1

41 −3 1 −1 −2 0

0 0 1 1 − 1 4

− 2 6 − 1 4 1 2

− 1 3 0 − 1 7 10

←−

×2

+

←−−−−−+1 −3 1 −1 −2 0

0 0 1 1 − 1 4

0 0 1 2 − 3 2

0 0 1 − 2 5 10

←−

×(−1)

+

←−−−−−−−

×(−1)

+1 −3 1 −1 −2 0

0 0 1 1 − 1 4

0 0 0 1 − 2 − 2

0 0 0 − 3 6 6

←−

×3

+eA =

1 −3 1 −1 −2 0

0 0 1 1 − 1 4

0 0 0 1 − 2 − 2

0 0 0 0 0 0

.

Forme échelonnée réduiteOn peut continuer et « nettoyer » aussi au-dessus de chaque pivot. Par exemple, pour la matricede (.), on trouve 0BBBBBB 1 0 ∗ 0 ∗ ∗ 0 0 ∗ ∗

1 ∗ 0 ∗ ∗ 0 0 ∗ ∗1 ∗ ∗ 0 0 ∗ ∗

1 0 ∗ ∗1 ∗ ∗

0 0

1CCCCCCA .

Tests

.. Lorsqu’on transforme une matrice échelonnée en matriceéchelonnée réduite, commence-t-on plutôt en haut à gauche ou enbas à droite ?

.. Donner la forme échelonnée réduite de1 2 7 00 1 2 60 1 2 71 3 9 6

.

Calcul du rang

Jusqu’à présent nous n’avons fait appel qu’à des opérations élémentaires sur les lignes, mais avecdes opérations élémentaires sur les colonnes, nous pouvons aller encore plus loin : d’abord « net-toyer » à droite de chaque pivot ; puis, par des permutations, obtenir une matrice échelonnée donttoutes les « marches » sont de largeur 1 :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel0BBBBBB 1 0 0 0 0 0 0 0 0 01 0 0 0 0 0 0 0 0

1 0 0 0 0 0 01 0 0 0

1 0 00 0 0

1CCCCCCA ;

0BBBBBB 1 0 . . . 01 0 . . . 0

1 0 . . . 01 0 . . . 0

1 0 . . . 00 0 0 0 0 0 . . . 0

1CCCCCCA .

Plus généralement, nous obtenons une matrice de la forme

Ir 0r,n−r

0m−r,r 0m−r,n−r

, où 0p,q

désigne la matrice nulle de type p × q, et où r est le nombre de pivots. Il est immédiat que cettematrice est de rang r. Or elle est obtenue à partir de A par des opérations élémentaires et celles-cilaissent le rang invariant. Conclusion : le rang de A est égal au nombre de pivots.

Exemple ..La matrice A de l’exemple .. est de rang 3 car la matrice échelonnée possède trois pivots. Les colonnesde A engendrent un sous-espace vectoriel de dimension 3 de K4, et ses lignes un sous-espace vectoriel dedimension 3 de K6.

Déterminer une base de l’espace engendré par les lignes ou par les colonnes

Revenons à la matrice échelonnée eA. Notons F le sous-espace vectoriel engendré par les lignes deA. On a r = rg(A) = dim(F ) = dim(G). Comme eA est obtenue à partir de A par des opérationsélémentaires sur les lignes, l’espace engendré par les lignes de eA coïncide avec F . Les m− r der-nières lignes de eA étant nulles, l’espace F est engendré par les premières r lignes de eA et donc ceslignes forment une base de F .Pour déterminer une base de l’espaceG engendré par les colonnes deA on pourrait refaire l’algo-rithme de Gauss sur la matrice transposée tA, mais ce n’est pas la peine. En effet, les colonnes deA qui correspondent aux colonnes pivots de eA forment une base deG. Plus précisément : si les pi-vots eA sont placés en (1, k1), . . . , (r, kr), alors la sous-matrice constituée des colonnes Ck1 , . . . , Ckr

de A est de rang r et donc ces colonnes forment bien une base de G.

Exemple ..Revenons à l’exemple ... Le sous-espace vectoriel de K6 engendré par les lignes de A possède la basesuivante,

(1,−3, 1,−1,−2, 0) , (0, 0, 1, 1,−1, 4) , (0, 0, 0, 1,−2,−2).

Le sous-espace vectoriel de K4 engendré par six colonnes de A possède la base suivante,(0, 1,−8,−1) , (1, 1,−4, 0) , (1,−1, 16,−1)

.

Méthode .. Méthode du pivot de Gauss

Soit A ∈Mmn(K) une matrice.1) La méthode du pivot de Gauss est un algorithme qui, par des opérations élémentaires sur les lignes,

transforme A en une matrice échelonnée eA.2) Le rang de A est égal au nombre r de pivots de eA.3) Les lignes non nulles de eA forment une base de l’espace engendré par les lignes de A.4) Une base de l’espace engendré par les colonnes de A est formée par les colonnes de A associées aux

pivots de eA.

Nous disposons maintenant d’une méthode efficace pour calculer le rang d’une famille de vec-teurs de Kn et pour déterminer une base de l’espace engendré par cette famille : il suffit d’écrirela famille en forme de vecteurs lignes d’une matrice et d’exécuter l’algorithme de Gauss. Remar-quons enfin qu’on peut prendre des pivots différents de 1. Nous avons toujours choisi 1 poursimplifier les notations, mais évidemment tout nombre non-nul peut servir de pivot.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Résolution des systèmes linéaires

Tests

.. Si eA =

1 2 3 00 1 1 60 0 0 10 0 0 0

est une matrice échelonnée de

A =

1 2 3 00 1 1 60 1 1 71 3 4 6

, en déduire une base de l’espace F (resp. G)

engendré par les lignes (resp. colonnes) de A.

.. Déterminer les scalaires a, b, c ∈ K tels que la familleF = ((1, 0, 0), (1, 2, 3), (a, b, c)) est une base de K3.

.. Les matrices

0 11 1

,

1 01 1

,

1 10 1

,

1 11 0

constituent-elles une base de M2(K) ?

.. Résolution des systèmes linéaires

Forts de notre algorithme, revenons sur l’étude des systèmes linéaires. L’algorithme du pivotdonne une méthode systématique et efficace pour les résoudre.Commençons par reformuler le problème dans le langage des matrices. Le système linéaire8>><>>: a11x1 + a12x2 + · · · + a1nxn = y1

a21x1 + a22x2 + · · · + a2nxn = y2...

am1x1 + am2x2 + · · · + amnxn = ym

ou

a11 a12 . . . a1na21 a22 . . . a2n...

......

am1 am2 . . . amn

x1x2...xn

=

y1y2...ym

s’écrit de manière plus concise sous la forme Ax = y où A = (aℓk) ∈ Mmn(K) et y ∈ Km.L’ensemble de solutions du système est la partie de Kn constituée de tous les x ∈ Kn qui vérifientl’équation Ax = y.

Exemple ..(Système inversible 2× 2)

Le système§ax1 + bx2 = y1cx1 + dx2 = y2

s’écrit Ax = y avec la matrice A = ( a bc d ). Si le déterminant ad − bc est non

nul, alors A est inversible et on peut multiplier l’équation Ax = y à gauche par la matrice A−1 ; on trouvex = A−1y, c’est-à-dire que le système admet une unique solution donnée par

x1

x2

=

a bc d

−1 y1y2

=

1

ad− bc

d −b−c a

y1y2

=

1

ad− bc

dy1 − by2ay2 − cy1

.

On peut résoudre tout système n× n inversible dès qu’on connaît l’inverse de la matrice.

Revenons aux systèmes m× n. Puisque le système Ax = y est entièrement déterminé par la ma-trice (A | y) ∈ Mm,n+1(K), nous identifions les deux points de vue. Les opérations élémentairessur les lignes de (A | y) correspondent aux transformations suivantes sur le système : permu-ter deux équations ; multiplier une équation par un nombre non nul ; ajouter à une équation lemultiple d’une autre. Comme toute solution du système initial est encore solution du systèmetransformé, l’ensemble des solutions ne peut qu’augmenter après chaque opération élémentaire.Or ces opérations sont réversibles : après chaque transformation, il est possible de revenir au sys-tème initial par une transformation du même type. Il en résulte que l’ensemble des solutions resteinchangé.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Deux systèmes ayant même ensemble de solutions sont appelés équivalents. On vient de montrerl’énoncé suivant.

Règle .. Si on transforme (A | y) en ( eA | ey) par des opérations élémentaires sur les lignes, alors cesdeux systèmes sont équivalents.

Méthode .. Résoudre un système linéaire

1) Par la méthode du pivot, on transforme (A | y) en ( eA | ey) où eA est échelonnée.2) On obtient ainsi un système ( eA | ey) équivalent au système initial, par exemple

( eA | ey) = 1 ∗ ∗ ∗ ∗ ∗ ∗ · · · ∗ ∗1 ∗ ∗ ∗ ∗ ∗ · · · ∗ ∗

1 ∗ · · · ∗ ∗...∗

.

3) On résout le système, en partant du bas et en isolant les inconnues qui correspondent aux pivots.4) Il se peut que le système n’ait pas de solution ; si par exemple dans le système ci-dessus la dernière

composante de ey vaut 1, on a l’équation impossible 0 = 1.

Exemple ..Considérons le système à cinq inconnues8><>: x3 + x4 − x5 = 4

x1 − 3x2 + x3 − x4 − 2x5 = 0−8x1 + 24x2 − 4x3 + 16x4 + 4x5 = 8−x1 + 3x2 − x4 + 7x5 = 10.

(.)

La matrice du système est

(A | y) =

0 0 1 1 −1 41 −3 1 −1 −2 0−8 24 −4 16 4 8−1 3 0 −1 7 10

Ǒ.

On a déjà vu (voir l’exemple ..) qu’elle se convertit par la méthode du pivot en la matrice

( eA | ey) =1 −3 1 −1 −2 00 0 1 1 −1 40 0 0 1 −2 −20 0 0 0 0 0

Ǒ.

La dernière ligne du système ( eA | ey) se lit 0 = 0, donc ne présente pas d’obstacle. On peut résoudre :(x1 − 3x2 + x3 − x4 − 2x5 = 0

x3 + x4 − x5 = 4x4 − 2x5 = −2

⇐⇒(x4 = −2 + 2x5

x3 = 4 + x5 − x4 = 6− x5

x1 = 3x2 − x3 + x4 + 2x5 = −8 + 3x2 + 5x5.

Par conséquent, la solution générale du système (.) est de la formex1

x2

x3

x4

x5

=

−8 + 3x2 + 5x5

x2

6− x5

−2 + 2x5

x5

=

−806−20

+ x2

31000

+ x5

50−121

où x2 et x5 sont arbitraires dans K.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Résolution des systèmes linéaires

Remarque.. Peut-on agir sur les colonnes ?En principe oui, mais il faut prendre en compte le fait que les opérations sur les colonnes induisentdes changements sur les variables inconnues. Par exemple, permuter les deux premières colonnesrevient à échanger x1 et x2 ; or changer de nom ne simplifie pas les calculs.

Existence d’une solutionComme nous l’avons déjà remarqué, un système linéaire ne possède pas toujours une solution ;si le système contient la ligne 0 = 1, alors son ensemble de solutions est vide. Dans ce qui suitA ∈ Mmn(K) est une matrice de rang r et y un vecteur dans Km. Par la méthode du pivot deGauss, le système Ax = y prend la forme eAx = ey où eA est une matrice échelonnée avec r pivots

et dont les dernières m− r lignes sont nulles, ( eA | ey) = 0BBBBBBBB ey1B

...eyreyr+1

0...eym

1CCCCCCCCA .

Proposition .. Avec les notations précédentes, les quatre conditions suivantes sont équivalentes :1) Le système Ax = y possède une solution ;2) eyr+1 = · · · = eym = 0 (ces équations s’appellent « conditions de compatibilité ») ;3) rg(A | y) = rg(A).4) Le vecteur y est combinaison linéaire des colonnes de la matrice A.

Preuve.1)⇒ 2) Les systèmes (A | y) et ( eA | ey) sont équivalents. Si le système (A | y) possède une solution,alors ( eA | ey) également ; en la remplaçant dans les dernières lignes, dont le membre gauche estnul, on trouve eyℓ = 0 pour tout ℓ > r.2)⇒ 3) Supposons que eyr+1 = · · · = eym = 0. Posons r′ = rg(A | y). On a r′ = rg( eA | ey) =

rg

B

ey1

...eyr

!car on passe de (A | y) à ( eA | ey) par des opérations élémentaires et car le calcul du

rang ne tient pas compte de lignes nulles. Puisque la matrice B possède r pivots on a r′ > r.

D’autre part, r′ 6 r car la matrice

B

ey1

...eyr

!est de type r × (n+ 1).

3)⇒ 4) Supposons que rg(A | y) = rg(A). Notons F (resp. F ′) le sous-espace vectoriel engendrépar les colonnes de la matrice A (resp. (A | y)). Alors F ⊂ F ′. Par hypothèse sur les rangs on adim(F ) = dim(F ′), donc F = F ′. Puisque y ∈ F ′ on en déduit que y est combinaison linéaire descolonnes de A.4)⇒ 1) Supposons que y est combinaison linéaire des colonnes de la matrice A = (aℓk). Alors ilexiste λ1, . . . , λn dans K tels que

y1...ym

Ǒ= λ1

a11...

am1

Ǒ+ λ2

a12...

am2

Ǒ+ · · ·+ λn

a1n...

amn

Ǒ.

Cela signifie que (λ1, . . . , λn) est solution du système Ax = y.

Exemple .. (Équation d’un plan donné par deux vecteurs)

Soit u = (0, 1, 1), v = (1, 0, 4) et w = (x, y, z) dans R3. Quelle est une condition nécessaire et suffi-sante pour que w ∈ vect(u, v) ?On note A la matrice dont les vecteurs colonnes sont u et v et on transforme le système (A |w) par laméthode du pivot.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

(A | w) =

0 1 x

1 0 y

1 4 z

←−←−←−−

×(−1)

+1 0 y

0 1 x

0 4 z − y

←−

×(−4)

+

eA | ew = 1 0 y

0 1 x

0 0 z − y − 4x

Le système admet une solution si, et seulement si, la relation de compatibilité 0 = z − y − 4x est satisfaite.Avec la proposition on conclut que

(x, y, z) ∈ vect((0, 1, 1), (1, 0, 4)) ⇐⇒ 4x+ y − z = 0.

Dans cet exemple on a obtenu l’équation d’un plan en partant de deux vecteurs qui engendrentce plan. Plus généralement on a la méthode suivante.

Méthode .. Comment passer des générateurs aux équations ?

Soit F un sous-espace vectoriel de Km engendré par des vecteurs v1, . . . , vn. On cherche un systèmelinéaire homogène dont F est l’espace de solutions. Pour cela, on considère la matrice A dont les vec-teurs colonnes sont v1, . . . , vn, puis on applique la méthode du pivot au système (A | y). Les conditionsde compatibilité constituent alors un système linéaire homogène d’inconnues y1, . . . , ym dont F estl’espace de solutions.

Stabilité numérique : quel pivot choisir ?L’algorithme de Gauss ne donne pas une manière unique de procéder car on a souvent le choixentre plusieurs pivots. On pourrait fixer l’algorithme en prescrivant la recherche du premier pi-vot dans la première colonne. Mais en pratique, il est judicieux de se souvenir que ce choix estarbitraire et que nous pouvons démarrer le processus dans n’importe quelle colonne. En analysenumérique, on étudie la façon de faire ces choix pour éviter d’accumuler des erreurs d’arrondi.C’est une théorie qui peut devenir très complexe quand il s’agit de traiter des systèmes de plu-sieurs milliers d’équations. Nous en montrons l’enjeu sur un exemple très simple.Prenons un cas extrême et supposons que nous avons une calculatrice qui arrondit toujours àdeux chiffres significatifs : elle ne distingue pas entre les nombres 0, 0234 et 0, 0229 par exemplecar elle les représente tous les deux par l’expression 2, 3× 10−2. Considérons le système

0, 005 11 1

x1x2

=

0, 51

.

Ce système a pour solution x1 ≈ 0, 5025 et x2 ≈ 0, 4975, ce qui dans notre machine serait arrondià x1 ≈ x2 ≈ 5, 0× 10−1.

⋄ Par la méthode de Gauss, avec le pivot 0, 005, le système est équivalent à0, 005 10 −199

x1x2

=

0, 5−99

.

Or notre machine ne reconnaît pas le nombre à trois chiffres 199, qu’elle arrondit donc à 2, 0×102.Ainsi, pour elle, le système s’écrit

0, 005 10 −200

x1x2

=

0, 5−99

.

Ce système a pour solution exacte x1 = 1 et x2 = 0, 495, ce que la machine arrondit à x1 = 1 etx2 ≈ 5, 0× 10−1, résultat loin de ce qu’on veut.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices particulières

⋄ Voyons si le choix d’un autre pivot produit un meilleur résultat. Choisissons dans le systèmeinitial le pivot 1 en bas à gauche. Nous obtenons

0 0, 9951 1

x1x2

=

0, 4951

,

ce que la machine arrondit à 0 11 1

x1x2

=

0, 51

.

La solution exacte de ce système est x1 = x2 = 0, 5. On constate donc que pour des raisonsd’arrondi, il valait mieux prendre 1 comme pivot plutôt que 0, 005.

.. Matrices particulières

Nous avons vu que l’ensemble Mn(K) des matrices carrées est muni naturellement d’une struc-ture d’anneau. Cet anneau est d’autant plus extraordinaire qu’il est non commutatif et qu’il per-met de construire beaucoup d’autres exemples d’anneaux non commutatifs intéressants en consi-dérant certaines parties (sous-anneaux) de Mn(K).D’autre part, nous avons également vu que Mn(K) contient un groupe remarquable, le groupelinéaire GL(n,K), lui aussi non commutatif. Ici encore, ce groupe permet de construire explicite-ment beaucoup d’autres groupes intéressants, en considérant certaines parties (sous-groupes) dugroupe linéaire. Il s’agit d’ailleurs d’une question mathématique à part entière, et encore actuelle(la théorie des représentations), que d’étudier de quelles façons un groupe donné peut se voircomme un sous-groupe de GL(n,K).

... Matrices élémentaires et inversion d’une matrice

La matrice échelonnée réduite d’une matrice inversible est la matrice identité. Cette idée est àla base de deux procédés : trouver une famille de générateurs du groupe linéaire et obtenir unalgorithme pour inverser une matrice.

Définition ..

Soit (ℓ, k) ∈ J1, nK2, ℓ 6= k, λ ∈ K∗ et µ ∈ K. Les matrices n× n suivantes1) Uℓk, qui se déduit de la matrice identité en permutant la ℓième et la kième ligne,2) Uℓ[λ], qui se déduit de la matrice identité en substituant au ℓième chiffre 1 de la diagonale le nombre λ, et3) Uℓk[µ], qui se déduit de la matrice identité en substituant au coefficient nul d’indice (ℓ, k) le nombre µ,sont appelées matrices élémentaires d’ordre n.

Les schémas suivants représentent les matrices élémentaires. Les pointillés sur la diagonale sontdes 1. Comme d’habitude, il n’y a que des zéros dans les espaces vides.

Uℓk =

0BBBBBBBBBBk↓

ℓ↓

1. . .

k→ 0 1. . .

ℓ→ 1 0. . .

1

1CCCCCCCCCCA ; Uℓ[λ] =

0BBBBBBBBBBℓ↓

1. . .

. . .. . .

ℓ→ λ. . .

1

1CCCCCCCCCCA ;

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Uℓk[µ] =

0BBBBBBBBBBk↓

1. . .

1. . .

ℓ→ µ 1. . .

1

1CCCCCCCCCCA.Tests

.. Écrire les matrices U4,1 , U2[2] et U1,3[π] de type 4 × 4.

.. Que penser de ces identités où Eℓk désignent les matricesde la base canonique de Mn(K) ?

Uℓ[1] = In , Uℓk[µ] = Ukℓ[µ] , Uℓ[1] = Uk[1] ,Uℓk = Ukℓ , Uℓk[0] = In ,Uℓk = In − Eℓℓ − Ekk + Eℓk + Ekℓ ,Uℓ[λ] = In + (λ − 1)Eℓℓ , Uℓk[µ] = In + µEℓk .

Soit U une matrice élémentaire d’ordre n. Considérons les multiplications à gauche et à droite parU .

Mnm(K)→ Mnm(K), A 7→ UA,Mmn(K)→ Mmn(K), A 7→ AU.

Il existe un « dictionnaire » entre ces applications et leurs effets sur la matriceA. Plus précisément,multiplier A à gauche par une matrice élémentaire se traduit par une opération élémentaire surles lignes L1, . . . , Lm de A ; multiplier A à droite par une matrice élémentaire se traduit par uneopération élémentaire sur les colonnes C1, . . . , Cn de A :

Matrice élémen-taire U

A 7→ UA agit sur leslignes de A

A 7→ AU agit sur les co-lonnes de A

Uℓk Lℓ ←→ Lk Cℓ ←→ Ck

Uℓ[λ] Lℓ 7→ λLℓ Cℓ 7→ λCℓ

Uℓk[µ] Lℓ 7→ Lℓ + µLk Ck 7→ Ck + µCℓ

Par exemple :

Opération sur les lignes :

1

1

2 1

1

2 2

1 1

3 1

2 0

←−

×2

+

=

2 2

1 1

7 5

2 0

Opération sur les colonnes :

?y ×2+

2 1 3 2

2 1 1 0

1

1

2 1

1

=

8 1 3 2

4 1 1 0

En particulier on trouve U2

ℓk = Uℓ[λ]Uℓ[λ−1] = Uℓk[µ]Uℓk[−µ] = In.Donc les matrices élémentaires

sont dans GL(n,K), et leurs inverses sont encore des matrices élémentaires :

(Uℓk)−1 = Uℓk, (Uℓ[λ])

−1 = Uℓ[λ−1], (Uℓk[µ])

−1 = Uℓk[−µ].

Proposition .. Les matrices élémentaires engendrent le groupe GL(n,K). Autrement dit, toutematriceA ∈ GL(n,K) peut s’écrire sous la forme d’un produit d’un nombre fini de matrices élémentaires.

Preuve. Soit A ∈ GL(n,K). Comme rg(A) = n, la forme échelonnée réduite de A possède npivots, elle est donc la matrice identité In. Autrement dit, on peut transformer A en In par un

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices particulières

nombre fini d’opérations élémentaires sur les lignes. Soient U1, . . . , Um les matrices élémentairescorrespondant à ces opérations (dans l’ordre où elles sont effectuées). Alors Um · · ·U1A = In, d’oùA = (Um · · ·U1)

−1 = U−11 · · ·U−1

m . Ainsi A est un produit de matrices élémentaires.

Règle .. (Calcul de l’inverse d’une matrice)Soit A ∈ Mn(K). Si on transforme par des opérations élémentaires sur les lignes la matrice en blocs(A | In) en une matrice de la forme (In | B), alors B = A−1. Si au cours du procédé il s’avère qu’il n’estpas possible de transformer A en In, alors A n’est pas inversible.

Preuve. Si A est inversible, on a, en reprenant la situation de la preuve de la proposition pré-cédente, Um · · ·U1A = In ou encore Um · · ·U1 In = A−1. Donc les opérations élémentaires sur leslignes qui transforment A en In transforment pareillement, si elles sont effectuées dans le mêmeordre, la matrice In en A−1.Le procédé s’arrête en cours de processus exactement lorsque la matrice transformée contient unecolonne sans pivot. Dans ce cas, rg(A) < n et A n’est pas inversible.

Exemple ..

Inversons la matrice A =

1 0 12 1 12 1 0

. Nous avons successivement

(A | I3) =

1 0 1 1 0 0

2 1 1 0 1 0

2 1 0 0 0 1

←−

×(−2)

+

←−−−−−−−

×(−2)

+ | × (−1)1 0 1 1 0 0

0 1 − 1 − 2 1 0

0 − 1 2 2 0 − 1

←−+

1 0 1 1 0 0

0 1 − 1 − 2 1 0

0 0 1 0 1 − 1

←−+

←−−−−

×(−1)

+

(I3 | A−1) =

1 0 0 1 −1 1

0 1 0 − 2 2 − 1

0 0 1 0 1 − 1

Donc A−1 =

1 −1 1−2 2 −10 1 −1

. Le lecteur vérifiera ce résultat en le multipliant par A.

Une autre manière d’inverser A est de penser en termes de systèmes linéaires. Si A est inversible,alors le système Ax = y équivaut à x = A−1y. Il suffit donc de résoudre le système Ax = y,c’est-à-dire exprimer x en fonction de y, pour en déduire l’inverse de A.

Exemple ..Reprenons la matrice A de l’exemple précédent. Par la méthode du pivot de Gauss on résout le système1 0 12 1 12 1 0

x1x2x3

= y1

y2y3

et on trouve la solution, d’où l’inverse de A :

x1

x2

x3

!=

y1 − y2 + y3

2y2 − 2y1 − y3y2 − y3

!=

1 −1 1−2 2 −10 1 −1

!| z A−1

y1y2y3

!.

Il ne s’agit pas vraiment de deux méthodes différentes car, dans les deux cas, on applique le mêmealgorithme du pivot de Gauss ; seuls les « témoins » qui veillent à droite sont différents : une foisc’est la matrice identité, et l’autre fois c’est une simple colonne de variables. Á la page nousallons étudier une manière complètement différente de calculer l’inverse par des déterminants.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Tests

.. Inverser, si possible, la matrice A =

0 1 11 0 11 1 0

. .. Pour a, b, c dans K, inverser A =

1 0 0a 1 0b c 1

.

... Sous-groupes du groupe linéaire

Matrices triangulaires

L’intérêt principal des matrices triangulaires est qu’elles se comportent bien au regard de la ques-tion de l’inversibilité : il est facile de voir si une matrice triangulaire est inversible, et le cas échéantde l’inverser.

Définition ..

Soit A = (aℓk) une matrice carrée d’ordre n.1) La diagonale de A est le n-uplet (a11, . . . , ann).2) A est une matrice diagonale si tous ses coefficients en dehors de la diagonale sont nuls.3) A est triangulaire supérieure si tous ses coefficients en dessous de la diagonale sont nuls, c’est-à-dire si aℓk = 0

dès que ℓ > k.

A =

a11 a12 . . . a1n

a22 . . . a2n. . .

...ann

4) De manière analogue, A est triangulaire inférieure si aℓk = 0 dès que ℓ < k , ou encore si la transposée tA est

triangulaire supérieure.

Proposition .. L’ensemble des matrices triangulaires supérieures est un sous-anneau de Mn(K).En particulier, le produit de deux matrices triangulaires supérieures de Mn(K) est encore une matricetriangulaire supérieure.

De même, les matrices triangulaires inférieures constituent un sous-anneau de Mn(K).Preuve. Il est évident que l’ensemble des matrices triangulaires supérieures est stable par addi-tion. Pour montrer la stabilité par la multiplication matricielle, soit A = (aℓj) et B = (bjk) deuxmatrices triangulaires supérieures d’ordre n. Notons C = (cℓk) le produit AB. Si ℓ > k, alors

cℓk =nX

j=1

aℓjbjk =Xj<ℓ

aℓjbjk +Xj>ℓ

aℓjbjk = 0,

car aℓj = 0 dès que j < ℓ et bjk = 0 dès que j > ℓ > k. Cela prouve que C est une matricetriangulaire supérieure.

Règle .. Une matrice triangulaire est inversible si, et seulement si, chaque élément de sa diagonaleest non nul.

Preuve. Soit A = (aℓk) ∈ Mn(K) une matrice triangulaire supérieure. Si tous les éléments surla diagonale de A sont non nuls, alors les pivots sont déjà installés et on a rg(A) = n. Donc Aest inversible d’après la proposition ... Réciproquement supposons qu’il existe k ∈ J1, nK telque akk = 0. Notons e1, . . . , en les vecteurs de la base canonique de Kn et C1, . . . , Cn les vecteurscolonnes de A. Alors C1, . . . , Ck sont liés car il sont dans l’espace vect(e1, . . . , ek−1) qui est dedimension k − 1. Donc A n’est pas inversible d’après la proposition ...

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices particulières

Au passage, notons que nous disposons déjà d’une méthode rapide pour inverser une matricetriangulaire : il suffit d’écrire le problème sous la forme d’un système et de le résoudre en partantdu bas si elle est triangulaire supérieure (et du haut si elle est triangulaire inférieure).

Proposition .. Notons T+ (resp. N+) la partie de GL(n,K) formée des matrices triangulairessupérieures dont chaque élément diagonal est non nul (resp. égal à 1).1) T+ et N+ sont des sous-groupes de GL(n,K).2) N+ est engendré par les matrices élémentaires de type Uℓk[µ] avec ℓ < k.3) T+ est engendré par les matrices élémentaires de type Uℓ[λ] et Uℓk[µ] avec ℓ < k.

Preuve. Pour montrer qu’une partie de GL(n,K) est un sous-groupe, il faut prouver qu’ellecontient la matrice identité et qu’elle est stable par multiplication et inversion. Évidemment In estdans T+ et N+. D’après la proposition .., nous savons déjà que le produit de deux matricestriangulaires supérieures est encore une matrice triangulaire supérieure ; de plus, un calcul immé-diat montre que la diagonale de ce produit est donnée par le produit terme à terme des diagonalesdes deux matrices multipliées. En particulier, cela prouve la stabilité par multiplication de T+ etde N+.SoitA ∈ N+. Par des opérations élémentaires sur les lignes, on transformeA en In. Puisqu’il s’agitde « nettoyer » dans A tout ce qui se trouve au-dessus de la diagonale, les seules matrices élémen-taires qui interviennent sont de type Uℓk[µ] avec ℓ < k. Donc In = Um · · ·U1A où U1, . . . , Um

sont des matrices de type Uℓk[µ] avec ℓ < k. Par conséquent A−1 = U−11 · · ·U−1

m . Rappelons que(Uℓk[µ])

−1 = Uℓk[−µ] et que c’est une matrice triangulaire supérieure si ℓ < k. Cela montre d’unepart le point 2) et d’autre part que A−1 est encore une matrice triangulaire supérieure car produitde telles matrices. Ainsi N+ est un sous-groupe de GL(n,K).Soit A ∈ T+. Alors, par des transformations élémentaires sur les lignes de type Uℓ[λ], on se ra-mène à une matrice dans N+ et on conclut avec le même raisonnement.

Remarque..Il existe des énoncés analogues pour T− et N− avec des matrices triangulaires inférieures. Pourles démontrer, il suffit de se ramener par transposition au cas des matrices triangulaires supérieu-res.

Définition ..

Une matrice A ∈ Mn(K) est nilpotente s’il existe un entier p > 1 tel que Ap = 0. Le plus petit entier p qui vérifiecette propriété est appelé l’ordre de nilpotence de A.

L’exemple typique d’une matrice nilpotente est une matrice triangulaire de diagonale nulle, parexemple

A =

0 ∗ . . . ∗

0. . .

.... . . ∗

0

∈Mn(K).

Le lecteur vérifiera que An = 0. En fait, toute matrice nilpotente A dans Mn(K) vérifie que An =0 ; autrement dit, l’ordre de nilpotence d’une matrice nilpotente n × n est majoré par n. Ce n’estpas une propriété évidente et nous la démontrerons dans le cours de deuxième année.

Tests

.. Montrer que la matrice suivante est nilpotente etdéterminer son ordre de nilpotence.

A =

−1 1 1−2 −4 −101 2 5

.. Que dire d’une matrice symétrique triangulaire ? Et d’unematrice antisymétrique triangulaire ?

.. Quelle est la dimension de l’espace des matrices n × n quisont triangulaires supérieures (resp. symétriques, resp.antisymétriques) ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Le groupe linéaire des matrices à coefficients entiers

Le produit de deux matrices carrées à coefficients dans Z est encore une matrice à coefficientsdans Z, mais il n’est pas vrai en général que l’inverse d’une matrice à coefficients entiers a sescoefficients dans Z. Notons que toute matrice d’ordre n à coefficients entiers envoie les vecteursde coordonnées entières, c’est-à-dire éléments de Zn, sur des vecteurs de coordonnées entières.Autrement dit, elle préserve le réseau Zn ⊂ Rn. Une matrice d’ordre n inversible sur l’anneau Zest une matrice carrée à coefficients entiers qui réalise une bijection sur ce réseau Zn.

Définition ..

On note GL(n,Z) le sous-groupe de toutes les matrices A dans GL(n,R) dont tous les coefficients et tous ceux deA−1 sont entiers.

Plus tard, dans le chapitre , nous verrons une autre caractérisation de GL(n,Z) (voir p.).

Exemple ..La matrice ( 2 3

1 1 ) est dans GL(2,Z) car elle et son inverse−1 3

1 −2

sont à coefficients entiers. En revanche,

la matrice ( 1 00 2 ) n’est pas dans GL(2,Z) car son inverse

1 00 1/2

n’est pas à coefficients entiers.

Le groupe des matrices de permutation

Proposition .. (Matrice de permutation)1) Pour toute permutation σ ∈ Sn , la matrice

Pσ = (δℓ,σ(k))16ℓ,k6n

est dans GL(n,Z). Une matrice de cette forme est appelée matrice de permutation. En particulier,si σ est la transposition qui échange k et ℓ, alors Pσ est la matrice élémentaire Ukℓ .

2) L’applicationP : Sn → GL(n,Z) , σ 7→ Pσ

est un morphisme injectif de groupes. Son image est un sous-groupe de GL(n,Z), isomorphe augroupe symétrique Sn . On l’appelle le groupe des matrices de permutation.

3) Multiplier une matrice A ∈ Mnm(K) à gauche par Pσ se traduit par une permutation des lignesL1, . . . , Ln de A selon la formule

Pσ A = Pσ

L1

L2

...Ln

=

Lσ−1(1)

Lσ−1(2)

...Lσ−1(n)

. (.)

Pour bien comprendre cette définition utilisant le symbole δ de Kronecker (voir p.??) regardonsd’abord ce qu’il y a dans la première colonne de Pσ : le seul coefficient non nul de la premièrecolonne vaut 1 et se trouve à la γ(1)-ième ligne. En général, le seul coefficient non nul de la k-ième colonne vaut 1 et se trouve à la γ(k)-ième ligne.

Remarque.. La formule (.) est trompeuseEn effet, Pσ permute bien les lignes de A suivant σ, dans le sens que la ℓ-ième ligne de A coïncideavec la σ(ℓ)ème ligne de PσA pour tout ℓ ∈ J1, nK.

Par exemple, pour la permutation σ = ( 1 2 3 44 1 3 2 ), on a

Pσ =

0 1 0 00 0 0 10 0 1 01 0 0 0

et

0 1 0 00 0 0 10 0 1 01 0 0 0

a ab bc cd d

=

b bd dc ca a

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices particulières

Preuve. Soit σ une permutation et soit A ∈Mnm(K). La ℓ-ième ligne du produit PσA est le produit dela ℓ-ième ligne de Pσ et de A. Or la ℓ-ième ligne de Pσ est le vecteur eσ−1(ℓ) de la base canoniquede Kn. Donc la ℓ-ième ligne de Pσ A est la ligne Lσ−1(ℓ) de A, ce qui démontre la propriété 3). Prenons maintenant le cas où A = Pτ , avec τ ∈ Sn . Alors, d’après ce que nous venons de voir,la ℓ-ième ligne de PσPτ est la σ−1(ℓ)-ième ligne de Pτ , donc c’est le vecteur eτ−1σ−1(ℓ) = e(στ)−1(ℓ).Ainsi

Pστ = PσPτ . (.)

En particulier, PσPσ−1 = Pσσ−1 = Pid = (δℓk) = In . Donc Pσ est inversible d’inverse(Pσ)

−1 = Pσ−1 , et Pσ et son inverse sont à coefficients entiers. Ainsi l’application P est bienun morphisme de groupes de Sn dans GL(n,Z). Comme la permutation identité est la seule ayant pour image la matrice identité, le noyau dumorphisme P est l’élément neutre de Sn, ce qui montre l’injectivité de P .

Remarque..Évidemment une matrice carrée est une matrice de permutation si, et seulement si, chaque co-lonne et chaque ligne contient exactement un seul coefficient non nul, égal à 1. Un calcul immédiatmontre alors que Pσ

tPσ = In.

Règle .. Pour tout σ ∈ Sn , on a (Pσ)−1 = Pσ−1 =t Pσ .

Preuve. Cela résulte des relations PσtPσ = In et Pσ Pσ′ = Pσσ′ pour toutes permutations σ, σ′

dans Sn .

Proposition .. Le groupe des matrices de permutation est engendré par les matrices élémentairesUkℓ.

Preuve. La matrice Ukl est la matrice qui correspond à la transposition de k et ℓ. Le résultat s’endéduit car nous avons vu dans la proposition ?? que toute permutation s’écrit comme produit detranspositions.

Tests

.. Déterminer l’inverse de A =

1

. ..

11

.

.. Comment se traduit la multiplication à droite par unematrice de permutation sur les colonnes de la matrice multipliée ?

.. Un étudiant calcule l’inverse d’une matrice. Soudain, il serend compte qu’il ne voulait pas inverser cette matrice mais celledont les deux premières lignes sont permutées. Doit-ilrecommencer du début ? Généraliser.

... La décomposition LR

Dans cette partie, nous allons montrer que toute matrice inversible se décompose en un produitde trois matrices, éléments de trois sous-groupes remarquables de GL(n,K) introduits plus haut.L’intérêt de cette décomposition vient de ce que les trois matrices obtenues sont plus faciles àinverser en général que la matrice d’origine.

Nous notons W ⊂ GL(n,K) le sous-groupe des matrices de permutation. Rappelons que N−

(resp. T+) est le groupe des matrices L (resp. R) de la forme

L =

1∗ 1.... . .

. . .

∗ . . . ∗ 1

, R =

r1 ∗ . . . ∗

r2. . .

.... . . ∗

rn

avec r1, . . . , rn dans K \ 0.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

La dénomination L (resp. R) vient de left ou links (resp. right ou rechts) et se réfère à la positionrelative des coefficients non nuls par rapport à la diagonale. En anglais, on parle aussi de décom-position LU (lower et upper).

Proposition .. (Décomposition LR)

1) Toute matrice A ∈ GL(n,K) se décompose en un produit de trois matrices de la forme

A = PLR, avec P ∈ W, L ∈ N− et R ∈ T+.

2) Si A possède une décomposition de la forme A = LR avec L ∈ N− et R ∈ T+ , alors L et R sontuniques.

Nous pouvons retenir cette proposition par l’écriture suggestive

GL(n,K) = W N− T+,

qui est une notation sibylline pour rappeler que l’application W × N− × T+ → GL(n,K),(P,L,R) 7→ PLR, est surjective. Mais attention : la notation GL(n,K) = WN−T+ est trom-peuse. Elle ne signifie pas que cette application est un morphisme de groupes, et encore moinsque GL(n,K) est isomorphe au produit des groupes W ×N− × T+.Preuve. 1) Soit A ∈ GL(n,K). Par l’algorithme de Gauss, sans normalisation des pivots, ontransforme A en une matrice R triangulaire supérieure inversible. Dans un premier temps sup-posons qu’on y arrive sans permuter de lignes. Pour le « nettoyage » de la colonne sous le ℓ-ièmepivot on utilise une matrice de la forme0BBBBBBBB

ℓ↓

1. . .

1

∗ . . ....

. . .

∗ 1

1CCCCCCCCA. (.)

On a donc MA = R où M est un produit de matrices de la forme (.). Par conséquent M ∈ N−,d’où la décomposition recherchée A = LR avec L =M−1.Si des permutations de lignes sont nécessaires, c’est-à-dire si certains pivots ne se trouvent passur la diagonale, alors il existe une matrice de permutation Q telle que la matrice QA se laissetraiter sans permutations de lignes. D’après ce qu’on vient de voir, on peut donc écrire QA = LRavec L ∈ N− et R ∈ T+, d’où A = PLR avec P := Q−1.2) Supposons que A = L1R1 = L2R2 avec Lj ∈ N− et Rj ∈ T+. Alors L−1

2 L1 = R2R−11

est dans N− ∩ T+. Or il est clair que cette intersection ne contient que la matrice identité. DoncL−12 L1 = R2R

−11 = In , ce qui implique que L1 = L2 et R1 = R2.

L’intérêt de la décomposition LR est le suivant. Pour résoudre le système Ax = y, on détermine ladécomposition A = PLR, puis on résout les systèmes faciles PLz = y et Rx = z par la méthoderemontée-descente. Mais pour trouver la décomposition LR on utilise la méthode du pivot, aveclaquelle on peut aussi résoudre le système initial ; par conséquent, passer par la décompositionLR devient intéressant pour traiter toute une famille de systèmes avec le même A, mais avec desy différents.

Exemple ..Déterminons la décomposition LR de la matrice ( a b

c d ) ∈ GL(n,K). D’après la règle .., nous savons quead− bc 6= 0. Ainsi a 6= 0 ou b 6= 0.

Considérons d’abord le cas a 6= 0. Alors nous nettoyons avec le pivot a.

. Évidemment « décomposition PLR » serait une appellation plus appropriée.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Matrices particulières1 0− c

a1

a bc d

=

a b0 ad−bc

a

.

D’où la décomposition a bc d

=

1 0ca1

a b0 ad−bc

a

. (.)

Considérons maintenant le cas c 6= 0. Alors nous permutons les deux lignes, puis nous nettoyons avec lepivot c.

0 11 0

a bc d

=

c da b

,

1 0− a

c1

c da b

=

c d0 bc−ad

c

.

D’où la décomposition a bc d

=

0 11 0

1 0ac1

c d0 bc−ad

c

. (.)

En général, la décomposition LR n’est pas unique : si dans l’exemple ci-dessus a et c sont tous lesdeux non nuls, les deux décompositions (.) et (.) sont valables.

Proposition .. Soit A = (aℓk) une matrice arbitraire dans GL(n,K). Les propriétés suivantessont équivalentes :1) La matrice A possède une décomposition de la forme A = LR avec L ∈ N− et R ∈ T+;2) Pour tout p ∈ J1, nK, le bloc Ap = (aℓk)16ℓ6p

16k6p

∈Mp(K) est de rang p.

Preuve.1)⇒ 2) Supposons que A = LR avec L ∈ N− et R ∈ T+ . Notons Lp le bloc p× p des p premièreslignes et colonnes tronquées de L et, de manière analogue, notons Rp le bloc correspondant pourR. Alors

Ap ∗∗ ∗

=

Lp 0∗ ∗

Rp ∗0 ∗

,

où les étoiles désignent des blocs de formats adaptés. Ainsi Ap = LpRp et, comme Lp et Rp sontde rang p, c’est-à-dire inversibles, la matrice Ap l’est aussi.Réciproquement, nous raisonnons par récurrence sur n pour montrer l’implication 2)⇒1). Le casn = 1 est immédiat. Soit n > 2 et supposons l’implication 2)⇒1) démontrée pour les matricesdans GL(n− 1,K). Soit A ∈ GL(n,K) telle que tous les blocs Ap, pour p = 1, . . . , n, sont de rangp. Par hypothèse, nous savons que L′An−1 = R′ où L′, R′ sont des matrices (n− 1)× (n− 1) de laforme

L′ =

1∗ 1.... . .

. . .

∗ . . . ∗ 1

, R′ =

r1 ∗ . . . ∗

r2. . .

.... . . ∗

rn−1

, avec r1 · · · rn−1 6= 0.

Nous obtenons par des calculs par blocsL′

1

a1n

An−1

...an−1,n

an1 . . . an,n−1 ann

=

∗R′ ...

∗∗ . . . ∗ ∗

.

Écrivons cette égalité sous la forme MA = S. Les éléments diagonaux de R′ étant non nuls, nouspouvons, par des opérations élémentaires sur les lignes sans permutations, transformer S en unematrice R ∈ T+. Il existe donc M ′ ∈ N− telle que M ′S = R. Ainsi M ′MA = R, soit encoreA = LR, où nous avons posé L = (M ′M)−1 ∈ N−, ce qui démontre la condition 1) pour lesmatrices de taille n.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Évidemment, ce critère est un résultat plutôt théorique car vérifier que tous les blocs Ap sont derang maximal prend plus de temps que d’appliquer l’algorithme de Gauss sur A.

Tests

.. Déterminer la décomposition LR de

1 1 10 2 11 1 4

. .. Déterminer la décomposition LR de

1 2 32 5 83 8 14

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

.. Exercices

Exercice ..

Pour tout a ∈ R, on note Ea l’ensemble de solutions du système suivant.(−x + 2y + z = 2ax + 3y − z = 35x − 8y − 9z = −9

Pour quels a ∈ R, Ea est-il vide ? contient un seul élément ? contient une infinité d’éléments ?

Exercice ..

Exhiber deux matrices A,B ∈M4(C) telles que rgA = rgB = 2 et AB = 0.

Exercice ..

Soit C l’ensemble des matrices réelles de la forme

a −bb a

.

. Montrer que C est un sous-espace vectoriel de M2(R). En donner une base.

. Montrer que C est un sous-anneau de M2(R) isomorphe au corps C.

. Calculer la puissance

cosα − sinαsinα cosα

k pour tout k ∈ Z.

Exercice ..

Le centre Z(A) d’un anneau A est l’ensemble des éléments qui commutent avec tous les éléments,

Z(A) = b ∈ A | ∀a ∈ A , ba = ab .

. Montrer que Z(A) est un sous-anneau commutatif de A . Dans quel cas a-t-on Z(A) = A ?

. Montrer que le centre de Mn(K) est formé des matrices homothétiques λIn , λ ∈ K .(Indication : s’aider des matrices de la base canonique.)

Exercice ..

Montrer que les matrices suivantes forment un sous-groupe deGL(2,Z) isomorphe au groupe symétriqueS3,

e =

1 00 1

a =

−1 10 1

b =

1 01 −1

c =

0 −1−1 0

d =

0 −11 −1

f =

−1 1−1 0

.

Remarque ..Nous savons déjà (voir la proposition ..) qu’on peut représenter S3 comme sous-groupe de GL(3,Z).L’exercice dit qu’on peut même le représenter dans le groupe plus petit GL(2,Z).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Exercice ..

SoitA ∈Mn(K) une matrice nilpotente. Montrer que In−A est inversible. (Indication : penser à la somme

A0 + A1 + A2 + · · ·+ Ak pour k grand.)

Exercice ..

Que pensez-vous de des affirmations suivantes ?

a. Une matrice diagonale est une matrice qui est à la fois triangulaire supérieure et inférieure.

b. Si A est inversible et symétrique, alors son inverse l’est aussi.

c. Le produit de deux matrices triangulaires inférieures est encore une matrice triangulaire inférieure.

d. La diagonale d’une matrice antisymétrique est forcément nulle.

e. Pour tout A ∈Mmn(K), la matrice tAA est symétrique.

f. Il n’y a pas de matrice nilpotente inversible.

g. La somme de deux matrices nilpotentes est nilpotente.

h. L’ensemble des matrices symétriques est un sous-espace vectoriel de Mn(K).

i. L’ensemble des matrices symétriques est un sous-anneau de Mn(K).

Indication :

Exercice ..

A checkerboard matrix is a matrixaℓk

such that aℓk = 0 if ℓ + k is odd. Let K be the set of checkerboardn× n matrices. Show that K is a subalgebra of Mn(K) and find its dimension.Indication :

Exercice ..

Let K be a field and f : Mn(K) −→ K a non-constant map such that f(AB) = f(A)f(B) for allA,B ∈Mn(K). Show that a matrice A is invertible if and only if f(A) 6= 0.Indication : Whether f is zero or not on a matrix does not depend on the specific matrix but only on its rank.

Exercice ..

Vous avez un troupeau de 101 vaches vérifiant l’hypothèse suivante : chaque fois que vous prenez 100vaches parmi elles il est possible de les séparer en deux parties de 50 vaches telle que les deux parties ontle même poids.Démontrez que toutes les 101 vaches ont le même poids.Indication :

Exercice ..

Soient A,B,C et D appartenant à Mn(R) et

M =

A B

C D

.

On suppose que A ∈ GLn(R). Etablir que

rg(M) = n si et seulement si D = CA−1B.

Indication : MultiplierM par

A−1 00 In

. La matrice obtenue est de même rang que M .

Puis effectuer des opérations de pivot par blocs.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Soit n > 1.

. Montrer que toute matrice de Mn(R) peut s’écrire comme la somme de deux matrices inversibles.

. En déduire vect(GLn(R)) = Mn(R).

Indication : Penser, par exemple, à des matrices triangulaires.

Exercice ..

Soient n > 1 et A ∈Mn(C) telle que

∀i ∈ J1, nK, |ai,i| >Xj 6=i

|ai,j |.

Montrer que A est inversible.Indication : On examine le noyau de A. Raisonner par l’absurde en supposant qu’il contient un vecteur non nul X .

Exercice ..

On dit qu’une matrice deMn,p(R) est stochastique si elle est à coefficients positifs et si la somme des élé-ments de chaque colonne vaut 1. Soient A ∈ Mn,p(R) et B ∈ Mp,q(R) deux matrices stochastiques. Mon-trer que AB est stochastique.Indication :

Exercice ..

Déterminer tous les automorphismes d’algèbre deMn(K).Indication : Il s’agit des applications M 7→ PMP−1 où P ∈ GLn(K).

Exercice ..

Soit p un entier naturel non nul, A ∈Mp(R) telle queA3 = 0 etA2 6= 0 (on dit queA est nilpotente d’indicetrois). La matrice identité de Mp(R) est notée I. Pour tout réel t, on pose

E(t) = I + tA+t2

2A2.

. Etablir que ∀t, s ∈ R, E(t)E(s) = E(s+ t).

. En déduire que, pour tout réel t et tout entier naturel n, (E(t))n = E(nt).

. Soit t ∈ R. Montrer que E(t) est inversible. Quel est son inverse ?

. Etablir que la famille (I, A,A2) est libre dans Mp(R).

. En déduire l’injectivité de l’application de R dans Mp(R) définie par E : t 7−→ E(t).

. Dans cette question p = 3 et

A =

0 1 10 0 10 0 0

!Expliciter la matrice E(t) sous la forme d’un tableau matriciel pour tout réel t.

Indication : On a E(t)−1 = E(−t).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Exercice ..

Calculer les puissances des matrices A,B,C et D suivantes :

.

1 2 30 1 20 0 1

!;

.a b0 a

;

.cos(θ) − sin(θ)sin(θ) cos(θ)

;

.1 −12 4

.

Indication : Décomposer astucieusement la matrice afin d’appliquer la formule du binôme au 1. Poser J =

0 10 0

et

appliquer la formule du binôme au 2. Raisonner par récurrence au 3. Rechercher un polynôme annulateur au 4.

Exercice ..

Soit

A =

0 0 0−2 1 −12 0 2

!.

. Calculer A3 − 3A2 + 2A.

. Quel est le reste de la division euclidienne de Xn par X3 − 3X2 + 2X pour n ∈ N∗ ?

. Calculer An pour n ∈ N∗.

. A est-elle inversible ?

Indication : On aB = X3 − 3X2 + 2X = X(X − 1)(X − 2).

Exercice ..

Soient n ∈ N∗ et M ∈Mn(C). Etablir que M 6∈ GLn(C) si et seulement si

∃P ∈ GLn(C), ∀λ ∈ C, P − λM ∈ GLn(C).

Indication : Si r = rg(M) < n alors la matrice M est équivalente à

Jr =

Or,n−r Ir

On−r,n−r On−r,r

...

Exercice ..

Soit n un entier supérieur ou égal à 2. On note On la matrice nulle de Mn(R) et on se donne A ∈Mn(R).

. Montrer qu’il existe un polynôme non nul P ∈ Rn2 [X] (c’est-à-dire de degré inférieur ou égal à n2) telque P (A) = On.

. On suppose P (0) 6= 0. Montrer que A est inversible et exprimerA−1 en fonction deA et des coefficientsde P .

. On suppose que 0 est racine d’ordre k de P : il existe alors un polynôme Q tel que Q(0) 6= 0 et P (X) =XkQ(X). Montrer que A est inversible si et seulement si Q(A) = On.

Indication : Diviser par P (0) 6= 0 dans P (A) = On...

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Réponses aux tests

.. Réponses aux tests

.. 0 31 4

.

.. dim(M2,3(K)) = 6.1 2 00 0 3

= E11 + 2E12 + 3E23.

.. On a

A =

−37

; B =

9 50 4

;

C = 32 et D =

4 8 125 10 156 12 18

.

.. m = n = p = q.

.. eℓA est la ℓ-ième ligne de A.Ae′k est la k-ième colonne de A.eℓAe′k est l’élément aℓk de la matrice A.

..

1 00 −1

ou

0 11 0

.

.. AEℓk est la matrice dont la k-ième colonne est la ℓ-ièmecolonne de A et toutes les autres colonnes sont nulles.EℓkB est la matrice dont la ℓ-ième ligne est la k-ième ligne deB et toutes les autres lignes sont nulles.EℓkEpq = δkpEℓq.

.. rg(In) = n.

.. 2 pour les deux matrices.

.. Non, il n’y a pas de contradiction. La probabilité de cetévénement est nulle lorsqu’on choisit les coefficients au hasarddans R. Or un professeur a plutôt tendance à choisir lescoefficients dans l’ensemble 0,±1, . . . ,±9 ! Les matricesqu’il peut ainsi obtenir forment un ensemble fini dans lequel lesmatrices de rang non maximal constituent une partie nonnégligeable.

.. Non, car Mn(K) n’est pas un groupe ! Pour n = 1 : legroupe multiplicatif R∗ n’est pas un sous-groupe de R, car cedernier n’est pas un groupe multiplicatif.

.. Pour (A,B) appartenant à GL(n,K) × GL(m,K), lamatrice

Φ(A,B) =

A

B

est dans GL(n + m,K). On vérifie facilement que l’application(A,B) 7→ Φ(A,B) définit le morphisme recherché.

.. Oui. D’après .., on a m = rg(AB) 6 rg A 6 n etn = rg(B′A) 6 rg A 6 m. Donc m = n et B (resp. B′) estl’inverse à droite (resp. à gauche) de A. D’après la proposition16.26 A est inversible et B = A−1 = B′.

..

1 2 32 4 53 5 6

;

0 −2 −32 0 −53 5 0

.

.. Faux, vrai, faux car contrexemple

A =

1 0 00 1 00 0 0

, B =

0 0 00 1 00 0 1

.

.. Les deux fonctionnent, mais il est préférable decommencer le « nettoyage » avec le pivot le plus bas carl’apparition des zéros dans les lignes au dessus facilitera lescalculs.

..

1 0 3 00 1 2 00 0 0 10 0 0 0

!

..

a. ((1, 2, 3, 0), (0, 1, 1, 6), (0, 0, 0, 1)).

b. ((1, 0, 0, 1), (2, 1, 1, 3), (0, 6, 7, 6)).

.. Une forme échelonnée de

1 0 01 2 3a b c

est

1 0 00 2 30 0 2c−3b

.

Donc F est une base si, et seulement si, 3b 6= 2c.

.. Oui. En identifiant M2(K) ligne après ligne avec K4,nous obtenons quatre 4-uplets qui forment la matrice

0 1 1 11 0 1 11 1 0 11 1 1 0

!.

Par la méthode du pivot, on montre facilement que son rang est4.

..

0 0 0 10 1 0 00 0 1 01 0 0 0

;

1 0 0 00 2 0 00 0 1 00 0 0 1

;

1 0 π 00 1 0 00 0 1 00 0 0 1

.

.. Toutes les identités sont vraies sauf la deuxième, quin’est vraie que pour µ = 0.

.. On a

A−1 =1

2

−1 1 11 −1 11 1 −1

.

..

On aboutit à

A−1

=

1 0 0−a 1 0

ac− b −c 1

.

.. Il suffit de calculer les puissances successives Ak de A.On a A2 6= 0 et A3 = 0. La matrice A est nilpotente, d’ordre denilpotence 3.

.. Toute matrice symétrique triangulaire est diagonale.Toute matrice antisymétrique triangulaire est nulle.

.. n2+n2 ; n2+n

2 ; n2−n2 .

.. A est une matrice de permutation. Donc A−1 =t A et,comme A est symétrique, A−1 = A.

.. Si C1, . . . , Cn sont les colonnes de A, alorsAPσ = (Cσ(1), . . . , Cσ(n)).

.. Non, il suffit d’inverser les deux premières colonnes del’inverse calculé. En général, si B = PσA, alorsB−1 = A−1(Pσ)

−1 = A−1Pσ−1 , donc si on permute leslignes de A, on permute de la même manière les colonnes del’inverse.

..

L =

1 0 00 1 01 0 1

;R =

1 1 10 2 10 0 3

.. On trouve L =t R où

L =

1 0 02 1 03 2 1

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

.. Solutions des exercices

Solution ..

Par la méthode du pivot de Gauss. . . −1 2 1 2

a 3 − 1 3

5 − 8 − 9 − 9

←−

×a

+

←−−−−−

×5

+ −1 2 1 2

0 3 + 2a a− 1 3 + 2a

0 2 − 4 1

←−←− −1 2 1 2

0 2 − 4 1

0 3 + 2a a− 1 3 + 2a

←−

×(− 32−a)

+ −1 2 1 2

0 2 − 4 1

0 0 5a + 5 32+ a

Le système de l’énoncé est donc équivalent au sys-tème (−x+ 2y + z = 2

2y − 4z = 15(a+ 1)z = 3

2+ a

Si a = −1 la dernière ligne se lit 0 = 12

et doncE−1 = ∅.Si a 6= −1 on résout en remontant du bas vers lehaut et on trouve une solution unique (dont le cal-cul n’est pas demandé).Ainsi Ea n’est jamais un ensemble infini.

Solution .. 1 0 0 00 1 0 0

0 0 0 00 0 0 0

Ǒet

0 0 0 00 0 0 0

0 0 1 00 0 0 1

Ǒ.

Solution ..

. Il est clair que toute combinaison linéaire dematrices de C est encore une matrice de C, Cest donc bien un sous-espace vectoriel. Sa di-mension est 2, une base en est par exempleI2 , J = ( 0 −1

1 0 ).. Il est évident que l’application

f : C→M2(R), a+ ib 7→

a −bb a

est injective et que son image estC. Il ne reste qu’àmontrer que f est un morphisme d’anneaux. Évi-demment, l’image du nombre complexe 1 est lamatrice identité. Pour la multiplication, on a

f((a+ ib)(a′ + ib′)) = f(aa′ − bb′ + i(ab′ + a′b))

=

aa′ − bb′ −ab′ − a′bab′ + a′b aa′ − bb′

=

a −bb a

a′ −b′

b′ a′

.

La compatibilité de l’addition est évidente.

. La matrice

cosα − sinαsinα cosα

est l’image par f du

nombre complexe exp(iα), d’oùcosα − sinαsinα cosα

k

= f(eiα)k = f(eikα)

=

cos(kα) − sin(kα)sin(kα) cos(kα)

.

Solution ..

. D’abord, nous notons que l’élément nul et l’élé-ment unité sont dans le centre. Soient b, b′ ∈ Z(A).Alors

⋄ on a b− b′ ∈ Z(A) car, pour tout a ∈ A,

(b− b′)a = ba− b′a = ab− ab′ = a(b− b′) ;

⋄ on a bb′ ∈ Z(A) car, pour tout a ∈ A,

(bb′)a = b(b′a) = b(ab′) = (ba)b′

= (ab)b′ = a(bb′) .

Ainsi, Z(A) est un sous-anneau de A. Sa commu-tativité est triviale.On a Z(A) = A si et seulement si A est un anneaucommutatif.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

. D’abord il est évident que les matrices homo-thétiques sont dans le centre. Réciproquement soitB = (bℓk) ∈ Z(Mn(K)). En particulier, B com-mute avec les matrices de la base canonique, c’est-à-dire pour tout (k, ℓ) ∈ 1, . . . , n2, on a

EkℓB = BEkℓ ,

ou encore 0BBBBBBBB 0 0 . . . 0...

......

0 0 . . . 0k → bℓ1 bℓ2 . . . bℓn

0 0 . . . 0...

......

0 0 . . . 0

1CCCCCCCCA

= ℓ↓

0 . . . 0 b1k 0 . . . 00 . . . 0 b2k 0 . . . 0...

......

......

0 . . . 0 b1k 0 . . . 0

.

Donc, bℓj = 0 dès que j 6= ℓ. Ainsi, B est unematrice diagonale. De plus, en comparant les co-efficients d’indice (k, ℓ) de ces deux matrices, ontrouve bℓℓ = bkk . Ainsi, tous les coefficients diago-naux de B sont identiques, d’où

Z(Mn(K)) = KIn .

Solution ..

Le tableau de composition est

e a b c d f

e e a b c d f

a a e d f b c

b b f e d c a

c c d f e a b

d d c a b f e

f f b c a e d

Nous notons que dans chaque ligne figure l’élé-ment neutre e = I2, ce qui montre que chacune desmatrices est inversible et que son inverse est l’une

parmi ces mêmes six matrices à coefficients en-tiers, donc les six matrices sont bien dans le groupeGL(2,Z) et forment un sous-groupe.Notons les six permutations dans S3 comme suit

e′ =

1 2 31 2 3

a′ =

1 2 32 1 3

b′ =

1 2 31 3 2

c′ =

1 2 33 2 1

d′ =

1 2 32 3 1

f ′ =

1 2 33 1 2

.

Si on fait leur tableau de composition, alors ontrouve la même chose. Il s’agit donc de groupesisomorphes.

Solution ..

On observe l’égalité polynômiale

(1−X)(1 +X +X2 + · · ·+Xk) = 1−Xk+1.

Si k est assez grand pour que Ak+1 = 0, alors enremplaçant l’indéterminée X par A, on trouve

(In − A)(In + A+A2 + · · ·+ Ak) = In ,

d’où l’inversibilité de In − A.

Solution ..

a. Vrai.

b. Vrai. En effet, tA = A entraîne tA−1 = A−1.

c. Vrai.

d. Vrai.

e. Vrai.

f. Vrai.

g. Faux, car ( 0 10 0 ) + ( 0 0

1 0 ) n’est pas nilpotente.Mais peut montrer que qi A,B commutent et sontnilpotentes, alors A + B et nilpotent. En fait, siAp = Bq = 0 avec p, q ∈ N alors (A+B)p+q−1 = 0.Il suffit de développer avec la formule du binômequi est valable puisque AB = BA.

h. Vrai. En effet, c’est le noyau de l’application li-néaire Mn(K)→Mn(K), 7→ tA.

i. Faux car ( 0 11 0 ) (

1 00 0 ) = ( 0 0

1 0 ) n’est pas symé-trique.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Solution ..

It is evident that K is a sub vector space of Mn(K)and that it contains the zero matrix and the iden-tity matrix. It remains to check that it is closed bymultiplication. Let A =

aℓk

and B =bℓk

betwo n × n checkerboard matrices, and let AB =cℓk

. Then

cℓk =

nXj=1

aℓjbjk .

If ℓ+ k is odd then

(ℓ+ j) + (j + k) = ℓ+ k + 2j

is odd as well, and therefore either ℓ + j or j + kis odd. Hence in the sum

Pn

j=1aℓjbjk every term

vanishes, which proves that AB ∈ K .

The dimension of K isn2+1

2

.

Solution ..

As often with a map that conserves multiplicationit is of interest to see what happens to the identitymatrix 1n and to the zero matrix 0n :• If f(1n) = 0 then for all A ∈ Mn(K), f(A) =f(A · 1n) = f(A)f(1n) = 0 and f would be aconstant map, in contradiction to the hypothe-sis. So f(1n) 6= 0.

• f(0n) = f(02n) = f(0n)2, and so f(0n) is 0

or 1. If f(0n) = 1 then for all A ∈ Mn(K),f(A) = f(A)f(0n) = f(A · 0n) = f(0n) andf would be a constant map, in contradiction tothe hypothesis. Hence f(0n) = 0.

The direction (⇒) of our proof is easy : if A is aninvertible matrix then f(A)f(A−1) = f(AA−1) =f(1n) 6= 0, hence f(A) 6= 0. The other direction ismore delicate. The up-shot is in the following

Lemma : Let r ∈ J1, nK. If f is zero on one matrix ofrank r then f is zero on all matrices of rank r.Proof : Let A,B ∈ Mn(K) be of rank r. We recallthat by left and right multiplication with elemen-tary matrices we can transform both, A and B,

into the same diagonal matrix whose first r diago-nal elements are 1, the other being 0. As a conse-quence there exist matrices P,Q ∈ GL(n,K) suchthat A = PBQ. Therefore f(A) = f(PBQ) =f(P )f(B)f(Q) . Since f(P )f(Q) 6= 0 it followsthat f(A) = 0 if and only if f(B) = 0. This provesthe lemma.

(⇐) Let A be a non-invertible matrix. We have toshow that f(A) = 0.Denote by N the “standard nilpotent matrix ofrank n − 1”, i.e. the matrix which is zero everyw-here except for the entries at indices (k, k + 1),1 6 k < n, which are all 1. It is easy to see thatrg(Nk) = n − k for all k ∈ J0, nK. In particularNn = 0n.Let r ∈ J0, n − 1K be the rank of A. Then thematrix M = Nn−r has the same rank as A andMn = (Nn)n−r = 0n. According to the lemma weare finished if we can show that f(M) = 0. But thisis a consequence of

f(M)n = f(Mn) = f(0n) = 0 .

Solution ..

Notons x0, x1, . . . , x100 les poids des vaches. L’hy-pothèse se traduit en l’existence d’une matrice

A =aℓ,kℓ,k=0,...,100

de diagonale nulle, ayant sur chaque ligne cin-quante fois un 1, cinquante fois un −1 et telle que(x0, x1, . . . , x100) est dans le noyau de A. Evidem-ment le vecteur (1, . . . , 1) ∈ R101 est dans KerA ;le but est alors de montrer qu’il engendre KerA.Pour cela il suffit de prouver que dim KerA 6 1,ou de manière équivalente que rg A > 100. Or lasous-matrice

aℓ,kℓ,k=1,...,100

est de rang 100 d’après le lemme suivant.

Lemme. Soit B ∈ M2n(Z) une matrice de coefficientsdiagonaux pairs et telle que ses autres coefficients sontimpairs. Alors B ∈ GL(2n,Q).

Preuve. Pour tout entier k notons k sa classe dansZ/2Z. Par passage au quotient B induit une ma-trice B dans M2n(Z/2Z). La diagonale de B estnulle et tous ses autres coefficients sont 1. On vé-rifie sans peine que les colonnes de B forment unebase orthonormale. Donc det

B= 1. Or le déter-

minant d’une matrice est un polynôme en les coef-ficients de la matrice et les coefficients de ce poly-nôme sont des entiers, donc le déterminant passeau quotient, c’est-à-dire det

B

= det(B). Parconséquence det(B) 6= 0, d’où B ∈ GL(2n,Q).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

Soit P =

A−1On

On In

. Comme P est clairement in-

versible d’inverse P−1 =

A OnOn In

, le rang de M

est égal au rang de

M ′ = PM =

In A−1B

C D

.

En effectuant l’opération de pivot par blocs L2 ←L2 −CL1 sur M ′, on aboutit à

M ′′ =

In A−1B

On D − CA−1B

.

Puis, par C2 ← C2 − A−1BC1, on obtient

M ′′′ =

In On

On D − CA−1B

.

Les opérations de pivot conservant le rang d’unematrice, on a rg(M) = rg(M ′′′). Il est donc clairque

rg(M) = n+ rg(D − CA−1B)

et rg(M) = n si et seulement si D − CA−1B = On.

Solution ..

. Soit M = (m16i,j6n) ∈ Mn(K). Notons

K = max16i6n

|mi,i|+ 1.

Notons T la matrice triangulaire supérieure défi-nie par

∀1 6 i < j 6 n , ti,j = mi,j ,

∀1 6 j < i 6 n , ti,j = 0,

et∀1 6 i 6 n , ti,i = mi,i +K.

De même, notons T ′ la matrice triangulaire infé-rieure définie par

∀1 6 j < i 6 n , t′i,j = mi,j ,

∀1 6 i < j 6 n , t′i,j = 0,

et∀1 6 i 6 n , t′i,i = −K.

Puisque T et T ′ sont des matrices triangulairessans termes nuls sur la diagonale, elles sont inver-sibles. De plus, on a clairement

M = T + T ′.

. D’après la question précédente, toute matricede Mn(K) est la somme de 2 matrices inversibles,on a donc

Mn(K) ⊂ vect(GLn(K)).

Puisque l’inclusion inverse est banale, on a bien

Mn(K) = vect(GLn(K)).

Solution ..

Raisonnons par l’absurde en supposant l’existenced’un vecteur colonne non nul

X =

x1

...xn

tel que AX = 0. Soit i0 6 n tel que |xi0 | > 0 soitle maximum des |xi|, i 6 n. Puisque AX = 0 , ona en particulier

−ai0,i0xi0 =

nXj 6=i0

ai0,jxj .

Or , d’après l’inégalité triangulaire , nXj 6=i0

ai0,jxj

6 nXj=1,j 6=i0

|ai0,j ||xj |,

et , par définition de i0 ,

nXj 6=i0

|ai0,j ||xj | 6 nX

j 6=i0

|ai0,j ||xi0 |

d’où

|ai0,i0 ||xi0 | 6 nX

j 6=i0

|ai0,j ||xi0 |

et puisque |xi0 | 6= 0 ,

|ai0,i0 | 6nX

j 6=i0

|ai0,j |

ce qui contredit l’hypothèse de l’énoncé.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Solution ..

Soit (i, j) ∈ J1, nK× J1, qK. Alors

(AB)ij =

nXk=1

AikBkj > 0

comme somme de termes positifs.Soit j ∈ J1, qK. La somme des coefficients de la jème

colonne de AB est :

nXi=1

(AB)ij =

nXi=1

pXk=1

AikBkj

=

pXk=1

Bkj

nXi=1

Aik

=

pXk=1

Bkj carnX

i=1

Aik = 1

= 1

Ainsi AB est stochastique.

Solution ..

Notons (Eij)16i,j6n la base canonique deMn(K).Rappelons que pour (i, j, k, l) ∈ J1, nK4, EijEkl =δjkEil.Soit ϕ un automorphisme d’algèbre de Mn(K).Puisque E11

2 = E11, on a également ϕ(E11)2 =

ϕ(E11). Ainsi ϕ(E11) est une matrice de projec-teur. Puisque ϕ est injectif, ϕ(E11) 6= 0 et ce pro-jecteur est non nul. Il existe donc P1 ∈ Mn,1(K)non nul tel que ϕ(E11)P1 = P1. Pour i ∈ J2, nK,posons Pi = ϕ(Ei1)P1.Soit (i, j, k) ∈ J1, nK3. Alors

ϕ(Eij)Pk = ϕ(Eij)ϕ(Ek1)P1

= ϕ(EijEk1)P1

= δjkϕ(Ei1)P1 = δjkPi

Si on note P la matrice dont les colonnes sontP1, . . . , Pn, on en déduit en raisonnant par colonneque pour (i, j) ∈ J1, nK2

ϕ(Eij)P = PEij

Par linéarité, on en déduit que pour M ∈ Mn(K),ϕ(M)P = PM .Montrons maintenant que P est inversible. Il suffitpour cela de montrer que la famille (P1, . . . , Pn)est libre. Soit alors (λ1, . . . , λn) ∈ Kn tel quenX

k=1

λkPk = 0. Fixons i ∈ J1, nK. En multipliant à

gauche par ϕ(E1i), on obtient λiP1 = 0 en vertu

des égalités précédemment démontrées et doncλi = 0 puisque P1 6= 0. Ainsi (P1, . . . , Pn) est libreet P est inversible.Finalement, on peut affirmer que

∀M ∈Mn(K), ϕ(M) = PMP−1

Réciproquement toute application M ∈Mn(K) 7→ PMP−1 avec P ∈ GLn(K) est bienun automorphisme d’algèbre de Mn(K) (son au-tomorphisme réciproque est M ∈ Mn(K) 7→P−1MP ).

Remarque – On est en droit de se demander si lamatrice P associée à l’automorphisme ϕ est unique. Cen’est pas le cas. En effet, toute matrice λP avec λ ∈ K∗

convient également. On peut montrer que ce sont lesseules matrices qui conviennent.Soient en effet deux matrices P,Q ∈ GLn(K) tellesque PMP−1 = QMQ−1 pour toute matrice M ∈Mn(K). Ceci peut également s’écrire (P−1Q)M =M(P−1Q) pour toute matrice M ∈ Mn(K). Onmontre alors classiquement que P−1Q = λIn i.e.Q = λP avec λ ∈ K. Mais comme Q−1P est inver-sible, λ 6= 0.En conclusion, la matrice P associée à ϕ est définie àune constante multiplicative non nulle près.Plus précisément, le groupe des automorphismes d’al-gèbre deMn(K) est isomorphe au groupe PGLn(K),c’est-à-dire le groupe GLn(K) quotienté par les homo-théties non nulles.

Solution ..

. Soient t et s dans R. On a :

E(t)E(s) = (I + tA+ t2A2/2)(I + sA+ s2A2/2)

= I + (t+ s)A+ (ts+ t2/2 + s2/2)A2

= I + (t+ s)A+(s+ t)2

2A2

= E(t+ s)

car A3 = A4 = 0.

. Pour tout n ∈ N, notons HR(n) l’hypothèsesuivante :

∀t ∈ R, (E(t))n = E(nt).

HR(0) est banale car les deux membres sontégaux à I pour tout t réel.

Soit n > 0. Supposons HR(n) vérifiée. On aalors, pour tout réel t :

(E(t))n+1 = (E(t))nE(t) = E(nt)E(t)

= E(nt+ t) = E((n+ 1)t)

d’après HR(n) est la première question. D’oùHR(n+ 1).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

HR(n) est vraie pour tout entier n d’après leprincipe de récurrence.

. Soit t ∈ R. D’après la première question, on a :

E(−t)E(t) = E(t)E(−t) = E(t− t) = E(0) = I

On en déduit que E(t) est inversible d’inverse

(E(t))−1 = E(−t).

. Soient α, β et γ dans R tels que :

αI + βA+ γA2 = 0.

En multipliant cette égalité par A2, on aboutit à :

αA2 = 0

car A3 = A4 = 0. Comme A2 6= 0, on a nécessai-rement α = 0. En multipliant la première égalité parA, on obtient :

β2 = 0

car α = 0 et A3 = 0. Comme A2 6= 0, on a doncβ = 0. Ainsi γA2 = 0 et, de même, γ = 0. La fa-mille (I, A,A2) est donc libre dans Mp(R).

. Soient t1 et t2 dans R tels que E(t1) = E(t2),i.e.

I + t1A+t212A2 = I + t2A+

t222A2.

La famille (I, A,A2) étant libre (voir la questionprécédente), on en déduit que t1 = t2. La fonctiont 7→ E(t) est donc injective.

. On trouve sans peine que

E(t) =

1 t t2/20 1 t0 0 1

!.

Solution ..

. Posons

J =

0 2 30 0 20 0 0

!de sorte que A = I3 + J . On remarque que J3 = 0et que J et I3 commutent. On a donc, d’après laformule du binôme,

An = I3 + nJ +n(n− 1)

2J2.

Puisque

J2 =

0 0 40 0 00 0 0

!,

on a,

A2 =

1 2n 2n2 + n0 1 2n0 0 1

!.

. Posons

J =

0 10 0

de sorte que A = aI3 + bJ . On remarque queJ2 = 0 et que bJ et aI3 commutent. On a donc,d’après la formule du binôme,

An = anI3 + nan−1bJ.

Ainsi, pour n > 2,

An =

an nan−1b0 an

.

. Grâce aux formules d’addition trigonomé-triques, on prouve sans peine par récurrence surn que

An =

cos(nθ) − sin(nθ)sin(nθ) cos(nθ)

.

Remarque – A est une matrice de rotation vecto-rielle plane , ce qui rend le calcul de An banal. . .

. On a

A2 =

14 −105 −1

,

ainsi, par un calcul sans difficulté,

A2 − 5A+ 6I2 = 0.

On remarque que le polynôme

P = X2 − 5X + 6 = (X − 2)(X − 3)

est annulateur de la matrice A. Effectuons la di-vision euclidienne de Xn par P 6= 0. Il existe unpolynôme réel Q et deux réels an, bn tels que

Xn = PQ+ anX + bn.

Après évaluation en 2 et 3 , on obtient le système§2n = 2an + bn3n = 3an + bn

,

d’où

an = 3n − 2n et bn = 3 · 2n − 2 · 3n.

On a donc

An = anA+ bnI2

=

2n+1 − 3n 2n − 3n

2 · 3n − 2n+1 2 · 3n − 2n

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Calcul matriciel

Solution ..

. On trouve

A3 − 3A2 + 2A = 0.

. On a

B = X3 − 3X2 + 2X = X(X − 1)(X − 2) 6= 0.

Soit n ∈ N∗. Notons Qn etRn le quotient et le restedans la division euclidienne de Xn par B. Il existean, bn, cn trois réels tels que

Rn = an + bnX + cnX2.

Comme

B(0) = B(1) = B(2) = 0,

on a

Rn(0) = 0, Rn(1) = 1, Rn(2) = 2n.

On en déduit sans peine que

an = 0, bn = 2− 2n−1, cn = 2n−1 − 1

et donc que

Rn = (2− 2n−1)X + (2n−1 − 1)X2.

. Puisque B(A) = 0, on a, pour tout n ∈ N∗,

An = Qn(A)B(A) +Rn(A) = Rn(A)

= (2− 2n−1)A+ (2n−1 − 1)A2

=

0 0 0−2n 1 1− 2n

2n 0 2n

!. Comme la première ligne de A est nulle, sonrang est strictement inférieur à 3 ainsi A n’est pasinversible.

Solution ..

Raisonnons en deux temps...

Supposons que M 6∈ GLn(C). On a alors r = rg(M) < n et la matrice M est équivalente à

Jr =

Or,n−r Ir

On−r,n−r On−r,r

.

Il existe des matrices inversibles P1 et Q1 telles que

M = P1JrQ1.

En posant P = P1Q1, on a donc P inversible et

∀λ ∈ C, det(P − λM) = det(P1) det(Q1) det(In − λJr) = det(P1) det(Q1) 6= 0

car r < n. Ainsi,∀λ ∈ C, P − λM ∈ GLn(C).

Réciproquement, raisonnons par contraposition : supposons que M ∈ GLn(C). Soient alors P une matriceinversible et λ0 une valeur propre complexes de M−1P . On a

det(P − λ0M) = det(M) det(M−1P − λ0In) = 0

et donc M − λ0M 6∈ GLn(C). Ainsi,

∀P ∈ GLn(C), ∃λ ∈ C, P − λM 6∈ GLn(C).

Solution ..

. La famille (I,A,A2, . . . , An2

) est une famille deMn(R) de cardinal n2 + 1. C’est donc une famille liée etil existe une combinaison non triviale de ces matrices donnant 0n, donc un polynôme P de degré inférieurou égal à n2 tel que P (A) = On.

. Dire que P (0) 6= 0 signifie que dans la combinaison linéaire précédente le coefficient a0 de I n’est pasnul, soit

a0I + a1A+ · · ·+ an2An2

= 0n, avec a0 6= 0

donc

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

I = − 1

a0(a1A+ · · ·+ an2An2

) = − 1

a0(a1I + a2A+ · · ·+ an2An2−1)A.

On sait alors qu’il est inutile de vérifier l’inversibilité de l’autre côté et A est inversible, d’inverse

A−1 = − 1

a0(a1I + a2A+ · · ·+ an2An2−1).

. On a AkQ(A) = On, avec Q(0) 6= 0.

si A est inversible, alors Q(A) = On (on multiplie k fois à gauche par A−1).

si Q(A) = On, on est revenu à la situation de la question 2. et A est inversible.

Université Paris Sud agreg 2012 - 2013

Applications linéaires de Kn dans Km

Les applications linéaires entre espaces vectoriels canoniques sont celles quipréservent les structures de ces espaces, c’est-à-dire qui se comportent bienavec les combinaisons linéaires. À toute matrice A est associée de manière na-turelle une application linéaire entre espaces canoniques. Le produit matricielest défini de sorte que la composition de deux telles applications correspondau produit de leurs matrices. Les applications linéaires plus générales serontétudiées dans le chapitre suivant.

.. Application linéaire définie par une matrice

Définition ..

Une application f : Kn → Km est dite linéaire si elle conserve l’addition des vecteurs et la multiplication avec desscalaires, c’est-à-dire si

∀ u, v ∈ Kn , ∀ λ ∈ K : f(u+ v) = f(u) + f(v) et f(λu) = λf(u).

Soit f, g : Kn → Km, h : Km → Kp des applications et λ ∈ K. On définit « point par point » lesapplications f + g : Kn → Km, λf : Kn → Km et h f : Kn → Kp par

∀ x ∈ Kn : (f + g)(x) := f(x) + g(x), (λf)(x) := λf(x), (h f)(x) := h(f(x)).

Règle .. Si f, g et h sont linéaires, alors f + g, λf et h f le sont itou.

Preuve. Montrons que h f est linéaire si h et f le sont. On a pour tous u, v ∈ Kn, λ ∈ K,

(h f)(u+ v) = h(f(u+ v)) = h(f(u) + f(v)) = h(f(u)) + h(f(v)) = (h f)(u) + (h f)(v),(h f)(λu) = h(f(λu)) = h(λf(u)) = λh(f(u)) = λ(h f)(u).

Pour f + g et λf ce sont des vérifications aussi faciles.

Règle .. Soit f : Kn → Km une application.1) Si f est linéaire, alors f(0) = 0.2) f est linéaire si, et seulement si, f(λu+ µv) = λf(u) + µf(v) pour tous u, v ∈ E et λ, µ ∈ K.3) f est linéaire si, et seulement si, f(λu+ v) = λf(u) + f(v) pour tous u, v ∈ E et λ ∈ K.

Preuve.1) Soit f est linéaire. Alors f conserve l’addition et f(0) = f(0 + 0) = f(0) + f(0), d’où f(0) = 0.2) Évident.3) L’implication (⇒) est claire. Montrons (⇐) . Par hypothèse,

∀u, v ∈ Kn : f(u+ v) = f(1 · u+ v) = 1 · f(u) + f(v) = f(u) + f(v).

Cela prouve que f conserve l’addition, d’où f(0) = 0. Enfin,

∀u ∈ Kn ∀λ ∈ K : f(λu) = f(λu+ 0) = λf(u) + f(0) = λf(u) + 0 = λf(u).

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

Par récurrence on déduit du point 2) que fPn

k=1 λkvk=Pn

k=1 λkf (vk) pour tous n ∈ N,v1, . . . , vn ∈ Kn et λ1, . . . , λn ∈ K. Autrement dit, les applications linéaires conservent les combi-naisons linéaires.

Exemple ..

L’application g : K3 → K2, x

yz

7→x2−y3x+z

, n’est pas linéaire car g

2

100

=46

6=26

= 2g

100

.

Proposition .. Pour tout A ∈Mmn(K), on note bA l’application Kn → Km définie par x 7→ Ax.L’application bA est linéaire.

Preuve. La linéarité de bA découle de règles de calcul matriciel (voir p.). Pour tous x, y ∈ Kn,λ ∈ K, on abA(x+ y) = A(x+ y) = Ax+Ay = bA(x) + bA(y), bA(λx) = A(λx) = λ(Ax) = λ bA(x).

Notant C1, . . . , Cn les colonnes de A on abA : Kn −→ Km , x =

x1x2

...xn

!7−→ Ax = x1C1 + x2C2 + · · ·+ xnCn . (.)

En particulier, bA envoie le k-ième vecteur de la base canonique de Kn sur la k-ième colonne de A.

Proposition .. Soit f : Kn → Km une application. Alors f est linéaire si et seulement s’il existeune matrice A ∈ Mmn(K) telle que f = bA. Dans ce cas, la matrice A est unique ; elle est donnée parA = (f(e1), . . . , f(en)) où (e1, . . . , en) est la base canonique de Kn.

Preuve. Supposons qu’il existe A ∈ Mmn(K) telle que f = bA. Alors f est linéaire d’aprèsla proposition ... Supposons que B ∈ Mmn(K) est une autre matrice telle que f = ÒB. AlorsAx = f(x) = Bx pour tout x ∈ Kn. En particulier, Aek = Bek pour tout k ∈ J1, nK. Or Aek (resp.Bek) est la k-ième colonne de A (resp. B). Cela montre que A = B, d’où l’unicité de la matrice sielle existe.Réciproquement supposons que f : Kn → Km est linéaire. En s’inspirant de ce qu’on vient de voiron pose A := (f(e1), . . . , f(en)) ∈Mmn(K). Il faut montrer que f(x) = Ax pour tout x ∈ Kn. Ona f(ek) = Aek pour tout k = 1, . . . , n. Puisqu’une application linéaire conserve les combinaisonslinéaires, on a

∀x =

x1x2

...xn

!∈ Kn : f(x) = f

nX

k=1

xkek

!=

nXk=1

xkf(ek) =nX

k=1

xkAek = AnX

k=1

xkek = Ax.

Exemple ..

Pour l’application linéaire f : K3 → K2, x

yz

7→

y+zx+2yx+z

on a f

100

=

011

, f

010

=

120

et f

001

=

101

. Donc f = bA avec A =

0 1 11 2 01 0 1

.

Règle .. Soit A,B ∈Mmn(K), C ∈Mpm(K) et λ ∈ K. AlorsÖA+B = bA+ ÒB, ÓλA = λ bA, dCA = ÒC bA.De plus, bA est bijective si, et seulement si, n = m et A ∈ GL(n,K) ; dans ce cas, bA−1 = ÔA−1.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Noyau, image et rang

Preuve. D’après l’associativité du produit matriciel (voir la règle ..) on a

∀x ∈ Kn : dCA(x) = (CA)x = C(Ax) = ÒC bA(x) = ÒC bA (x).Autrement dit, dCA = ÒC bA. Les preuves des identités ÖA+B = bA + ÒB et ÓλA = λ bA sont laisséesau lecteur.Lorsque la matrice A ∈ Mn(K) est inversible, son inverse A−1 définit une application linéaireÔA−1 : Kn → Kn. On a ÔA−1 bA = ÖA−1A = ÒIn = idKn et bA ÔA−1 = ÖAA−1 = ÒIn = idKn , ce quisignifie que l’application bA est bijective.Réciproquement, supposons que f = bA : Kn → Km est bijective. Notons g son application inverseet montrons que g est linéaire. Soit x, y ∈ Km et λ ∈ K. Par linéarité de f on a

g(λx+ µy) = g(λf(g(x)) + µf(g(y))) = g(f(λg(x) + µg(y))) = λg(x) + µg(y).

Donc g est linéaire et il existe une matrice unique B ∈ Mnm(K) telle que g = ÒB. On adBA = ÒB bA = idKn = ÒIn et dAB = bA ÒB = idKm = Im. Par unicité de la matrice d’une ap-plication linéaire on déduit BA = In et AB = Im. Donc n = m et B est l’inverse de A.

Soit f : R2 → R2, (x, y) 7→ (2x, y). On vérifie sans peine que f est linéaire.f envoie la configuration sur la configuration suivante.

b(1, 0)

b(0, 1)

b(2, 0)

b(0, 1)

Nous constatons que l’image de la droite est encore une droite, mais que l’image du cercle n’estplus un cercle. Autrement dit, la notion de « cercle rond » n’a pas de sens dans le monde linéaire.Nous verrons en deuxième année qu’il faut une structure supplémentaire dite euclidienne, c’est-à-dire un produit scalaire, pour pouvoir parler de cercle. En revanche, la notion de droite est bienune notion linéaire. Avec un peu d’habitude, le lecteur gagnera en intuition pour distinguer cequi est linéaire de ce qui ne l’est pas.

Tests

.. Les deux parties suivantes peuvent-elles être l’image ducercle (x, y) | x2 + y2 = 1 par une application linéaire de R2

dans R2 ?

b(1, 0)

b(0, 1)

b(1, 0)

b(0, 1)

.. Écrire la matrice de l’application linéaire(x, y, z) 7→ (x − z, 2x + y).

.. Vrai ou faux ? Il existe une application

a. linéaire et injective K2 → K3 ;

b. linéaire et surjective K3 → K2 ;

c. linéaire et bijective K2 → K3.

.. Noyau, image et rang

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

Définition ..

Soit f : Kn → Km une application linéaire.1) Le noyau de f est l’ensemble Ker(f) := x ∈ Kn | f(x) = 0.2) L’image de f est l’ensemble Im(f) := y ∈ Km | ∃ x ∈ Kn : y = f(x).3) Le rang de f est le nombre rg(f) := dim(Im(f)).4) Pour une matrice A on pose Ker(A) := Ker( bA) et Im(A) := Im( bA).

Au point 4) on remarque l’absence de « rg(A) := rg( bA) ». En fait, le rang d’une matrice est déjàdéfini à la page , donc on ne peut plus le définir une deuxième fois. Heureusement le point 3)de la règle suivante réconcilie les deux notions.

Règle .. Soit A ∈Mmn(K).1) Le noyau Ker(A) est le sous-espace vectoriel de Kn constitué des solutions du système homogène

Ax = 0.2) L’image Im(A) est le sous-espace vectoriel de Km engendré par les colonnes de A.3) Le rang rg(A) de la matrice A coïncide avec le rang rg( bA) de l’application linéaire bA.

Preuve.1) C’est une conséquence de la définition.2) On note C1, . . . , Cn les colonnes de A. D’après l’équation (.) de la page , l’image de l’ap-

plication bA est l’ensemble des combinaisons linéaires de C1, . . . , Cn.3) On vient de prouver que Im( bA) = vect(C1, . . . , Cn). Donc rg( bA) = dim(vect(C1, . . . , Cn)). Or,

d’après la proposition .., ce nombre est le rang de la matrice A.

Exemple ..SoitA = ( 1 2

4 8 ). Alors le noyau deA est la droite d’équation x+2y = 0. L’image Im(A) est l’espace vectorielengendré par le vecteur ( 1

4 ), c’est-à-dire la droite d’équation 4x− y = 0. Enfin, le rang rg(A) vaut 1.

Proposition .. Soit A ∈Mmn(K). Les propriétés suivantes sont équivalentes.1) L’application linéaire bA : Kn → Km est injective.2) Ker(A) = 0.3) rg(A) = n.4) Les colonnes de A sont linéairement indépendantes.5) L’application linéaire bA envoie toute famille libre de Kn sur une famille libre de Km.

Preuve. 1)⇒ 2) Supposons bA injective et prouvons Ker(A) = 0 par double inclusion. PuisqueKer(A) est un sous-espace vectoriel, il contient le vecteur nul ; cela prouve l’inclusion ⊃. Si x ∈Ker(A), alors bA(x) = 0 = bA(0) et donc, par injectivité de bA, on a x = 0 ; cela prouve l’inclusion ⊂.2)⇒ 3) On a la majoration rg(A) 6 n (voir le lemme ..). Soit Ker(A) = 0 et supposons parl’absurde que rg(A) < n. Alors il existe une relation de dépendance linéaire entre les colonnes Ck

de A :Pn

k=1 λkCk = 0 avec des λk ∈ K non tous nuls. Le vecteur non nul (λ1, . . . , λn) est doncdans Ker(A), contradiction.3)⇒ 4) Si les colonnes étaient dépendantes, alors on aurait rg(A) < n.4)⇒ 1) Voir la proposition ...2)⇒ 5) Supposons Ker(A) = 0 et soit (v1, . . . , vp) une famille libre dans Kn. Pour prouver que(Av1, . . . , Avp) est libre, soit λ1, . . . , λp ∈ K tels que

Ppk=1 λkAvk = 0. Alors

A

pX

k=1

λkvk

!=

pXk=1

A(λkvk) =

pXk=1

λkAvk = 0.

. L’abréviation Ker vient de l’anglais kernel et de l’allemand Kern, qui sont les traductions pour « noyau ».

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Noyau, image et rang

Cela signifie quePp

k=1 λkvk est dans le noyau deA, doncPp

k=1 λkvk = 0. Par liberté on en déduitλ1 = · · · = λp = 0.5)⇒ 4) Si bA envoie toute famille libre de Kn sur une famille libre, alors bA envoie en particulier labase canonique de Kn sur une famille libre et cette famille est celle des colonnes de A.

Proposition .. Soit A ∈Mmn(K). Les propriétés suivantes sont équivalentes.1) L’application linéaire bA : Kn → Km est surjective.2) Im(A) = Km.3) rg(A) = m.4) Les lignes de A sont linéairement indépendantes.5) bA envoie toute famille génératrice de Kn sur une famille génératrice de Km.

Preuve. L’équivalence entre les deux premières propriétés est triviale.2)⇒ 3) Supposons Im(A) = Km. Donc dim Im(A) = m. Or Im(A) est l’espace engendré par lescolonnes de A, donc sa dimension est égale au rang de A.3)⇒ 4) Si les lignes étaient dépendantes, alors on aurait rg(A) < m.4)⇒ 1) Supposons les m lignes de A indépendantes. Alors l’espace engendré par les lignes deA est de dimension m et de même l’espace engendré par les colonnes. Donc dim Im(A) = m etcomme Im(A) ⊂ Km cela signifie que Im(A) = Km (voir la proposition ..).1)⇒ 5) Supposons bA surjective et soit (v1, . . . , vp) une famille génératrice de Kn. Soit u ∈ Km. Ilexiste v ∈ Kn tel que u = Av. On peut écrire v =

Ppk=1 λkvk avec λk ∈ K. Donc

u = Av = A

pX

k=1

λkvk

!=

pXk=1

A(λkvk) =

pXk=1

λkAvk.

On vient de montrer que (Av1, . . . , Avp) est une famille génératrice de Km.5)⇒ 1) Supposons que bA envoie toute famille génératrice de Kn sur une famille génératrice deKm. Alors bA envoie la base canonique de Kn sur une famille génératrice de Km. Or les images desvecteurs de la base canonique sont les colonnes de A, donc les colonnes de A engendrent Km, cequi signifie que Im(A) = Km.

Corollaire .. Soit f : Kn → Kn une application linéaire. Les propriétés suivantes sont équiva-lentes.1) f est bijective.2) f est injective.3) f est surjective.4) rg(f) = n.5) f envoie toute base de Kn sur une base de Kn.

Preuve. Soit A ∈ Mn(K) la matrice telle que f = bA. Alors rg(A) = n équivaut à dire que leslignes de A sont linéairement indépendantes, ou encore que les colonnes de A sont linéairementindépendantes. Il suffit alors de combiner les deux propositions précédentes.

Corollaire .. Soit f : Kn → Km linéaire. Si f est injective, alors n 6 m. Si f est surjective, alorsn > m. Si f est bijective, alors n = m.

Preuve. Soit (e1, . . . , en) une base de Kn. Si f est injective, alors la famille (f(e1), . . . , f(en)) estlibre dans Km, donc n 6 m. Si f est surjective, alors la famille (f(e1), . . . , f(en)) est génératrice deKm, donc n > m. Si f est bijective, alors f est injective et surjective, d’où n = m.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

Tests

.. Déterminer noyau et image de A =

1 2 04 8 00 0 1

.

.. Vrai ou faux ? Si A est dans Mmn(K) telle queKer(A) = Kn , alors Im(A) = 0.

.. Vrai ou faux ? Il existe une matrice A

a. dans M2,3(K) telle que Ker(A) = 0 ;

b. dans M2,3(K) telle que Ker(A) = ∅ ;

c. dans M3,2(K) telle que Ker(A) = K2 ;

d. dans M3,2(K) telle que Im(A) = K3 .

.. Théorème du rang

On considère un système Ax = y à n inconnues et m équations. Résoudre ce système revient àtrouver tous les antécédents de y par l’application linéaire bA : Kn → Km. Comme conséquencedirecte des énoncés .., .. et .. on a :

⋄ Si rg(A) = n, alors il existe au plus une solution.

⋄ Si rg(A) = m, alors il existe au moins une solution.

⋄ Si rg(A) = m = n, alors il existe exactement une solution.

Le théorème suivant donne un lien important entre la dimension de l’espace de solutions et lenombre d’équations indépendantes.

Théorème .. (Théorème du rang) Pour tout A ∈Mmn(K) :

dim(Ker(A)) + rg(A) = n.

Preuve. Nous donnons deux preuves de ce théorème important (et encore une troisième à lapage ). Soit A ∈Mmn(K).

D’après ce qu’on a vu sur l’existence et la complétion des bases (voir p.) il existe une base(b1, . . . , bp) de Ker(A) ; on peut la compléter en une base B = (b1, . . . , bn) de Kn. Montrons quela famille B′ = (Abp+1, . . . , Abn) est une base de Im(A). Pour prouver que B′ est génératrice deIm(A), soit v ∈ Im(A) un vecteur arbitraire. Il existe u ∈ Kn tel que v = Au. On décompose uselon la base B de Kn, u =

Pnj=1 λjbj . Puisque Abj = 0 pour 1 6 j 6 p, on a

v = A

nX

j=1

λjbj

!=

nXj=1

λjAbj =nX

j=p+1

λjAbj ,

ce qui montre que B′ est génératrice. Pour prouver que B′ est libre, soit µp+1, . . . , µn ∈ K tel quePnj=p+1 µjAbj = 0. Donc

A

nX

j=p+1

µjbj

!=

nXj=p+1

µjAbj = 0,

c’est-à-dire quePn

j=p+1 µjbj est dans le noyau de A. Il existe donc des scalaires µ1, . . . , µp telsque

Pnj=p+1 µjbj =

Ppj=1 µjbj . Donc

Ppj=1 µjbj −

Pnj=p+1 µjbj = 0 et par liberté de B tous les

coefficients sont nuls, donc en particulier µp+1 = · · · = µn = 0, ce qui prouve que B est libre etfinalement une base de Im(A). Ainsi rg(A) = dim(Im(A)) = n− p = n− dim(Ker(A)).

Une autre preuve repose sur l’algorithme du pivot de Gauss : on exprime les « variables pi-vots » en fonction des autres. Pour cela on met le système en forme échelonnée réduite avec r pi-vots, où r = rg(A). Notons k1 < k2 < · · · < kr les indices des colonnes à pivots et j1 < · · · < jn−r

les indices des autres colonnes. On peut donc exprimer xk1 , . . . , xkr en fonction de xj1 , . . . , xjn−r .On obtient des vecteurs vj1 , . . . , vjn−r dans Kn tels que les solutions du système sont de la forme

xj1vj1 + xj2vj2 + · · ·+ xjn−rvjn−r , avec xj1 , xj2 . . . , xjn−r ∈ K.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Théorème du rang

Cela prouve que l’espace de solutions est égal à vect(vj1 , . . . , vjn−r ). Pour montrer que la dimen-sion est n− r il reste à prouver que la famille (vj1 , . . . , vjn−r ) est libre. Or cela résulte d’une simpleobservation concernant la jp-ième composante des vecteurs de cette famille : elle est nulle saufpour le vecteur vjp .

On résume le théorème du rang comme suit :

Dimension de l’espace de solutions + rang du système = nombre d’inconnues.

Exemple ..

⋄ Si la matrice d’un système linéaire homogène avec dix inconnues est de rang quatre, alors l’espace desolutions est de dimension six.

⋄ Pour décrire un sous-espace de dimension trois dans K10 il faut sept équations.

Structure affine de l’espace de solutionsPour un sous-espace vectoriel F ⊂ Kn et w ∈ Kn on note w + F l’ensemble de tous les w + v où vparcourt F . Autrement dit,

w + F = x ∈ Kn | ∃ v ∈ F : x = w + v.

On dit que w + F est un sous-espace affine ; le lecteur est invité à le visualiser comme sous-espacevectoriel « translaté ». Si par exemple F est un plan dans R3, alors (1, 1, 2) + F est le plan affinepassant par le point (1, 1, 2) et parallèle à F .

Proposition .. Soit A ∈ Mmn(K) et y ∈ Km. Notons S l’ensemble des solutions du systèmeAx = y. Alors ou bien S est vide, ou bien S = w +Ker(A) avec w ∈ S arbitraire.

Preuve. Supposons que S 6= ∅. Il existe donc un élément dans S. Fixons w ∈ S et montronsl’égalité S = w +Ker(A) par double inclusion. Montrons l’inclusion ⊂ . Soit x ∈ S. Posons v = x− w. Alors

Av = A(x − w) = Ax−Aw = y − y = 0.

Ainsi x = w + v ∈ w +Ker(A). Montrons l’inclusion ⊃ . Soit x ∈ w + Ker(A). Il existe v ∈ Ker(A) tel que x = w + v. AlorsAx = A(w + v) = Aw +Av = y + 0 = y , d’où x ∈ S.

En résumé,

Solution générale = solution particulière + solution générale du système homogène.

La dénomination solution particulière ne signifie pas que cette solution a des propriétés particu-lières, mais seulement qu’il s’agit d’une solution w que l’on a su déterminer parmi d’autres.En fusionnant cette proposition avec le théorème du rang, on obtient l’énoncé suivant.

Corollaire .. Soit Ax = y un système linéaire à n inconnues etm équations. On note r = rg(A).Si le système Ax = y possède une solution, alors il existe w, b1, . . . , bn−r ∈ Kn tels que toute solutionpeut s’écrire de manière unique comme

x = w + λ1b1 + · · ·+ λn−rbn−r , λk ∈ K,

et tels que toute somme de la forme ci-dessus est solution.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

Exemple ..Dans l’exemple .. nous avons écrit la solution générale en fonction de deux paramètres λ1 et λ2 sous laforme

x =

−806−20

+ λ1

31000

+ λ2

50−121

.

Le premier 5-uplet est une « solution particulière » et les deuxautres forment une base de Ker(A). Le noyau de A est dedimension 2 puisque le rang de A est 3.

Tests

.. Vrai ou faux ?

Pour décrire une droite dans R5 , trois équations suffisent.

.. Vrai ou faux ?

On peut décrire un plan dans R4 par deux équations.

... Retour sur l’exemple des carrés magiques

Page , nous avons déterminé une base de l’espace vectoriel K des carrés magiques. Pour latrouver, il nous a fallu de l’intuition ou de l’expérience. Mais on peut aussi résoudre le problèmepar une « méthode-pilon » : nous allons considérer K comme l’ensemble des solutions d’un sys-tème linéaire que nous pourrons alors résoudre par l’algorithme de Gauss.Il convient de noter que ceci est caractéristique de l’algèbre de première année : contrairementà ce qui se produit dans les chapitres d’analyse, aucune des propositions d’algèbre dans ce livren’exige une preuve astucieuse, toutes découlent de méthodes systématiques.

Revenons à notre exemple. Par définition, le carré est magiquesi, et seulement si, les six sommes horizontales et verticales sontégales, soit encore si

x11 x12 x13x21 x22 x23x31 x32 x33

x11+x12+x13 = x21+x22+x23 = x31+x32+x33 = x11+x21+x31 = x12+x22+x32 = x13+x23+x33.

Prenons les différences entre x11 + x12 + x13 et les cinq autres sommes. Ainsi le carré est magiquesi, et seulement si, ses coefficients vérifient le système linéaire homogène suivant :8>><>>:x11 + x12 + x13 − x21 − x22 − x23 = 0

x11 + x12 + x13 − x31 − x32 − x33 = 0x12 + x13 − x21 − x31 = 0x11 + x13 − x22 − x32 = 0x11 + x12 − x23 − x33 = 0.

(.)

C’est un système à neuf inconnues x11, x12, x13, x21, x22, x23, x31, x32, x33 et cinq équations. Il estdonc de la forme Ax = 0 où la matrice A est de format 5× 9.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Théorème du rang

A =

0BBBBBB 1 1 1 −1 −1 −1 0 0 0

1 1 1 0 0 0 −1 −1 −10 1 1 −1 0 0 −1 0 0

1 0 1 0 −1 0 0 −1 0

1 1 0 0 0 −1 0 0 −1

1CCCCCCA ←−×(−1)

+

←−−−−−−−

×(−1)

+

←−−−−−−−−−−−−−

×(−1)

+0BBBBBB 1 1 1 −1 −1 −1 0 0 0

0 0 0 1 1 1 −1 −1 −10 1 1 −1 0 0 −1 0 0

0 −1 0 1 0 1 0 −1 0

0 0 −1 1 1 0 0 0 −1

1CCCCCCA ←−←−←−−+0BBBBBB 1 1 1 −1 −1 −1 0 0 0

0 1 1 −1 0 0 −1 0 0

0 0 0 1 1 1 −1 −1 −10 0 1 0 0 1 −1 −1 0

0 0 −1 1 1 0 0 0 −1

1CCCCCCA ←−←−←−−+0BBBBBB 1 1 1 −1 −1 −1 0 0 0

0 1 1 −1 0 0 −1 0 0

0 0 1 0 0 1 −1 −1 0

0 0 0 1 1 1 −1 −1 −10 0 0 1 1 1 −1 −1 −1

1CCCCCCA←−

×(−1)

+

eA =

0BBBBBB 1 1 1 −1 −1 −1 0 0 0

0 1 1 −1 0 0 −1 0 0

0 0 1 0 0 1 −1 −1 0

0 0 0 1 1 1 −1 −1 −10 0 0 0 0 0 0 0 0

1CCCCCCADonc rg(A) = 4, et puisque K = Ker(A) on a dim(K ) = 9 − 4 = 5. Pour trouver une base, onrésout le système eAx = 0 en partant du bas.8><>:x21 = −x22 − x23 + x31 + x32 + x33

x13 = −x23 + x31 + x32x12 = −x13 + x21 + x31 = −x22 + x31 + x33x11 = −x12 − x13 + x21 + x22 + x23 = x22 − x31 + x23

Avec les notations des carrés magiques, nous obtenons

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

x11 x12 x13x21 x22 x23x31 x32 x33

=

x22 −x22 0−x22 x22 0

0 0 0+

x23 0 −x23−x23 0 x23

0 0 0+

−x31 x31 x31x31 0 0x31 0 0

+0 0 x32x32 0 00 x32 0

+0 x33 0x33 0 00 0 x33

= x22B1 + x23B2 + x31B3 + x32B4 + x33B5 ,

où les carrés B1 =

1 −1 0

−1 1 0

0 0 0, B2 =

1 0 −1−1 0 1

0 0 0, B3 =

−1 1 1

1 0 0

1 0 0,B4 =

0 0 1

1 0 0

0 1 0,

B5 =

0 1 0

1 0 0

0 0 1

forment une base de K .

... Descriptions des sous-espaces vectoriels de Kn

La droite D dans R2 du dessin ci-après peut se concevoir de trois manières différentes.

⋄ Comme image d’une application linéaire : D = Im(f) où f : R→ R2, t 7→ t21

.

⋄ Comme noyau d’une application linéaire : D = Ker(g) où g : R2 → R, (x, y) 7→ x− 2y.

⋄ Comme graphe d’une fonction : D =n x

h(x)

x ∈ Ro

où h : R→ R, x 7→ 12x.

Remarquons que le deuxième point revient à considérer la droiteD comme ensemble de solutionsde l’équation x− 2y = 0. Nous allons maintenant généraliser ces trois concepts et prouver qu’unsous-espace vectoriel peut être décrit par l’image d’une application injective (paramétrisation) oupar des équations (description implicite), ou encore par le graphe d’une application (descriptionexplicite). Des versions locales de ce type de calcul seront reprises en deuxième et troisième année(théorème des fonctions implicites et sous-variétés).

Proposition .. Soit n, r des entiers naturels tels que r 6 n et F un sous-ensemble de Kn. Alorsles propriétés suivantes sont équivalentes.1) L’ensemble F est un sous-espace vectoriel de dimension r.2) Il existe une application linéaire injective f : Kr → Kn telle que Im(f) = F .3) Il existe une application linéaire surjective g : Kn → Kn−r telle que Ker(g) = F . Autrement dit,

F est l’ensemble de solutions d’un système linéaire homogène à n inconnues et avec n− r équationsindépendantes.

4) Quitte à rénuméroter les coordonnées de Kn, l’ensemble F est le graphe d’une application linéaireh : Kr → Kn−r.

Preuve.1)⇒ 2) Supposons que F est un sous-espace vectoriel de Kn de dimension r. D’après le théorème.. il existe une base (v1, . . . , vr) de F . Notons A la matrice dont les vecteurs colonnes sontv1, . . . , vr. Alors F = Im( bA) et bA est injective d’après la proposition ...

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Théorème du rang

2)⇒ 3) Supposons qu’il existe une matrice A ∈ Mnr(K) telle que bA soit injective et Im(A) = F .Alors les colonnes de A constituent une base de F , d’où dim(F ) = r. Soit y un vecteur arbitrairedans Kn. Alors y ∈ F si et seulement s’il existe x ∈ Kr tel que Ax = y. On met ce système enforme échelonnée eAx = ey. On a y ∈ F si, et seulement si, eyr+1 = · · · = eyn = 0. Ces n− r équationsde compatibilité constituent un système linéaire homogène en les inconnues y1, . . . , yn. NotonsB ∈ Mn−r,n(K) la matrice de ce système et g = ÒB. Alors F = Ker(g) et g est surjective puisquerg(g) = n− dim Ker(g) = n− dim(F ) = n− r.3)⇒ 4) Supposons qu’il existe une matriceB ∈Mn−r,n(K) de rang n− r et telle que F = Ker(B).Parmi les n colonnes de B il y a n − r qui forment une famille libre ; quitte à rénuméroter lescoordonnées dans Kn, on peut supposer qu’il s’agit des dernières n− r colonnes. Ainsi la matriceB se décompose en deux blocs, B = (S |T ) où S ∈ Mn−r,r(K) et T ∈ GL(n − r,K). Pour toutx =

x′

x′′

∈ Kn avec x′ ∈ Kr et x′′ ∈ Kn−r on a :

x ∈ F ⇐⇒ Bx = 0 ⇐⇒ (S |T )

x′

x′′

= 0 ⇐⇒ Sx′ + Tx′′ = 0 ⇐⇒ x′′ = −T−1Sx′.

Cela signifie que les éléments de F sont les n-uplets de la forme (x′,−T−1Sx′) avec x′ ∈ Kr.Autrement dit, F est le graphe de l’application linéaire associée à la matrice −T−1S.4)⇒ 1) Soit h : Kr → Kn−r linéaire. On vérifie sans peine que le graphe de h est un sous-espacevectoriel de Kn et que, si (vj)16j6r est une base de Kr, (vj , h(vj))16j6r est une base de F .

ExemplePratiquons cette théorie sur un exemple ! Soit F le sous-espace vectoriel de K5 engendré par

v1 = (−3, 9,−2, 3, 5), v2 = (1,−3, 1,−1,−2), v3 = (8,−24, 4,−12,−4), v4 = (−1, 3, 0,−2, 7). Description implicite par un système. Notons A la matrice dont les vecteurs colonnes sontv1, v2, v3, v4, puis appliquons la méthode du pivot :

(A | x) = −3 1 8 −1

9 −3 −24 3−2 1 4 03 −1 −12 −25 −2 −4 7

x1x2x3x4x5

!;

−3 1 8 −10 0 0 00 1 −4 20 0 −4 −30 −1 28 16

x1x2+3x13x3−2x1x4+x1

3x5+5x1

!;

−3 1 8 −10 −1 28 160 1 −4 20 0 −4 −30 0 0 0

x13x5+5x13x3−2x1x4+x1x2+3x1

!; −3 1 8 −1

0 −1 28 160 0 24 180 0 −4 −30 0 0 0

x13x5+5x1

3x1+3x3+3x5x4+x1x2+3x1

!; eA | ex = −3 1 8 −1

0 −1 28 160 0 8 60 0 0 00 0 0 0

x13x5+5x1x1+x3+x5

3x1+x3+2x4+x53x1+x2

!.

On a rg(A) = rg( eA) = 3, d’où dim(F ) = 2. Les relations de compatibilité donnent le système

(∗)¨

3x1 + x3 + 2x4 + x5 = 0

3x1 + x2 = 0

dont l’espace de solutions est F (voir la méthode p.). On remarque que le théorème du rang estconfirmé : deux équations indépendantes décrivent un sous-espace de dimension 3 dans K5.

Paramétrisation. Comme les pivots de eA se trouvent dans les trois premières colonnes, lestrois premières colonnes de A forment une base de F . Donc l’application linéaire f définie par lamatrice dont les vecteurs colonnes sont v1, v2, v3 est injective et son image est F ,

f : K3 −→ K5,

λ1

λ2

λ3

7−→

−3 1 89 −3 −24

−2 1 43 −1 −125 −2 −4

!λ1

λ2

λ3

.

Description implicite par un graphe. Dans le système (∗) on isole x2 et x3 :

x2 = −3x1, x3 = −3x1 − 2x4 − x5.Cela signifie que si on renomme les coordonnées naturelles x1, . . . , x5 de l’espace canonique K5

par (t1, t2, t3, t4, t5) = (x1, x4, x5, x2, x3), alors F est le graphe de l’application linéaire définie par

h(t1, t2, t3) = (−3t1 , −3t1 − 2t2 − t3).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

.. Exercices

Exercice ..

Soit A ∈Mmn(K). On transforme A en une matrice échelonnée eA dont les pivots valent 1.

. On suppose qu’on utilise toujours le premier pivot rencontré. Autrement dit, pour installer un pivot àl’emplacement (ℓ, k) par une éventuelle permutation de lignes, on prend l’élément aj,k où j ∈ Jℓ,mK est leplus petit indice tel que aj,k 6= 0. La matrice échelonnée eA obtenue est-elle unique ?

. Même question si on s’autorise à choisir n’importe quel élément non nul comme pivot.

. On suppose qu’on a obtenu une matrice échelonnée comme dans la question précédente. Ensuite on latransforme en une matrice échelonnée réduite A′. Est-ce que A′ est unique ?

Exercice ..

Soit Φ l’application linéaire de R3 dans R4 définie par

(x, y, z) 7−→ (x+ z, y − z, x+ y + z, x− y − z).

. Φ est-elle injective ?

. Étudier la surjectivité de Φ.

. Donner une base de Im(Φ).

Exercice ..

Soit X une partie de Kn. Prouver l’équivalence des propriétés suivantes.

. X = ∅ ou il existe un point a ∈ Kn et un sous-espace vectoriel F ⊂ Kn tel que X = a+ F .

. Il existe m ∈ N, un point b ∈ Km et une application linéaire f : Kn → Km telle que X = f−1(b).. Pour tout choix de deux points distincts dans X la droite passant par ces points est dans X .

Remarque. — Un sous-ensemble X ⊂ Kn qui vérifie ces propriétés est appelé un sous-espace affine.

b

b

a

x

v

X

F

Exercice ..

Tout point du plan est coloré par une seule couleur de telle manière que toutes les droites du plan sontunicolores ou bien bicolores. Quel est le nombre maximum de couleurs pouvant être utilisées ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Dans la pratique un sous-espace vectoriel de Rn est souvent donné sous l’une des deux formes suivantes :

comme espace de solutions d’un système linéaire homogène,

comme sev engendré par un famille de vecteurs.

Le but de l’exercice est de passer d’une forme à l’autre.

. On note F ⊂ R5 l’espace de solutions du système§x − 3y − 2z + s − 2t = 0−2x + 5y + z − s + 5t = 0

Trouver des vecteurs v1, . . . , vp ∈ R5 tels que F est le sev de R5 engendré par v1, . . . , vp.

. On note F le sev engendré par les vecteurs v1 = (−1, 3, 4, 0, 2) et v2 = (0, 1, 2,−1, 0). Trouver unsystème linéaire homogène dont F est l’espace de solutions.

Exercice ..

On note F le sous-espace vectoriel de R4 engendré par les vecteurs (−2, 4, 0, 2) et (3,−7, 2,−3). Trouverun système linéaire dont F est l’espace de solutions.

Exercice ..

Soient E = CN etF = u = (un)n∈N | sup

n∈N

n

È|un| < +∞.

Montrer que F est un sev de E.Indication : On appliquera correctement l’inégalité triangulaire pour la valeur absolue.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

.. Réponses aux tests

.. Pour la première, la réponse est oui (prendre(x, y) 7→ (x, 0)). Pour la seconde, la réponse est non. En effet,pour toute application linéaire f , on a f(−u) = −f(u), doncl’image du cercle devrait être symétrique par rapport à 0.

..1 0 −12 1 0

..

a. Vrai, par exemple (x, y) 7→ (x, y, 0).

b. Vrai, par exemple (x, y, z) 7→ (x, y). .

c. Faux, car sa matrice devrait être inversible, donc enparticulier une matrice carrée.

.. Ker(A) est la droite d’équation x+ 2y = 0 dans le pland’équation z = 0 ; ou encore c’est l’espace vectoriel engendrépar le vecteur (2,−1, 0).

Im(A) est le plan engendré par les vecteurs (1, 4, 0) et(0, 0, 1) ; autrement dit, c’est le plan d’équation 4x− y = 0.

.. Vrai.

..

a. Faux. Si Ker(A) = 0 alors bA est injective, donc on aurait3 6 2.

b. Impossible ! Car le noyau contient toujours le vecteur nul.

c. Vrai, prendre A = 0.

d. Faux car bA : K2 → K3 ne peut être surjective.

.. Faux.

.. Vrai.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

. Oui.

. Non. Prenons par exemple A =

0 0 11 2 21 2 3

. Si

on commence la procédure en permutant les deuxpremières lignes on obtient la matrice échelonnée

1 2 20 0 10 0 0

; mais si on commence en permutant la

première et la dernière ligne on trouve

1 2 30 0 10 0 0

.

. Oui. Notons k1 < k2 < · · · < kr les indices descolonnes à pivots de A′ et j1 < · · · < jn−r les in-

dices des autres colonnes. Considérons le systèmeAx = 0. On peut exprimer xk1 , . . . , xkr en fonc-tion de xj1 , . . . , xjn−r . Pour tout p ∈ J1, rK l’ex-pression de xkp en fonction de xj1 , . . . , xjn−r estdonnée par les coefficients dans la kp-ième lignede A′. Or cette expression est unique car Ker(A)est le graphe d’une application linéaire de l’espacedes xj1 , . . . , xjn−r vers l’espace des xk1 , . . . , xkr et,en général, une application est entièrement déter-minée par son graphe.

Solution ..

. Un vecteur (x, y, z) appartient au noyau de Φ siet seulement si ,

y − z = x+ z = x+ y + z = x− y − z = 0,

i.e. x = y = z = 0. Ainsi Ker(Φ) = 0 et Φ estinjective.

. D’après le théorème du rang, dim Im(Φ) = 3,donc Im(Φ) est un sous-espace vectoriel strict deR4 : Φ n’est pas surjective.

. Posons u = Φ(e1) = (1, 0, 1, 1), v = Φ(e2) =(0, 1, 1,−1) etw = Φ(e3) = (1,−1, 1,−1). (u, v, w)est une base de Im(Φ) puisque Φ est injective.

Solution ..

1)⇒ 2) SiX est vide, alors f : Kn → K, v 7→ 0, estune application linéaire telle que X = f−1(1).Maintenant supposons queX = a+F avec a ∈ Kn

et F ⊂ Kn est un sous-espace vectoriel. D’après laproposition .. il existe une application linéairef : Kn → Km telle que F = Ker(f). Posonsb = f(a) et montrons que X = f−1(b). Soitx ∈ X . Alors il existe w ∈ F tel que x = a + w,d’où f(x) = f(a) + f(w) = b ce qui prouve quex ∈ f−1(b). Réciproquement soit x ∈ f−1(b).Alors f(x − a) = f(x) − f(a) = b − b = 0 ce quimontre que x = a+ (x− a) ∈ a+ F .

2)⇒ 3) Supposons que X = f−1(b) avec f :Kn → Km linéaire et b ∈ Km. Si X = ∅ il n’ya rien à démontrer. Fixons donc un point a ∈ X .Comme ci-dessus on montre que X = a+Ker(f).Puisque Ker(f) est un sous-espace vectoriel deKn, il contient pour tout choix de deux points dis-tincts dans X la droite passant par ces points. Évi-demment cette propriété est conservée par trans-

lation et tient aussi pour X = a+Ker(f).

3)⇒ 1) On suppose la propriété 3). Alors elletient aussi pour l’ensemble

F = X − a = v ∈ Kn | ∃x ∈ X, v = x− a ,

où a est un point arbitrairement fixé dans X . (S’iln’y en a pas alors X = ∅ et c’est fini.) Tout ce quireste à prouver est que F est un sous-vectoriel deKn. Il est clair que 0 = a− a ∈ F . Soit λ ∈ K et v ∈ F . Alors λv ∈ F car c’est surla droite passant par 0 et v. Soit u, v ∈ F . Alors 1

2(u + v) ∈ F car c’est sur

la droite passant par u et v. Par la preuve ci-dessuson a alors u+ v = 2

12(u+ v)

∈ F .

Remarque. — Nous avons utilisé le fait que2 6= 0. En fait, sur le corps F2 = Z/2Z lapropriété 3) ne caractérise plus les sous-espacesaffines. Par exemple dans F

22 la partie X =

(0, 1), (1, 1), (1, 0) satisfait 3) mais pas 1).

Solution ..

Le nombre maximal est trois.

Preuve. Il est clair que ça marche avec une seulecouleur. Prenons donc le cas où n > 1 couleurssont utilisées. Fixons deux couleurs parmi elles, di-sons noir et rouge, et notons X la partie du planétant noire ou rouge. Alors X vérifie la propriété

3) de l’exercice précédent, et est ainsi un sous-espace affine du plan P . On en déduit que ou bienX = P , ou bien X est une droite ; dans le pre-mier cas la preuve est terminée, dans le second casil existe une troisième couleur, disons jaune.Si tout P−X est jaune, c’est terminé (et le nombre

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

maximal proposé est atteint). Sinon il existe unequatrième couleur, disons bleu. Alors la partie Ydu plan qui est jaune ou bleue est une droite quidoit être parallèle à X . Ainsi dans P − (X ∪ Y ) il

existe une cinquième couleur. En reliant un pointde X avec un point de Y on trouve trois points ali-gnés de couleurs distinctes, contradiction.

Solution ..

. Par un seul pivot de Gauss le système de l’énoncé est équivalent à§x − 3y − 2z + s − 2t = 0− y − 3z + s + t = 0

On le résoud en commençant par la deuxième ligne :

(∗)§x = −7z + 2s+ 5ty = −3z + s+ t

Ainsi l’espace de solutions est

F =

8>><>>:−7z + 2s+ 5t−3z + s+ t

zst

z, s, t ∈ R

9>>=>>; =

8>><>>:z−7−3100

+ s

21010

+ t

51001

z, s, t ∈ R

9>>=>>; .

Autrement dit, F = vect(v1, v2, v3) où on a posé

v1 =

−7−3100

, v2 =

21010

, v3 =

51001

.

Remarque – Cette famille génératrice (v1, v2, v3) de F n’est pas unique. Dans (∗) nous avons isolé x et y ; si onisole deux autres coordonnées on obtient, très probablement, une autre famille génératrice de F .

. Un vecteur (x, y, z, s, t) ∈ R5 est dans F si et seulement si il existe des réels α, β tels que

α

13402

+ β

012−10

=

xyzst

.

Ainsi (x, y, z, s, t) est dans F si et seulement si le système ayant la matrice suivante possède une solution.Méthode du pivot de Gauss. . .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices−1 0 x

3 1 y

4 2 z

0 − 1 s

2 0 t

←−

×3

+

←−−−−−

×4

+

←−−−−−−−−−

×2

+−1 0 x

0 1 3x+ y

0 2 4x+ z

0 − 1 s

0 0 2x+ t

←−

×(−2)

+

←−−−−−−−+−1 0 x

0 1 3x+ y

0 0 − 2x− 2y + z

0 0 3x+ y + s

0 0 2x+ t

On conclût que F est l’espace de solutions du système linéaire homogène à cinq inconnues(−2x− 2y + z = 0

3x+ y + s = 02x+ t = 0

Remarque – Ce système n’est pas unique. Si on commence par un autre pivot, on obtient très probablement unautre système – mais il sera équivalent, i.e., son espace de solutions sera encore F .

Solution ..

Soit (x, y, z, t) ∈ R4. On a

(x, y, z, t) ∈ F ⇐⇒ ∃ α, β ∈ R : α

−2402

Ǒ+ β

3−72−3

Ǒ=

xyzt

Ǒ⇐⇒ Il existe une solution du système linéaire

−2 3 x4 −7 y0 2 z2 −3 t

Ǒ⇐⇒ Il existe une solution du système linéaire

−2 3 x0 −1 2x+ y0 2 z0 0 x+ t

Ǒ⇐⇒ Il existe une solution du système linéaire

−2 3 x0 −1 2x+ y0 0 4x+ 2y + z0 0 x+ t

Ǒ⇐⇒

4x+ 2y + z = 0

x+ t = 0

Cela prouve que F est l’espace de solution du système linéaire homogène 4x+ 2y + z = x+ t = 0.

Remarque –Si on commence par un autre pivot, on obtient très probablement un autre système équivalent, i.e.,son espace de solutions est également F .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Applications linéaires de Kn dans Km

Solution ..

F 6= ∅ car F contient la suite nulle.

Soient u = (un)n∈N ∈ F et λ ∈ C. Comme

∀n ∈ N, n

È|λun| = |λ|1/n n

È|un|,

on a

supn∈N

n

È|λun| = |λ|1/n sup

n∈N

n

È|un| < +∞

et donc λu ∈ F .

Soient u = (un)n∈N ∈ F et v = (vn)n∈N ∈ F .Notons

w = u+ v = (wn)n∈N.

D’après la formule du binôme, on a :

(|un|1/n + |vn|1/n)n > |un|+ |vn|

et donc, par l’inégalité triangulaire et la croissantede la fonction « racine n-ième sur R+ » :

|wn|1/n 6 (|un|+ |vn|)1/n 6 |un|1/n + |vn|1/n

ainsi|wn|1/n < +∞

et w ∈ F .

Conclusion : F est un sev de E.

Université Paris Sud agreg 2012 - 2013

Espaces vectoriels et applications linéaires

APRÈS avoir traité en détail le cas de l’espace canonique, nous allons généraliser les notionsintroduites dans les chapitres précédents. Mais pourquoi ne pouvons-nous nous contenterde nos calculs explicites dans Kn ?

Le développement de l’algèbre linéaire relève de ce que l’on appelle l’abstraction mathématique :plutôt que de refaire les mêmes preuves dans chaque situation rencontrée, il est intéressant derassembler toutes ces situations et d’en abstraire une notion générale qui pourra se spécialiserdans chaque cas. Le gain évident en est que les preuves sont faites une fois pour toutes, l’autreintérêt étant que l’abstraction épure les preuves de leurs contingences, et qu’ainsi il est plus facilede comprendre comment elles fonctionnent : la notion générale peut alors devenir objet d’étudeen soi et permet d’aller plus loin.Mais il n’est pas simple d’abstraire une notion mathématique. C’est un acte de création au mêmetitre qu’un philosophe crée des concepts ou qu’un compositeur compose une musique. Et ce n’estpas arbitraire, cela répond à une problématique .

.. K-espaces vectoriels et K-algèbres

... Le point de vue axiomatique

Longtemps les mathématiciens ont calculé sans avoir besoin de formaliser la notion explicite d’es-pace vectoriel parce qu’ils manipulaient des objets particuliers, représentés dans des systèmes decoordonnées. Mais certains espaces ne se présentent pas avec un système de coordonnées privi-légié. C’est le cas notamment des espaces de fonctions. Par exemple, si l’on considère l’ensembleC (R) des fonctions continues de R dans R, la somme de deux fonctions continues ou le produitd’une fonction continue par un nombre réel ont un sens, et pourtant, il n’existe pas de système decoordonnées naturel sur C (R).Le point de vue axiomatique opère un renversement dans la définition d’un espace vectoriel. Aulieu de le définir par l’existence d’un système de coordonnées, on modélise un espace vectorielpar les règles que doivent suivre les calculs possibles en son sein. Il s’agit donc de répondre à laquestion suivante : si on veut manipuler des objets quelconques qui peuvent s’additionner et êtremultipliés par des scalaires, sans avoir recours à un système de coordonnées particulier, quellessont les règles qu’il faut respecter au minimum pour que cela soit raisonnable ?

... Les axiomes d’un espace vectoriel

Les mathématiciens ont fait le pari que les huit axiomes de la définition d’espace vectoriel ci-dessous répondent à la question. Ces axiomes ne tombent pas du ciel. Il faut bien comprendrequ’ils n’expriment pas les conditions a priori de tout calcul possible, mais au contraire les condi-tions a posteriori de tout calcul que l’histoire des mathématiques a retenues. Ils doivent donc être

. Dans ce sens, une abstraction mathématique est toujours littéralement concrète.

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

compris comme un cahier des charges minimal pour que les calculs soient raisonnables. Ils sontbien évidemment calqués sur les huit règles (voir ..) que nous avions énoncées dans Kn.

Définition ..

Un K-espace vectoriel ou espace vectoriel sur K est un ensemble E muni de deux lois,

une loi interne, notée + : E × E → E , (u, v) 7→ u+ v ;une loi externe, notée · : K× E → E , (λ, u) 7→ λ · u

telles que les huit axiomes suivants soient vérifiés.

EV1 : ∀ (u, v) ∈ E2 , u+ v = v + uEV2 : ∀ (u, v, w) ∈ E3 , (u+ v) +w = u+ (v + w)EV3 : ∃ 0 ∈ E , ∀ v ∈ E , v + 0 = vEV4 : ∀ v ∈ E ∃ − v ∈ E , v + (−v) = 0EV5 : ∀ v ∈ E , 1 · v = vEV6 : ∀ v ∈ E , ∀ (λ, µ) ∈ K2 , λ · (µ · v) = (λµ) · vEV7 : ∀ v ∈ E , ∀ (λ, µ) ∈ K2 , (λ+ µ) · v = λ · v + µ · vEV8 : ∀ (u, v) ∈ E2 , ∀λ ∈ K , λ · (u+ v) = λ · u+ λ · v.

On appelle les éléments de E les vecteurs, et les éléments de K les scalaires.

Remarque..

⋄ Les quatre premiers axiomes ne concernent que la loi interne. Ils expriment que (E,+) est ungroupe abélien.⋄ Quand on munit un ensemble d’une structure comportant plusieurs lois, on impose des condi-

tions de compatibilité. C’est un fait très général. Les axiomes EV7 et EV8 expriment la compa-tibilité de la loi · avec la loi +, l’axiome EV6 exprime la compatibilité entre la loi · et la multipli-cation dans le corps K.⋄ Tout C-espace vectoriel est aussi un R-espace vectoriel. En effet, R est un sous-corps de C ;

donc si les axiomes EV5 à EV8 sont vérifiés pour les scalaires complexes, ils le sont a fortioripour les scalaires réels. De même, tout R-espace vectoriel est aussi un Q-espace vectoriel. Cetterestriction du corps des scalaires n’est pas à confondre avec la notion d’un sous-espace vectorieloù on restreint l’ensemble des vecteurs.⋄ Nous n’utilisons pas la flèche #–v pour les vecteurs, car le contexte permettra toujours de dis-

tinguer les vecteurs des scalaires. Dans ce chapitre, la plupart des vecteurs portent des lettreslatines b, f, g, u, v, w, . . . et les scalaires des lettres grecques α, λ, µ, ξ, . . .⋄ Le symbole 0 peut désigne différents objets : le vecteur nul de l’espace vectoriel E, le scalaire

nul dans K et même l’espace nul 0. Par exemple, dans la formule 0 · v = 0, où v ∈ E, le zéroà gauche désigne le scalaire nul, tandis que le zéro à droite désigne le vecteur nul. On peut lepréciser en écrivant 0K ·v = 0E , mais très souvent nous ne le ferons pas, car le contexte indiquetoujours de quel zéro il s’agit.

Nous démontrons maintenant deux autres règles de calcul. Ces dernières pouvant se déduire deshuit règles de la définition, elles n’ont pas le statut d’axiome.

Règle .. Soit E un K-espace vectoriel, v ∈ E et λ ∈ K. Alors on a1) λ · v = 0 si et seulement si λ = 0K ou v = 0E ;2) (−1) · v = −v .

Preuve.1) Dans le chapitre sur les groupes, on a vu que dans le groupe (E,+), l’équation u + u = u a

pour unique solution u = 0E . Nous allons utiliser ce fait.(⇐) On a 0K · v + 0K · v = (0K + 0K) · v = 0K · v d’après l’axiome EV7 . Donc 0K · v = 0E .D’autre part, λ · 0E + λ · 0E = λ · (0E + 0E) = λ · 0E d’après l’axiome EV8 . Donc λ · 0E = 0E .(⇒) Inversement on suppose que λ · v = 0E et λ 6= 0K. On doit montrer que v = 0E . Enutilisant EV5, EV6 et la direction (⇐) qu’on vient de prouver, on calcule :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com K-espaces vectoriels et K-algèbres

v = 1 · v = (λ−1λ) · v = λ−1 · (λ · v) = λ−1 · 0E = 0E .

2) On a v+(−1) ·v = 1 ·v+(−1) ·v = (1+(−1)) ·v = 0K ·v = 0E , en vertu des axiomes EV5,EV7et du point 1) démontré ci-dessus. Ainsi (−1) · v est bien l’opposé de v dans le groupe (E,+).

Lors de nos calculs dans Kn, nous avons à de nombreuses reprises utilisé ces règles sans nous enrendre compte. En effet, dans Kn, ces règles étaient des propriétés immédiates des n-uplets et nenécessitaient pas de démonstration.Notation. Nous noterons désormais λv au lieu de λ · v, et u− v au lieu de u+ (−v).

... Les axiomes d’une algèbre

De même que la définition générale d’un espace vectoriel était induite des propriétés de Kn, ladéfinition d’une algèbre s’appuie sur l’exemple de Mn(K). Une algèbre est un espace vectorieldans lequel les vecteurs peuvent aussi se multiplier entre eux. Nous rajoutons donc une loi in-terne multiplicative à la structure d’espace vectoriel. Comme toujours, nous obtenons ainsi unestructure intéressante uniquement si des conditions de compatibilité sont satisfaites.

Définition ..

Une K-algèbre est un K-espace vectoriel A, muni d’une

multiplication interne × : A× A → A , (u, v) 7→ u× v ,telle que les quatre axiomes suivants soient vérifiés :

AL1 : ∀ (u, v, w) ∈ A3 , w × (u× v) = (w × u)× vAL2 : ∀ (u, v) ∈ A2 , ∀λ ∈ K , λ(u× v) = (λu)× v = u× (λv)AL3 : ∃ 1 ∈ A , ∀u ∈ A , u× 1 = 1× u = u

AL4 : ∀ (u, v, w) ∈ A3 ,

§w × (u+ v) = w × u+ w × v(u+ v)× w = u× w + v × w

La K-algèbre A est commutative si u× v = v × u pour tous u, v ∈ A.

En somme, une K-algèbre est à la fois un K-espace vectoriel et un anneau, avec une condition decompatibilité des multiplications dans l’anneau et dans K, donnée par l’axiome AL2. Le vecteur1 du troisième axiome est appelé unité. Certains auteurs n’exigent pas son existence et appellentnotre algèbre une algèbre avec unité, ou encore une algèbre unitaire.Notation.⋄ Pour distinguer le vecteur 1 de A du scalaire 1 de K, on peut écrire 1A et 1K.⋄ Souvent on écrira uv au lieu du produit u × v si le contexte est suffisamment clair pour savoir

de quelle multiplication il s’agit.⋄ Comme toujours quand il y a associativité, on peut supprimer des parenthèses et noter uvw =(uv)w = u(vw) et λuv = λ(uv) = (λu)v.

Règle .. Pour tout vecteur v de l’algèbre A , on a v × 0A = 0A × v = 0A .

Preuve. On a v×0A = v×(0A+0A) = v×0A+v×0A , donc v×0A = 0A . La formule 0A×v = 0Ase démontre de manière analogue.

Tests

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

.. Soit E un K-espace vectoriel. Que penser des égalitéssuivantes ?

λv | λ ∈ K, v ∈ E = K × E ,

u + v | (u, v) ∈ E2 = E.

.. Soit K l’un des trois corps Q,R ou C. Démontrer que l’espacenul est le seul K-espace vectoriel de cardinal fini.

.. Lequel des huit axiomes de la définition .. empêchel’ensemble vide d’être un espace vectoriel ?

.. Montrer que dans une algèbre A, on a 1A = 0A si etseulement si A = 0.

.. Montrer que l’unité d’une algèbre est unique.

.. Quels couples de lois font de R2 un R-espace vectoriel ?

a.

n(x, y) + (x′, y′) = (x+ x′, y + y′),

λ · (x, y) = (0, λy).

b.

n(x, y) + (x′, y′) = (0, 0),

λ · (x, y) = (λx, λy).

c.

n(x, y) + (x′, y′) = (0, 0),

λ · (x, y) = (0, 0).

d.

n(x, y) + (x′, y′) = (x + y′, y + x′),

λ · (x, y) = (λx, λy).

e.

n(x, y) + (x′, y′) = (2x+ 2x′, y + y′),

λ · (x, y) = (λx, λy).

f.

n(x, y) + (x′, y′) = (x+ x′, y + y′),

λ · (x, y) = (x, y).

... Exemples d’espaces vectoriels

L’espace canonique Kn est bien sûr un K-espace vectoriel. En voici d’autres.

⋄ L’espace nul 0 qui ne contient que le vecteur nul est le plus petit espace vectoriel possible. Onle note souvent simplement 0 au lieu de 0.⋄ Le corps K est un K-espace vectoriel : c’est l’espace canonique Kn avec n = 1.

⋄ Les translations dans le plan forment un R-espace vectoriel.

⋄ L’espace K[X ] des polynômes est un K-espace vectoriel.

⋄ Le corps K(X) des fractions rationnelles est un K-espace vectoriel.

⋄ Pour tout ensemble J non vide, et pour tout K-espace vectoriel E, l’ensemble EJ des applica-tions définies sur J à valeurs dans E est un K-espace vectoriel. Les vecteurs de cet espace sont lesapplications de J dans E, soit encore les familles (xj)j∈J d’éléments de E indexées par J . L’addi-tion de deux vecteurs de cet espace et la multiplication par les scalaires sont définies composantepar composante, c’est-à-dire que, pour (xj)j∈J et (yj)j∈J dans EJ , et pour λ ∈ K

(xj)j∈J + (yj)j∈J := (xj + yj)j∈J et λ · (xj)j∈J := (λxj)j∈J .

La vérification des huit axiomes ne pose aucun problème car elle se ramène sur chaque compo-sante aux règles afférentes dans E. Écrites avec des applications, les lois de EJ sont définies pourf : J → E et g : J → E et pour λ ∈ K par

∀x ∈ J, (f + g)(x) := f(x) + g(x) et (λ · f)(x) := λf(x).

Si on choisit E = K dans le dernier exemple, nous obtenons l’espace KJ des fonctions de J dansK. Pour des choix particuliers de J , nous retrouvons des espaces bien familiers.

⋄ L’espace Kn = K1,...,n.

⋄ L’espace KN des suites à valeurs dans K.

⋄ L’espace des matrices Mmn(K) = K1,...,m×1,...,n .

⋄ L’espace RI des fonctions réelles définies sur un intervalle I ⊂ R.

En somme, l’espace KJ est le prototype de nombreux espaces vectoriels. On peut alors construirebeaucoup d’autres exemples à partir de ceux-là, notamment en utilisant les trois opérations sui-vantes.⋄ Prendre un produit d’espaces vectoriels (voir p.).⋄ Prendre un sous-espace d’un espace vectoriel (voir p.).⋄ Prendre le quotient d’un espace vectoriel par un sous-espace.En tant que brique élémentaire de ce jeu de construction, l’espace KJ porte encore le nom d’espacecanonique.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com K-espaces vectoriels et K-algèbres

... Exemples d’algèbres

L’exemple fondamental est l’algèbre Mn(K), avec pour loi interne multiplicative la multiplicationmatricielle, dont l’élément neutre est la matrice identité In. Pour n > 1, elle est non commutative(voir ..). Voici d’autres exemples importants d’algèbre.

⋄ Le corps K est une K-algèbre commutative.

⋄ K[X ] est une K-algèbre commutative, d’unité le polynôme constant de valeur 1.

⋄ K(X) est une K-algèbre commutative, d’unité la fraction constante de valeur 1.

⋄ KJ est une K-algèbre commutative. La multiplication interne est définie composante par com-posante pour (xj)j∈J et (yj)j∈J dans KJ par

(xj)j∈J × (yj)j∈J := (xjyj)j∈J .

L’élément neutre est la famille constante de valeur 1. La vérification des axiomes de K-algèbrene pose aucun problème car elle se ramène sur chaque composante aux règles afférentes dans K.Écrit avec des fonctions à valeurs dans K, le produit est défini pour f : J → K et g : J → K par

∀x ∈ J, (f × g)(x) := f(x)g(x).

Notons qu’en tant qu’espace vectoriel, l’espace Mn(K) peut s’identifier à K1,...,n2

, mais ce n’estpas le cas en tant qu’algèbre. En effet, pour n > 1, la multiplication matricielle dans Mn(K) estnon commutative et n’a donc rien à voir avec la multiplication composante par composante deK1,...,n2

.

Remarque.. Les conditions de compatibilité sont critiquesUne multiplication interne naturelle sur un espace vectoriel ne définit pas nécessairement unealgèbre.

⋄ L’espace canonique R3 muni du produit vectoriel défini pour tous (x, y, z) et (x′, y′, z′) dans R3

par(x, y, z) ∧ (x′, y′, z′) = (yz′ − zy′, zx′ − xz′, xy′ − yx′) (.)

n’est pas une algèbre. Géométriquement le produit vectoriel donne un vecteur orthogonal auxdeux facteurs. Montrons que ce produit n’est pas associatif. Pour les vecteurs e1, e2, e3 de la basecanonique de R3 un calcul direct montre que (e1∧e2)∧e2 = e3∧e2 = −e1, alors que e1∧(e2∧e2) =0.

⋄ Considérons sur RR la composition des fonctions, notée . Cette loi est associative et possèdeidR comme élément neutre. Mais elle ne fait pas de RR une algèbre car en général

w (u+ v) 6= w u+ w v . (.)

L’algèbre K[[X]] des séries formelles

Donnons un dernier exemple d’algèbre. Une série formelle à coefficients dans K est une suite a :N→ K, k 7→ ak. On la note généralement comme une somme formelleX

k∈N

akXk,

sans faire intervenir de notion de convergence. Le symbole X correspond à la suite (0, 1, 0, 0, . . .).On appelle X l’indéterminée et on note K[[X ]] l’ensemble des séries formelles à coefficientsdans K.Les séries formelles complètent en quelque sorte l’algèbre des polynômes. Plus précisément, unpolynôme est une série formelle dont tous les coefficients sont nuls à partir d’un certain rang

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

(l’indice du dernier coefficient non nul étant le degré du polynôme). Pour définir l’addition etla multiplication de deux séries, ainsi que la multiplication par un scalaire, on s’inspire des loisconnues pour les polynômes en posantX

k∈N

akXk +

Xk∈N

bkXk :=

Xk∈N

(ak + bk)Xk ; λ ·

Xk∈N

akXk :=

Xk∈N

(λak)Xk ; X

k∈N

akXk

!× X

k∈N

bkXk

!:=Xk∈N

kX

ℓ=0

aℓbk−ℓ

!Xk .

Alors K[[X ]] est une K-algèbre commutative. Son élément unité est la série 1, c’est-à-dire la sériecorrespondant à la suite (1, 0, 0, . . .). La vérification des axiomes d’algèbre et de la commutativitéfait l’objet du test ...Expliquons le choix du terme de « série formelle ». A priori, une série formelle n’est pas un objetplus formel qu’un polynôme qui contient également le symbole X . Or il y a une grande diffé-rence : dans un polynôme, la fonction de l’indéterminée X est de représenter potentiellement toutequantité algébrique qui pourrait lui être substituée. Par exemple, X peut être remplacé par unnombre, mais aussi par un autre polynôme ou même par une matrice carrée. Plus généralement,si A est une K-algèbre et si P =

Ppk=0 akX

k est un polynôme dans K[X ], alors nous avons l’ap-plication polynomiale associée définie sur A par

A −→ A , x 7−→ P (x) =

pXk=0

akxk , (.)

avec pour convention que x0 = 1A pour tout x ∈ A. En revanche, dans une série formelle, la seulequantité qui peut être substituée à X avec certitude est l’élément nul. Par exemple, considéronsla série formelle

P =Xk∈N

Xk

k!

dite « exponentielle ». Par quoi pouvons-nous remplacer X ? Si nous ne voulons pas utiliser denotion de convergence, il nous faut substituer une quantité dont la puissance s’annule à partird’un certain rang. Ainsi, dans le cas où X devient une matrice, elle doit être nilpotente.On emploie généralement des séries formelles quand on veut formaliser un raisonnement sur unesérie pour laquelle la question de la convergence n’importe pas ou est écartée en une premièreanalyse. C’est en ce sens qu’une série formelle est plus « formelle » qu’un polynôme. Les sériesformelles peuvent aussi servir à coder une information qui peut se lire convenablement commeune série tronquée en un polynôme de degré arbitraire ; c’est le cas par exemple des séries deTaylor ou des développements asymptotiques, ou encore des séries génératrices en combinatoire.

Tests

.. L’espace vectoriel R2 muni de la multiplication internedéfinie par la formule

(x, y)(x′, y′) = (xx′ − yy′, xy′ + yx′)

est-il une R-algèbre ?

.. Démontrer que la multiplication interne dans K[[X]] estcommutative et associative.

..

a. Le produit vectoriel défini par l’équation (.) possède-t-il unélément neutre ?

b. Trouver un exemple concret pour l’inéquation (.).

.. Soit P = 2 + X2. Calculer l’image de

1 10 1

par

l’application M2(R) → M2(R) associée à P selon la formule(.).

... Sous-espaces vectoriels et sous-algèbres

Université Paris Sud agreg 2012 - 2013

www.mathoman.com K-espaces vectoriels et K-algèbres

Définition ..

Un sous-espace vectoriel (s.e.v.) d’un espace vectoriel E est un sous-ensemble non vide F ⊂ E stable par additionet multiplication par les scalaires, c’est-à-dire que

∀ (u, v) ∈ F 2, ∀λ ∈ K, u+ v ∈ F et λ · v ∈ F .Autrement dit, les deux lois sur E peuvent se restreindre en deux lois sur F .

Ainsi prendre des combinaisons linéaires dans un sous-espace vectoriel fixé F ⊂ E ne fera jamaissortir de ce sous-espace vectoriel. Nous pouvons donc considérer les deux opérations

+ : F × F → F, (u, v) 7→ u+ v , · : K× F → F, (λ, u) 7→ λu ,

restrictions des opérations correspondantes dans E. Adoptons momentanément un point de vueintrinsèque : si E est un K-espace vectoriel et si F est un sous-espace vectoriel de E, alors Fest un K-espace vectoriel. En effet, les deux lois sur E induisent deux lois sur F qui vérifientimmédiatement les huit axiomes de la définition ...Si F est un sous-espace vectoriel de E et si G est un sous-espace vectoriel de F , alors G est unsous-espace vectoriel de E. Évidemment, la relation d’inclusion définit ainsi une relation d’ordresur l’ensemble des sous-espaces vectoriels d’un espace vectoriel E fixé.

Règle .. Soit F une partie d’un espace vectoriel E.1) Si F est un sous-espace vectoriel, alors 0 ∈ F .2) F est un s.e.v. si, et seulement si, F 6= ∅ et λu + µv ∈ F pour tous u, v ∈ F et λ, µ ∈ K.3) F est un s.e.v. si, et seulement si, F 6= ∅ et λu + v ∈ F pour tous u, v ∈ F et λ ∈ K.

Voici quelques exemples.

⋄ L’ensemble Kn[X ] des polynômes de degré au plus n est un sous-espace vectoriel de K[X ]. Celarésulte de la formule deg(P +Q) 6 max(deg(P ), deg(Q)).

⋄ K[X ] est un sous-espace vectoriel de l’espace K[[X ]] des séries formelles.

⋄ Soit I ⊂ R un intervalle et k ∈ N∪ ∞. Alors l’ensemble C k(I) est un sous-espace vectoriel del’espace canonique RI . En effet, la fonction nulle est de classe C k, et toute combinaison linéairede fonctions de classe C k est aussi de classe C k.

⋄ De même, l’ensemble des suites réelles convergentes est un sous-espace vectoriel de RN.

Remarque..Chaque espace vectoriel E a « son » espace nul 0E. Ainsi il y a autant d’espaces nuls que d’es-paces vectoriels. Cependant, on parle toujours de « l’espace nul ». L’espace nul et E sont deuxsous-espaces vectoriels de E ; on les appelle les sous-espaces triviaux. Un sous-espace vectoriel strictest un sous-espace vectoriel F tel que F & E.

Lemme .. L’intersection d’une famille de sous-espaces vectoriels d’un espace vectoriel E est unsous-espace vectoriel de E.

Preuve. Soit (Fj)j∈J une famille de sous-espaces vectoriels de E. Notons F =T

j∈J Fj leurintersection. Nous constatons que le vecteur nul est dans F car chacun des Fj le contient. Soit(u, v) ∈ F 2, (λ, µ) ∈ K2 et j ∈ J . Alors (u, v) ∈ F 2

j , donc λu + µv ∈ Fj car Fj est un sous-espacevectoriel. Comme cela est vrai pour tout j ∈ J , il en résulte que λu+ µv ∈ F .

On rappelle que l’union de sous-espaces vectoriels n’en est pas un en général (voir l’exemple..).

Tests

.. Prouver la règle ... .. Est-ce que Z est un sous-espace vectoriel de R ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Définition ..

Une sous-algèbre de A est un sous-espace vectoriel B ⊂ A qui contient l’unité 1A de A et qui est stable pour lamultiplication interne, c’est-à-dire que

∀(u, v) ∈ B2, u× v ∈ B.Autrement dit, la loi interne multiplicative peut aussi se restreindre à B.

Évidemment, comme dans le cas des espaces vectoriels, les lois d’une algèbre A induisent surune sous-algèbre B une structure d’algèbre. C’est la raison pour laquelle nous avons exigé que Bcontienne l’unité de A. Voici quelques exemples.

⋄ K[X ] est une sous-algèbre de K[[X ]].

⋄ Kn[X ] n’est pas une sous-algèbre de K[X ] (si n > 0).

⋄ C k(I) est une sous-algèbre de RI . En effet, c’est un sous-espace vectoriel, la fonction constanteégale à 1 est de classe C k, et en analyse nous apprenons que le produit de deux fonctions de classeC k est aussi de classe C k.

⋄ De même, l’ensemble des suites réelles convergentes est une sous-algèbre de RN.

Tests

.. Dans RR on considère les sous-ensembles formés par les

a. fonctions polynomiales ;

b. fonctions en escalier ;

c. fonctions f dont 1 est une période ;

d. fonctions f telles que f(1) = 0 ;

e. fonctions f telles que f(0) = 1 ;

f. fonctions monotones ;

g. fonctions à support borné (nulles en dehors d’un segment) ;

h. fonctions ayant +∞ ou −∞ pour limite en +∞ ;

i. fonctions affines.

Dans chaque cas, indiquer s’il s’agit d’un sous-espace vectoriel oumême d’une sous-algèbre de RR.

.. Dans RN, on considère les sous-ensembles formés par les

a. suites de limite nulle ;

b. suites majorées ;

c. suites bornées ;

d. suites arithmétiques ;

e. suites géométriques ;

f. suites périodiques ;

g. suites de Fibonacci, c’est-à-dire telles queun+2 = un+1 + un, ∀n ∈ N ;

h. suites positives.

Dans chaque cas, indiquer s’il s’agit d’un sous-espace vectoriel oumême d’une sous-algèbre de RN.

... Produit d’espaces vectoriels

Dans cette partie, nous introduisons un premier procédé pour construire d’autres exemples d’es-paces vectoriels à partir d’exemples connus. Nous avons déjà rencontré le cas particulier de l’es-pace EJ pour un espace vectoriel E donné.

Proposition .. Soit J un ensemble non vide et (Ej)j∈J une famille de K-espaces vectoriels. Onnote Y

j∈J

Ej

l’ensemble de toutes les familles (uj)j∈J telles que uj ∈ Ej pour tout j ∈ J , que l’on munit de deux loiscomme suit :

loi interne : (uj)j∈J + (vj)j∈J = (uj + vj)j∈J ,loi externe : λ · (uj)j∈J = (λuj)j∈J .

Preuve. La vérification des huit axiomes s’effectue composante par composante, en utilisant lesaxiomes correspondants de chaque espace vectoriel Ej . Montrons le premier axiome, c’est-à-direla commutativité de l’addition dans

Qj∈J Ej . Soit (uj)j∈J , (vj)j∈J ∈

Qj∈J Ej . Pour tout j ∈ J ,

on a l’équation uj + vj = vj + uj dans l’espace vectoriel Ej . Cela signifie que dansQ

j∈J Ej , on al’identité

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Applications linéaires

(uj)j∈J + (vj)j∈J = (vj)j∈J + (uj)j∈J .

Les autres axiomes se démontrent de manière analogue.

Explicitons quelques cas particuliers.

⋄ Famille finie : si J = 1, . . . , n, on noteQn

j=1 Ej = E1 × · · · × En .

⋄ Facteurs identiques :Yj∈J

E = EJ etnY

j=1

E =

n foisz | E × · · · × E = En .

⋄ Les facteurs identiques et égaux à K :Yj∈J

K = KJ etnY

j=1

K = Kn .

⋄ Si on écrit les vecteurs de Km en colonnes : (Km)n = Mmn(K) .

⋄ Si on écrit les vecteurs de Kn en lignes : (Kn)m = Mmn(K) .

Remarque..De la même manière, on a la notion de produit d’une famille d’algèbres en définissant la multi-plication interne « composante par composante ».

Tests

.. Soit E1, E2 des espaces vectoriels. Tout sous-espacevectoriel de E1 × E2 est-il de la forme F1 × F2 où F1 ⊂ E1 etF2 ⊂ E2 sont des sous-espaces vectoriels ?

.. Soit I, J deux ensembles quelconques non vides et E,Fdes espaces vectoriels. Les assertions suivantes sont-elles vraies,en général ?

a. EJ × F est un espace vectoriel.

b. JF × E est un espace vectoriel.

c. FE est un espace vectoriel.

d. (E × F )J est un espace vectoriel.

e. (EJ )I est un espace vectoriel.

f. E × F = F × E.

g. On peut identifier (E × F )J = EJ × FJ .

h. On peut identifier (EJ )I = EJ×I .

.. Applications linéaires

Au cours du XXe siècle, il s’est souvent avéré fructueux d’étudier un type d’objet mathématiquedonné non pas en considérant les objets eux-mêmes mais plutôt les applications définies entreces objets. Les objets qui nous intéressent ici sont les espaces vectoriels. Évidemment, nous n’al-lons pas considérer toutes les applications entre ces espaces – qui constitueraient un ensemblebeaucoup trop vaste pour refléter les structures des espaces considérés –, mais seulement cellesqui préservent la structure des espaces vectoriels, c’est-à-dire celles qui sont compatibles avec lescalculs dont nous avons fixé les règles.

... Applications linéaires. Morphismes d’algèbres

De la même manière qu’un morphisme de groupes conserve la loi de groupe, une applicationlinéaire – appelée aussi un morphisme d’espaces vectoriels – conserve les deux lois d’un espacevectoriel : l’addition interne et la multiplication externe.

Définition ..

Soit f : E → F une application entre K-espaces vectoriels. On dit que f est une application linéaire si

∀ (u, v) ∈ E2 , f(u+ v) = f(u) + f(v) ,∀ (λ, v)∈ K× E , f(λv) = λf(v) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

On remarque que dans l’égalité f(u + v) = f(u) + f(v) les deux signes + ne signifient pas lamême chose. En fait, u + v est une addition dans E, tandis que f(u) + f(v) est une additiondans F . Une observation similaire est valable pour l’égalité f(λv) = λf(v). Une application li-néaire bijective (resp. injective, resp. surjective) est appelée isomorphisme (resp. monomorphisme,resp. épimorphisme). Une application linéaire E → E, c’est-à-dire une application linéaire d’unespace vectoriel sur lui-même, est appelée endomorphisme ; un endomorphisme bijectif est appeléautomorphisme.Dans le chapitre précédent, nous avons étudié les applications linéaires Kn → Km définies par lesmatrices m× n. Voici d’autres exemples.

Exemple ..

⋄ Pour deux K-espaces vectoriels E,F , considérons les applications

E × F → E, (u, v) 7→ u et E → E × F, u 7→ (u, 0).

On les appelle projection naturelle deE×F surE et injection naturelle deE dansE×F ; elles sont linéaires etsurjective pour la première, injective pour la seconde. Il y a des applications analogues pour l’autre facteurF .

⋄ La dérivation K[X] → K[X] ,Pp

k=0akX

k 7→Pp

k=1kakX

k−1, est linéaire. Elle est surjective car toutpolynôme possède une primitive ; mais pas injective car les polynômes constants ont la même image.

⋄ L’application f : K[X]→ K[X] , P 7→ P 2, est non linéaire car f(2X) = (2X)2 6= 2X2 = 2f(X).

Si E,F sont des C-espaces vectoriels, alors ce sont aussi des R-espaces vectoriels. Il est nécessairede distinguer les morphismes entre E et F , en tant que C-espaces vectoriels, et les morphismesentre E et F , en tant que R-espaces vectoriels. Les premiers sont dits C-linéaires et les seconds R-linéaires. En tout état de cause, lorsqu’on parle d’application linéaire, l’espace de départ et l’espaced’arrivée sont supposés avoir le même corps de scalaires.

Règle .. Soit f : E → F une application entre espaces vectoriels.1) Si f est linéaire, alors f(0) = 0.2) f est linéaire si, et seulement si, f(λu+ µv) = λf(u) + µf(v) pour tous u, v ∈ E et λ, µ ∈ K.3) f est linéaire si, et seulement si, f(λu+ v) = λf(u) + f(v) pour tous u, v ∈ E et λ ∈ K.

Preuve. Identique à la preuve de ...

Morphisme d’algèbres

Lorsque les espaces vectoriels sont aussi des algèbres, il est naturel de considérer les applicationslinéaires qui conservent, en outre, la multiplication interne. On notera que l’on exige aussi que lesmorphismes d’algèbres préservent les unités.

Définition ..

SoitA,B deux K-algèbres. Un morphisme d’algèbres est une application linéaire f : A→ B telle que f(1A) = 1Bet telle que f(uv) = f(u)f(v) pour tout (u, v) ∈ A2.

Exemple ..

⋄ Pour toute K-algèbre A, l’application K→ A , λ 7→ λ · 1A est un morphisme d’algèbres.

⋄ Soit M ∈ Mn(K) une matrice carrée fixée. Alors K[X] → Mn(K) , P 7→ P (M) est un morphismed’algèbres.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Applications linéaires

Tests

.. La conjugaison complexe C → C , z 7→ z , est-elleC-linéaire ? Est-elle R-linéaire ?

.. Pour tout a ∈ K, posons fa : K → K, x 7→ ax .

a. Montrer que fa est linéaire.

b. Montrer que pour toute application linéaire f : K → K, ilexiste a ∈ K tel que f = fa .

.. Soit f : E → Kn , v 7→ (f1(v), . . . , fn(v)). Que penserde la proposition « f est linéaire si et seulement si les applicationsfk : E → K, k = 1, . . . , n, sont linéaires » ?

.. Fixons a ∈ K, Q ∈ K[X] et B,C dans Mn(K). Pourchaque application ci-dessous, indiquer s’il s’agit d’uneapplication linéaire, voire d’un morphisme d’algèbres.

a. K[X] → K , P (X) 7→ P (a).

b. K → K , a 7→ Q(a).

c. K[X] → K[X] , P (X) 7→ P (X3) .

d. K[X] → K[X] , P 7→ P 3 .

e. K[X] → K[X] , P 7→ P ′ .

f. Mn(K) → Mn(K) , A 7→ A + B.

g. Mn(K) → Mn(K) , A 7→ BAC .

h. Mmn(K) → Mnm(K) , A 7→ tA.

... L’espace vectoriel L (E,F ), l’algèbre L (E), le groupe GL(E)

Dans ce qui suit, E et F sont des K-espaces vectoriels. On note L (E,F ) l’ensemble des appli-cations linéaires de E dans F . On note L (E) = L (E,E) l’ensemble des endomorphismes deE.

Proposition .. L’ensemble L (E,F ) des applications linéaires de E dans F est un sous-espacevectoriel de l’espace vectoriel FE .

Preuve. Il est évident que L (E,F ) est un sous-ensemble de FE car une application linéaireE → F est un cas particulier d’application de E vers F . D’abord nous remarquons que L (E,F )est non vide car l’application nulle est linéaire et appartient donc à L (E,F ). Soit f et g dansL (E,F ) et λ ∈ K. Nous devons montrer que les applications f + g et λf sont linéaires. Pour tous(u, v) ∈ E2 et α ∈ K, on a

(f + g)(u+ αv) = f(u+ αv) + g(u+ αv) = f(u) + αf(v) + g(u) + αg(v)= (f + g)(u) + α(f + g)(v) ,

(λf)(u + αv) = λ(f(u+ αv)) = λ(f(u) + αf(v)) = λf(u) + λαf(v)(∗)= (λf)(u) + α(λf)(v) .

L’égalité marquée (∗) utilise le fait que λα = αλ. Pour des espaces vectoriels sur un corps noncommutatif (cela existe !), la proposition est fausse. Dans ce livre, les corps sont commutatifs pardéfinition.

Nous avons vu que L (E,F ) est un sous-espace vectoriel de FE . Mais pourquoi ne considérons-nous pas L (E,F ) directement comme un espace vectoriel ? La raison est pratique : pour démon-trer que L (E,F ) est un espace vectoriel, il faudrait d’abord définir les deux lois, puis montrerqu’elles vérifient les huit axiomes d’un espace vectoriel. En revanche, pour prouver qu’il est unsous-espace vectoriel de FE , il suffit de montrer qu’il est non vide, stable par addition et stablepar multiplication par les scalaires, ce qui est beaucoup plus rapide. Bien entendu, une fois établique L (E,F ) est un espace vectoriel, on le considère comme un objet en soi, et on oublie l’espacemoins intéressant FE qui a servi à le construire.

Proposition .. Soit E,F,G des espaces vectoriels, soit λ ∈ K, et soit f, f ′ dans L (E,F ) et g, g′

dans L (F,G). Alors1) la composée g f est dans L (E,G) ;2) g (f + f ′) = g f + g f ′ et (g + g′) f = g f + g′ f ;3) λ(g f) = (λg) f = g (λf).

Preuve.1) La linéarité de g f se déduit directement de la linéarité de f et de g.2) La première égalité résulte de la linéarité de g, la seconde est toujours vraie.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

3) L’égalité λ(g f) = g (λf) est une conséquence de la linéarité de g. En revanche, l’égalitéλ(g f) = (λg) f est valable pour des applications quelconques.

Corollaire .. L’espace vectoriel L (E) des endomorphismes de E muni de la composition est uneK-algèbre, dont l’élément unité est l’application identité, 1L (E) = idE .

Rappelons qu’une application linéaire bijective est appelée un isomorphisme.

Proposition ..L’application réciproque d’un isomorphisme d’espaces vectoriels est encore linéaire.

Preuve. Soit f ∈ L (E,F ) bijective. Notons g : F → E sa réciproque. Soit u, v ∈ F et λ ∈ K.Alors f(g(u + λv)) = u + λv = f(g(u)) + λf(g(v)) = f(g(u) + λg(v)). Par injectivité de f , onobtient que g(u+ λv) = g(u) + λg(v). Donc g est bien linéaire.

Ainsi la réciproque d’un isomorphisme d’espaces vectoriels est encore un isomorphisme d’es-paces vectoriels. De la même manière, on montre que l’application réciproque d’un isomorphismed’algèbres est encore un isomorphisme d’algèbres.

Définition ..

Deux espaces vectoriels (ou deux algèbres) sont isomorphes s’il existe un isomorphisme entre eux (ou entre elles).

On écrit f : E∼−→ F pour un isomorphisme et E ≃ F pour deux espaces isomorphes.

Le terme d’« isomorphe » vient du grec, de isos, même, et morphê, forme. Deux espaces isomorphesont donc la même forme, dans le sens où il n’est pas possible de distinguer un espace d’un autreespace isomorphe par ses propriétés : tout énoncé dans l’un se traduit par un énoncé similairedans l’autre, où seuls les noms des objets ont changé via un isomorphisme. Deux espaces iso-morphes sont donc différents nominalement mais indiscernables intrinsèquement.

Exemple ..

⋄ La transposition Mmn(K)→Mnm(K) , A 7→t A, est un isomorphisme d’espaces vectoriels.

⋄ Si A ∈ GL(n,K), alors l’application linéaire bA : Kn → Kn, x 7→ Ax, est un automorphisme. En effet,x 7→ A−1x est son application réciproque.

Dans le cas particulier où E = F , les isomorphismes sont des automorphismes (du grec autos,soi-même). Ce sont précisément les éléments inversibles de l’algèbre L (E), soit encore les appli-cations bijectives de E dans E, qui sont de plus linéaires. Les bijections de E dans E forment ungroupe, le groupe symétrique S(E) avec la loi , vu au chapitre 10. Les automorphismes de E enconstituent un sous-groupe.

Proposition .. L’ensemble des automorphismes de E est un sous-groupe du groupe symétriqueS(E). On l’appelle le groupe linéaire de E et on le note GL(E).

Tests

. À comparer avec l’équation (.), p..

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Applications linéaires

.. Quel est l’élément neutre de GL(E) ?

.. La transposition A 7→t A est-elle un automorphisme del’algèbre Mn(K) ?

.. L’application

KN → K[[X]], (ak)k∈N7→Xk∈N

akXk,

est-elle un isomorphisme d’espaces vectoriels ? Est-elle unisomorphisme d’algèbres ?

.. Pour chacune des deux applications ci-dessous, montrerqu’il s’agit d’un automorphisme d’espaces vectoriels et donnerson inverse. Est-ce des automorphismes d’algèbres ?

M2(K) → M2(K) , M 7→

2 15 3

M

2 15 3

.

M2(K) → M2(K) , M 7→

3 −1−5 2

M

2 15 3

.

.. La relation ≃ est-elle d’équivalence ?

L’isomorphisme Mmn(K) ≃ L (Kn,Km)

Dans le chapitre précédent nous avons associé à toute matrice A ∈Mmn(K) l’application linéairebA ∈ L (Kn,Km), définie par bA(x) = Ax pour tout x ∈ Kn. Grâce à notre nouvelle terminologied’isomorphisme nous pouvons résumer la proposition .. et la règle .. comme suit.

Proposition .. L’application Mmn(K) → L (Kn,Km), A 7→ bA, est un isomorphisme d’espacesvectoriels. L’application Mn(K) → L (Kn), A 7→ bA, est un isomorphisme d’algèbres ; elle induit unisomorphisme de groupes GL(n,K) ≃ GL(Kn).

Ainsi les matrices m × n correspondent précisément aux applications linéaires de Kn dans Km,et cette correspondance se fait via un isomorphisme canonique, car il n’y a pas de choix arbitrairedans la construction de l’isomorphisme A 7→ bA. C’est pourquoi, désormais, nous n’écrirons plusle chapeau et désignerons par le même symbole A la matrice m×n et l’application linéaire de Kn

dansKm induite parA. Donc nous ne différencions plus Mmn(K) de L (Kn,Km) ; nous identifionsces deux espaces vectoriels. Et de la même manière, nous identifions les algèbres Mn(K) ≃ L (Kn)et les groupes GL(n,K) ≃ GL(Kn) .

Tests

.. Expliciter la réciproque de l’isomorphisme

Mmn(K) → L (Kn,Km), A 7→ bA.

.. Soit n > 2. Trouver deux automorphismes de Kn qui necommutent pas. Puis trouver deux endomorphismes non nuls deKn dont la composée est nulle.

... Image et noyau

Nous généralisons maintenant les notions d’image et de noyau déjà rencontrées page .

Proposition .. Soit f ∈ L (E,F ) et E′ (resp. F ′) un sous-espace vectoriel de E (resp. F ). Alors1) l’ensemble f(E′) = f(v) | v ∈ E′ est un sous-espace vectoriel de F , appelé image directe de E′

par f ; l’espace f(E) est dit image de f et noté Im(f) ;2) l’ensemble f−1(F ′) = v ∈ E | f(v) ∈ F ′ est un sous-espace vectoriel de E, appelé image réci-

proque de F ′ par f ; l’espace f−1(0) est dit noyau de f et noté Ker(f).

Preuve. Les deux ensembles sont clairement non vides car ils contiennent 0F (resp. 0E). Il fautprouver la stabilité par combinaisons linéaires.1) Soit u, v ∈ f(E′) et λ, µ ∈ K. Alors il existe u′, v′ ∈ E′ tels que u = f(u′) et v = f(v′). Donc

λu+ µv = λf(u′) + µf(v′) = f(λu′ + µv′) ∈ f(E′) car λu′ + µv′ ∈ E′.2) Soit u, v ∈ f−1(F ′) et λ, µ ∈ K. Alors f(u) et f(v) sont dans F ′. On a λu + µv ∈ f−1(F ′) car

f(λu+ µv) = λf(u) + µf(v) ∈ F ′.

La propriété la plus importante du noyau est la suivante (comparer avec les homomorphismes degroupes du chapitre 9).

Proposition .. Une application linéaire est injective si et seulement si son noyau est nul.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Preuve. Soit f : E → F une application linéaire.(⇒) Supposons que f est injective. On sait que 0 est un antécédent de 0 par f car f(0) = 0 et, parinjectivité, c’est le seul. Ainsi Ker(f) = 0.(⇐) Supposons que Ker(f) = 0 et soit (u, v) ∈ E2 tel que f(u) = f(v). Alors on a, par linéarité,f(u− v) = f(u)− f(v) = 0, donc u− v ∈ Ker(f). Ainsi u− v = 0, puis u = v.

Exemple ..

⋄ Soit A ∈ Mmn(K). Alors l’espace des solutions du système linéaire homogène Ax = 0 est le noyau del’application linéaire A : Kn → Km.

⋄ Soit I ⊂ R un intervalle. On montre en analyse que la dérivation

d

dx: C

1(I) → C (I) , f 7→ df

dx

est linéaire. Elle est surjective car toute fonction continue possède une primitive. Son noyau est constituédes fonctions constantes sur I .

⋄ Soit ω > 0. Alors f 7→ f ′′ + ω2f définit un endomorphisme de C∞(R). Son noyau est l’ensemble de

solutions de l’équation différentielle y′′ = −ω2y ; autrement dit, l’ensemble des fonctions sinusoïdales defréquence ω.

Proposition .. Soit f : E → F une application linéaire et soit H un sous-espace vectoriel de E.Alors la restriction f |H de f à H est linéaire de noyau Ker(f |H) = H ∩Ker(f).

Preuve. Notons g = f |H . La linéarité de g est évidente.Soit v ∈ Ker(g). Alors v ∈ H et g(v) = 0. Donc f(v) = 0. Cela prouve que Ker(g) ⊂ H ∩Ker(f).Si v ∈ H ∩Ker(f), alors g(v) = f(v) = 0. Cela prouve que H ∩Ker f ⊂ Ker(g).

Le noyau d’une application linéaire est l’exemple par excellence d’un sous-espace vectoriel. Eneffet, nous verrons dans le corollaire .. que tout sous-espace vectoriel est le noyau d’une appli-cation linéaire. Mais ce point de vue n’est pas toujours instructif. Par exemple, ce corollaire assurequ’il existe une application linéaire f définie sur RI ayant C (I) pour noyau ; or l’espace d’arrivéede f est trop « théorique » pour être exploitable. En effet, il faudrait dans ce cas définir f à partirde C (I).

Tests

.. Voici la première phrase du livre Un amour de Swann (paruen 1913) de Marcel Proust.

« Pour faire partie du “petit noyau”, du “petit groupe”,du “petit clan” des Verdurin, une condition étaitsuffisante, mais elle était nécessaire [. . .]. »

a. Dresser la liste de tous les mots de cette phrase qui sont aussides notions mathématiques.

b. Un mot qui devrait déranger tout logicien en herbe. Lequel ?

.. Soit F le plan d’équation z = x+ y dans R3 . Exhiber uneapplication linéaire :

a. f : R3 → R dont le noyau est F ;

b. g : R2 → R3 dont l’image est F .

.. Les applications suivantes sont-elles injectives ?

a. f : R2 → R2 , (x, y) 7→ (2x − y, x− 2y) ;

b. f : R2 → R3,(x, y) 7→ (2x− y, 2y − 4x, 6x − 3y) ;

c. f : R2 → C, (x, y) 7→ (x + iy)(x − iy) ;

d. f : K[X] → K[X] , P (X) 7→ P (X2 + X + 1) ;

e. Φ : C1(I) → C (I) , f 7→ f ′ − f .

.. Soit f : E → F et g : F → G deux applications linéaires.Que penser des propositions suivantes ?

Ker(g f) = Ker(f) ∩ Ker(g) ;Ker(g f) ⊂ Ker(f) ;Ker(g f) ⊃ Ker(f) ;Im(f) ⊂ Ker(g) ⇔ g f = 0 .

... Espaces quotients (au tableau)

Théorèmes d’isomorphie :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Applications linéaires

F/(F ∩G) ≃ (F +G)/G et (E/H)/(F/H) ≃ E/F.

... Sous-espace vectoriel engendré par une partie

Étant donné une partie d’un espace vectoriel, il existe un plus petit sous-espace vectoriel qui lacontient pour la relation d’ordre définie par l’inclusion. On l’appelle le sous-espace vectoriel en-gendré par cette partie. Nous avions déjà rencontré cette notion dans le cas de l’espace canoniqueKn et nous la reprenons ici dans le cas plus général d’un espace vectoriel quelconque. C’est unepremière étape en vue de la définition d’une base.

Proposition .. (Familles à support fini)Soit J un ensemble. Pour tout f ∈ KJ on note supp(f) := j ∈ J | f(j) 6= 0 le support de f . On ditque f est une fonction ou famille à support fini si supp(f) est un ensemble fini. On note K(J) l’ensembledes familles à support fini. Alors K(J) est un sous-espace vectoriel de KJ .

Preuve. On voit facilement que, pour tous f, g dans KJ et tout λ ∈ K∗,

supp(f + g) ⊂ supp(f) ∪ supp(g) et supp(λf) = supp(f).

On en déduit que K(J) est stable par addition et multiplication par scalaires.

Soit maintenant (vj)j∈J une famille quelconque de vecteurs d’un K-espace vectoriel E et soit(λj)j∈J une famille de scalaires dans K. Alors l’expressionX

j∈J

λjvj

est une combinaison linéaire si J est fini. Mais si J est infini, il s’agit d’une somme infinie dontil est difficile de donner un sens sans notion de convergence. Cependant, si seul un nombre finide termes sont non nuls, on convient que seuls ceux-là sont pris en compte dans la somme. Lasomme infinie n’est alors qu’une notation commode qui cache en réalité une somme finie. Plusprécisément, si (λj)j∈J ∈ K(J) , il existe des indices j1, . . . , jn ∈ J tels que λj = 0 pour toutj ∈ J\j1, . . . , jn . Alors on pose X

j∈J

λjvj =nX

k=1

λjkvjk .

Notons que l’ensemble j1, . . . , jn n’est pas unique, mais heureusement le terme de droite estbien indépendant de ce choix. Sauf mention contraire, les sommes infinies que nous rencontreronsen algèbre linéaire seront formées par des familles de coefficients à support fini.

Règle .. Dans une combinaison linéaire d’un nombre infini de vecteurs de E, tous les coefficientssauf un nombre fini doivent être nuls. Autrement dit, elle est de la forme

Pj∈J λjvj , avec vj ∈ E et

(λj)j∈J dans K(J).

Tests

.. Est-ce que K(J) est une sous-algèbre de KJ ?

.. La suite constante (1, 1, . . .) est-elle combinaison linéairedes suites suivantes ?

δ0 = (1, 0, 0, 0, . . .)

δ1 = (0, 1, 0, 0, . . .)

δ2 = (0, 0, 1, 0, . . .)

...

.. Que penser des assertions suivantes ?

a. K(J) = KJ ⇔ J est un ensemble fini.

b. S’il existe (λj)j∈J ∈ KJ à support fini et injective, alors Jest un ensemble fini.

.. À quelles conditions les suites ci-dessous de RN sont-elles àsupport fini ?

a. Une suite stationnaire (c’est-à-dire constante à partir d’uncertain rang).

b. Une suite périodique.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Nous abordons un procédé très général de construction en mathématiques : dès qu’une structureest préservée par intersection, il est possible de définir la notion d’espace engendré par une partie.

Proposition .. Soit V une partie d’un espace vectorielE. Alors il existe une unique partie vect(V )de E qui vérifie les trois conditions suivantes :1) vect(V ) est un sous-espace vectoriel de E ;2) V ⊂ vect(V ) ;3) Si un sous-espace vectoriel de E contient V , alors il contient aussi vect(V ).Autrement dit, vect(V ) est le plus petit des sous-espaces vectoriels qui contiennent V . On l’appelle lesous-espace vectoriel engendré par V . Il est donné par la formule

vect(V ) =\F | F est un s.e.v. de E contenant V .

Preuve. Notons F l’ensemble des sous-espaces vectoriels F de E qui contiennent V . Montrons quela partie vect(V ) =

TF donnée par la formule de l’énoncé satisfait bien les trois conditions

souhaitées.

1) D’après le lemme .., l’intersectionT

F est un sous-espace vectoriel de E. (Remarquonsque l’ensemble F est non vide car E ∈ F ; mais cela n’a pas d’importance car par définitionl’intersection sur une famille vide de parties de E est E.)

2) Par définition, chaque F de F contient V , donc il en est de même pour l’intersection de tousles F de F .

3) Soit F un sous-espace vectoriel de E qui contient V . Alors F ∈ F et donc si x ∈ TF , on ax ∈ F . Cela montre que

TF ⊂ F .

Montrons maintenant l’unicité de vect(V ). Soit W une partie de E satisfaisant les conditions 1)et 2) de l’énoncé, à savoir «W est un sous-espace vectoriel de E et V ⊂ W » ; soit W ′ une partiede E satisfaisant la condition 3), à savoir « si un sous-espace vectoriel de E contient V , alors ilcontient aussi W ′ ». On en déduit que W contient W ′. Donc, si W et W ′ satisfont les trois condi-tions de l’énoncé, alors W ⊃W ′ et W ′ ⊃W , ce qui montre l’égalité W =W ′.

Remarque..En particulier, vect(∅) = 0. On a l’application vect : V 7→ vect(V ) de l’ensemble des parties de Edans l’ensemble des sous-espaces vectoriels de E.

⋄ L’application vect est surjective car vect(F ) = F pour tout sous-espace vectoriel de E.

⋄ L’application vect est croissante : si V ⊂ U ⊂ E, alors vect(V ) ⊂ vect(U).

⋄ L’application vect est idempotente : vect(vect(V )) = vect(V ).

La définition .. est conceptuellement satisfaisante, mais n’est guère opératoire. Voici une des-cription plus explicite du sous-espace vectoriel engendré.

Proposition .. Soit V une partie non vide de E. Alors le sous-espace vectoriel engendré par V estl’ensemble de toutes les combinaisons linéaires de vecteurs de V . Autrement dit,

vect(V ) =

(Xv∈V

λv v

(λv)v∈V ∈ K(V )

). (.)

Preuve. Notons H le membre de droite de la formule (.). On sait que vect(V ) est un sous-espace vectoriel, donc il est stable par combinaisons linéaires.L’ensemble V est inclus dans vect(V ), donc vect(V ) contient toutes les combinaisons linéaires devecteurs de V . D’où l’inclusion vect(V ) ⊃ H . Inversement, la somme de deux combinaisons linéaires de vecteurs de V reste une combinai-son dans H et, de même, pour le produit d’une combinaison linéaire de vecteurs de V par un

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

scalaire. De plus, H contient évidemment V . Par conséquent, H est un sous-espace vectoriel de Eet vect(V ) ⊂ H d’après la condition 3) de la définition ...

Définition .. (Sous-espace vectoriel engendré par une famille.)

Soit (vj)j∈J une famille de vecteurs de E. Le sous-espace vectoriel engendré par la famille (vj)j∈J est lesous-espace vectoriel engendré par la partie vj | j ∈ J. On le note vect((vj)j∈J ).

Pour une famille finie (v0, . . . , vp) , on note encore vect(v0, . . . , vp) = Kv0 + · · ·+Kvp .Nous pouvons faire deux observations.

⋄ Si la famille de vecteurs n’est pas injective, c’est-à-dire si un vecteur y figure plusieurs fois, cetteredondance n’apporte rien de plus au sous-espace vectoriel engendré par cette famille.

⋄ À toute partie V de E nous pouvons associer la famille (v)v∈V . Et inversement, à toute famille(vj)j∈J ∈ EJ nous pouvons associer la partie V = vj | j ∈ J. Dans les deux cas, les sous-espacesengendrés sont les mêmes.

Dans ce contexte, travailler avec des familles ou avec des parties revient au même ; cela permettrade choisir, selon la situation, la notation la plus pratique. On a

vect(vj)j∈J

=

8<:Xj∈J

λjvj

(λj)j∈J ∈ K(J)

9=; .

Désormais nous dirons que la famille (vj)j∈J contient la famille (uℓ)ℓ∈L, ou encore que (uℓ)ℓ∈L estune sous-famille de (vj)j∈J , s’il existe une application ϕ : L → J telle que uℓ = vϕ(ℓ) pour toutℓ ∈ L, autrement dit, si uℓ | ℓ ∈ L ⊂ vj | j ∈ J.

Tests

.. On considère l’espace vectoriel RR des fonctions continues.Pour chacun des sous-espaces vectoriels ci-dessous, dresser laliste des fonctions constantes qu’il contient.

a. F = vect(sin, cos) .

b. G = vect(sin2, cos2) .

.. Donner une équation du plan F dans R3 engendré par lesvecteurs (1, 0,−1) et (0, 0, 1).

.. Comparer les sous-espaces vectoriels de K[X] engendréspar les parties

V = X4, X5, X6 − 3X5 et U = X4, X5, 2X6 .

.. Soit U, V des parties de E. Que penser des assertionssuivantes ?

a. vect(V ∩ U) = vect(V ) ∩ vect(U).

b. vect(V ∩ U) ⊂ vect(V ) ∩ vect(U).

c. vect(V \U) ⊂ vect(V )\vect(U).

d. vect(V ) = V ⇐⇒ V est un s.e.v. de E.

.. Soit E un espace vectoriel et V ⊂ E.Que penser de la formule suivante ?

vect(V ) =[

vect(U) | U partie finie de V .

.. Bases. Dimension

Nous allons reprendre les notions de famille libre, de famille génératrice et de base que nousavons rencontrées dans le cas particulier de l’espace canonique Kn. L’idée est que la plupart desraisonnements que nous avions tenus au chapitre ne requièrent pas l’existence d’une base ca-nonique, et donc s’étendent sans difficulté aux espaces vectoriels généraux. Nous diviserons lesespaces vectoriels en deux grandes catégories : ceux qui sont isomorphes à un espace canoniqueKn et les autres. Nous verrons de plus que ceux de la première catégorie sont complètement classéspar les entiers naturels, ce qui nous conduira à la notion de dimension.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

... Familles génératrices

Avant d’expliquer ce qu’est la dimension d’un espace vectoriel, donnons une première définitiongrossière qui distingue les espaces vectoriels de dimension finie des autres espaces vectoriels.

Définition ..

Une partie V ⊂ E est une partie génératrice de E si vect(V ) = E. On dit aussi que V constitue un ensemble degénérateurs de E. De manière analogue, une famille (vj)j∈J ∈ EJ est génératrice de E si l’ensemble vj | j ∈ Jl’est.

Une autre manière d’exprimer que la famille (vj)j∈J ∈ EJ est génératrice de E est de dire quel’application linéaire

K(J) −→ E, (λj)j∈J 7−→X

λjvj ,

est surjective.

Définition ..

On dit que E est de dimension finie s’il existe une partie génératrice finie de E et on note alors dim(E) <∞. Dansle cas contraire, on dit queE est de dimension infinie et on note dim(E) =∞.

Remarquons que tout espace vectoriel E possède une partie génératrice V : il suffit de prendreV = E. La notion ne sera évidemment intéressante que si nous sommes capables de déterminerdes parties génératrices beaucoup plus petites.

Exemple ..

⋄ Au chapitre , nous avons déjà montré que Kn et tous ses sous-espaces vectoriels sont de dimensionfinie.

⋄ L’espace des polynômes K[X] possède les générateurs naturels Xk, k ∈ N . Montrons que K[X] est dedimension infinie. Supposons par l’absurde qu’il existe une partie génératrice finie P1, . . . , Pr de K[X].Soit m le plus haut des degrés de ces générateurs. Alors toute combinaison linéaire des Pk est de degré auplus m. Donc le polynôme Xm+1 n’est pas dans vect(P1, . . . , Pr), ce qui contredit l’hypothèse.

⋄ Soit F l’ensemble des solutions de l’équation différentielle y′′+y = 0. AlorsF est le sous-espace vectorielde C

∞(R) engendré par les fonctions sin et cos. Par conséquent, F est de dimension finie.

Tests

.. Donner une partie génératrice du C-espace vectoriel C2 .Donner une partie génératrice du R-espace vectoriel C2.

.. Les assertions suivantes sont-elles correctes ?

a. Si E possède une partie génératrice infinie, alors il est dedimension infinie.

b. Si dim(E) < ∞, alors il existe n ∈ N et une applicationlinéaire surjective de Kn sur E.

.. Les espaces vectoriels suivants sont-ils de dimension finie ?

a. Le sous-espace de C∞(R) engendré par les fonctions de la

formesin(k)

k!, avec k ∈ N.

b. L’espace des solutions d’un système linéaire homogèneAx = 0.

c. L’espace des endomorphismes de Kn.

d. L’espace des polynômes de degré pair.

... Familles libres. Familles liées

Rien ne change pour les familles libres par rapport à la définition .. dans Kn, si ce n’est qu’ilpeut exister maintenant des familles libres infinies. Notre travail sur les familles à support finifacilite cependant grandement leur maniement.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

Définition ..

1) Une famille (vj)j∈J de vecteurs de E est libre si, pour toute famille (λj)j∈J ∈ K(J), on a l’implicationXj∈J

λjvj = 0 =⇒ ∀ j ∈ J , λj = 0 .

2) Une famille (vj)j∈J de vecteurs de E est liée s’il existe une famille non nulle (λj)j∈J ∈ K(J), telle quePj∈J

λjvj = 0 .

Évidemment, toute famille est soit libre, soit liée, et les deux notions s’excluent mutuellement.Nous avons bien sûr une définition analogue pour les parties : une partie V ⊂ E est libre si lafamille (v)v∈V est libre, c’est-à-dire si

∀ (λv)v∈V ∈ K(V ) :

Xv∈V

λvv = 0 =⇒ (λv)v∈V = 0

!.

La règle .. reste valable. Citons par exemple : toute partie contenant le vecteur nul est liée ;toute partie d’une partie libre est libre.

Règle .. Une partie V ⊂ E est libre si et seulement si toute partie finie U ⊂ V est libre.

Preuve. Cela résulte du fait que, dans les combinaisons linéaires, les familles de coefficients sonttoujours à support fini.

Exemple ..

⋄ Les fonctions sinus et cosinus forment une famille libre dans le R-espace vectoriel C∞(R). En effet, soient

λ, µ deux réels tels que λ sin x + µ cosx = 0 pour tout x ∈ R. Alors en évaluant cette relation d’abord enx = 0, puis en x = π/2, il vient que µ = 0, puis λ = 0.

⋄ La famille (Xk)k∈N dans K[X] est libre. En effet, un polynôme est nul si et seulement si tous ses coeffi-cients sont nuls.

⋄ Soit fk : K→ K définie par fk(x) = xk pour tous x ∈ K et k ∈ N. Alors la famille (fk)k∈N à valeurs dansKK est libre. En effet, c’est une propriété des fonctions polynomiales définies sur K = R ou C : si P ∈ K[X]alors la fonction K→ K, x 7→ P (x), est nulle si et seulement si P = 0.

Remarque..Un C-espace vectoriel est aussi un R-espace vectoriel. Toutefois une famille liée dans un C-espacevectoriel E ne l’est pas nécessairement dans E en tant que R-espace vectoriel. S’il y a lieu depréciser, on parlera alors de familles liées ou libres sur C ou sur R.

Exemple ..

La partie

1i

,i+1i−1

©dans C2 est liée sur C car son déterminant 2× 2 est nul. Mais elle est libre sur R ; en

effet, les deux vecteurs ne sont pas proportionnels avec un facteur réel.

Proposition .. Pour toute famille (vj)j∈J de vecteurs de E, les propriétés suivantes sont équiva-lentes :1) La famille (vj)j∈J est libre ;2) Pour chaque ℓ ∈ J , le vecteur vℓ n’est pas combinaison linéaire de (vj)j∈J\ℓ ;

3) Tout vecteur de vect(vj)j∈J

a une écriture unique comme combinaison linéaire de (vj)j∈J ;

4) L’application linéaire K(J) → E, (λj)j∈J 7→Pλjvj , est injective.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Preuve. La démonstration se fait exactement comme dans Kn, voir ...

Les opérations élémentaires sur les familles que nous avons étudiées dans Kn se généralisent éga-lement aux espaces vectoriels quelconques. Ainsi, pour la démonstration du lemme ci-dessous,nous renvoyons le lecteur à la preuve de ...

Lemme .. Soit v ∈ E et (vj)j∈J une famille de vecteurs de E, et soit k ∈ J un indice fixé.Remplacer un générateur

Si u s’écrit comme une combinaison linéaire des vj avec le coefficient d’indice k non nul, alors onpeut remplacer le vecteur vk par u sans affecter le sous-espace vectoriel engendré par la famille.

Additionner à un générateur une combinaison linéaire des autresSi on additionne à vk une combinaison linéaire des autres vecteurs de la famille (vj)j∈J , cela nechange pas le sous-espace vectoriel engendré.

Supprimer un générateurS’il existe une relation de dépendance linéaire entre les vj pour laquelle le coefficient d’indice k estnon nul, alors on peut supprimer le vecteur vk de la famille (vj)j∈J sans affecter le sous-espacevectoriel engendré.

Enrichir un famille libreSi la famille (vj)j∈J est libre et si on l’augmente d’un vecteur qui n’est pas combinaison linéaire desvj , alors la famille obtenue est encore libre.

Tests

.. Montrer que toute famille non injective est liée.

.. Que penser des assertions suivantes ?

a. L’intersection de parties libres est libre.

b. L’union de parties libres est libre.

c. Une partie V ⊂ E est libre si et seulement si toute partieU $ V est libre.

d. Toute partie d’une partie liée est liée.

.. Les fonctions log et√

forment-elles une famille libredans l’espace vectoriel R]0,∞[ ?

.. On note F = (h, sin, cos) où h(x) = eix . Les assertionssuivantes sont-elles vraies ?

a. F est libre dans le R-espace vectoriel CR.

b. F est libre dans le C-espace vectoriel CR.

.. Les assertions suivantes sont-elles vraies ?

a. x 7→ x2, x 7→ x2 + x3 sont liées dans CC.

b. (exp, sinh, cosh) est libre dans RR.

... Espaces de dimension infinie

Jusqu’ici, pour montrer qu’un espace vectoriel est de dimension infinie, nous ne disposons que dela définition : il faut montrer que toute famille génératrice est infinie. Ce n’est pas une méthode fa-cile parce qu’il faut envisager toutes les familles génératrices possibles, et celles-ci sont infinimentnombreuses. Nous allons voir dans cette partie qu’il est possible de remplacer cette définition parun critère beaucoup plus simple. Un espace vectoriel est en effet de dimension infinie si et seule-ment s’il possède une famille libre infinie. Il suffit donc d’exhiber au moins une telle famille pourmontrer que l’espace est de dimension infinie.Mais d’abord rappelons quelques notions sur les cardinaux. Un ensemble J est fini si J = ∅ ou s’ilexiste un entier n ∈ N∗ et une bijection j ∈ N | 1 6 j 6 n → J . Dans ce cas, cet entier est unique,on l’appelle le cardinal de J et on le note card J = n. Autrement dit, chaque ensemble fini est enbijection avec un unique ensemble « modèle », de la forme j ∈ N | 1 6 j 6 n pour J 6= ∅. Dansle cas des ensembles infinis, nous pourrions aussi bâtir une liste d’ensembles modèles pour classertous les ensembles à bijection près, mais ce serait aller beaucoup trop loin dans le formalismede la théorie dite des ordinaux. Bien plus modestement, nous nous contenterons d’écrire quecard (J) =∞ si J n’est pas fini.

Remarque.. card (N) =∞ et card (R) =∞Dans ce chapitre et contrairement à l’usage, la condition card (I) = card (J) ne signifie pas queles ensembles I et J sont en bijection s’ils sont infinis.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

On étend la relation d’ordre habituelle de N à N ∪ ∞ en posant n 6 ∞ pour tout n ∈ N.Proposition .. Soit (vj)j∈J une famille libre de vecteurs dansE et (uℓ)ℓ∈L une famille génératricede E. Alors card (J) 6 card (L).

Preuve. Si card (L) = ∞, alors il n’y a rien à démontrer. Nous traitons donc seulement le casoù E possède une famille génératrice finie (u1, . . . , uq), c’est-à-dire le cas où E est de dimensionfinie. Supposons par l’absurde que card (J) > q. Alors la famille (vj)j∈J contient une sous-famillelibre (v1, . . . , vq+1). Exactement comme dans la preuve de la proposition .., page , on utilisele lemme .. pour remplacer l’un après l’autre les vecteurs de la famille génératrice par desvecteurs de la famille libre. À la fin du processus, et quitte à réindexer la famille libre, on arriveà montrer que (v1, . . . , vq) est une famille génératrice. C’est impossible car vq+1 serait une combi-naison linéaire des vecteurs v1, . . . , vq .

Proposition .. Un espace vectoriel est de dimension infinie si et seulement s’il possède une partielibre infinie.

Preuve.(⇐) Si un espace vectoriel possède une partie libre infinie, alors, d’après la proposition .., iln’existe pas de famille génératrice finie. Donc l’espace est bien de dimension infinie.(⇒) Soit E un espace vectoriel de dimension infinie. Nous allons définir par récurrence une suitev0, v1, v2, . . . de vecteurs de E comme suit. Comme E est de dimension infinie, on a E 6= 0 et on choisit pour v0 un vecteur arbitraire nonnul. Soit k ∈ N. Supposons que nous avons déjà choisi les vecteurs v0, . . . , vk . Ces vecteurs n’en-gendrent pas E, qui est de dimension infinie. Alors on choisit arbitrairement un vecteur vk+1

dans l’ensemble non vide E \ vect(v0, . . . , vk). D’après la quatrième opération décrite dans lelemme .., la famille (v0, . . . , vk+1) est libre.On obtient ainsi une suite (vj)j∈N dont toute sous-suite finie est libre. D’après la règle .., lasuite (vj)j∈N est libre.

Une infinité de choix arbitraires était nécessaire à cette construction. En fait, cela est un pointdélicat, bien que correct si on dispose de l’axiome du choix de la théorie des ensembles, que nousn’exposerons pas dans ce livre.

Corollaire .. Tout sous-espace vectoriel d’un espace vectoriel de dimension finie est de dimensionfinie.

Preuve. Soit F un sous-espace d’un espace vectoriel E de dimension finie. Supposons par l’ab-surde que dim(F ) = ∞. Donc F admet une partie libre et de cardinal infini. Puisque cette partieest aussi une partie de E cela implique, encore d’après la proposition, que E est de dimensioninfinie, contradiction.

Dans KN, notons C le sous-espace vectoriel des suites convergentes, C0 celui des suites conver-gentes avec limite nulle et S celui des suites stationnaires. Dans K(N), nous connaissons la famillelibre infinie

δ0 = (1, 0, 0, 0, . . .) , δ1 = (0, 1, 0, 0, . . .) , δ2 = (0, 0, 1, 0, . . .) , . . .

Donc K(N) est de dimension infinie. Comme nous avons les inclusions

K(N) ⊂ S ⊂ C ⊂ KN et K(N) ⊂ C0 ⊂ C ⊂ KN,

et comme de plus KN ≃ K[[X ]] et K(N) ≃ K[X ], nous en déduisons la liste suivante d’espacesvectoriels de dimension infinie.

Corollaire .. Les espaces K(N) , S , C0 , C , KN , K[X ] et K[[X ]] sont de dimension infinie.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Soit I ⊂ R un intervalle non-réduit à un point. Notons Fpol(I,K) le sous-espace vectoriel de KI

formé par les fonctions polynomiales. Les fonctions x 7→ xn, n ∈ N, forment une famille libreinfinie dans Fpol(I,K). Pour tout k ∈ N on a les inclusions

Fpol(I,K) ⊂ C∞(I,K) ⊂ C

k(I,K) ⊂ KI .

Corollaire ..Les espaces Fpol(I,K) , C k(I,K) pour tout k ∈ N ∪ ∞, et KI sont de dimension infinie.

... Bases

Nous allons établir que tout espace vectoriel admet une base. Ce fait repose sur le résultat clas-siquement connu sous le nom du théorème de la base incomplète et sera la clef de voûte de laclassification des espaces vectoriels de dimension finie. Il est à noter que, même en dimensionfinie, extraire une base d’une famille génératrice n’est pas complètement évident.Le cas de la dimension infinie est très similaire à celui de la dimension finie, mais le traitement del’infini requiert plus de technicité dans le maniement de la théorie des ensembles que nous avonspris le parti de ne pas exposer dans ce cours de première année. Aussi, bien que le résultat soitvalable pour tous les espaces vectoriels, nous limiterons la démonstration de l’existence d’unebase (voir le théorème ..) au cas des espaces de dimension finie.

Tout espace vectoriel possède une base

Par famille génératrice minimale, nous entendons une famille génératrice (vj)j∈J de E telle que,pour tout ℓ ∈ J , la famille « diminuée » (vj)j∈J\ℓ n’est pas génératrice de E. Par famille libremaximale, nous entendons une famille libre (vj)j∈J telle que, pour tout v ∈ E, la famille « aug-mentée » (vj)j∈J ∪ v est liée.

Proposition ..Soit B = (bj)j∈J une famille dans E. Les propriétés suivantes sont équivalentes :1) B est libre et génératrice de E ;2) Tout vecteur de E se décompose en une unique combinaison linéaire de B ;3) B est une famille libre maximale ;4) B est une partie génératrice minimale ;5) L’application K(J) → E, (λj)j∈J 7→

Pλjvj , est un isomorphisme.

Si B vérifie ces propriétés, on l’appelle une base de E.

Preuve. Notons f l’application linéaire mentionnée au point 5). Nous savons déjà que f estinjective si, et seulement si, B est libre, et que f est surjective si, et seulement si, B est génératricede E. Cela signifie que 1) et 5) sont équivalents.1)⇒ 2) Soit v ∈ E. Puisque B est génératrice de E, on peut écrire v comme combinaison linéairede B. Et comme B est libre, cette écriture est unique d’après la proposition ...2)⇒ 3) La condition 2) et la proposition .. impliquent que B est libre. Montrons qu’elle estlibre maximale. Soit v ∈ E. Par hypothèse, v est combinaison linéaire des bj , donc la familleconstituée de v et des vj , pour j ∈ J , est liée.3)⇒ 4) Supposons B libre maximale. Montrons qu’elle est génératrice. Soit v ∈ E. Par l’hypothèse de maximalité, il existe une rela-tion de dépendance linéaire λv+

Pj∈J λjbj = 0. Si λ était nul, la liberté de B montrerait que tous

les λj sont nuls, ce qui est impossible pour une relation de dépendance linéaire. Donc λ 6= 0, onpeut isoler v et l’écrire comme combinaison linéaire des vj . Montrons qu’elle est génératrice minimale. Supposons par l’absurde qu’il existe ℓ ∈ J tel quela famille (vj)j∈J\ℓ soit encore génératrice de E. Alors le vecteur vℓ est combinaison linéaire desautres vecteurs de la famille B, ce qui est en contradiction avec la liberté de B.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

4)⇒ 1) Supposons que B est génératrice minimale et montrons qu’elle est libre. Supposons parl’absurde qu’il existe une relation de dépendance linéaire de la forme

Pj∈J λjbj = 0, avec λℓ 6= 0

pour un certain indice ℓ ∈ J . D’après le lemme .., la famille (bj)j∈J\ℓ est encore génératrice,ce qui contredit la minimalité de B.

Théorème .. (Théorème de la base incomplète)1) Toute famille libre peut être complétée en une base.2) Toute famille génératrice contient une base.3) Tout espace vectoriel possède une base.4) Si B = (bj)j∈J et ÜB = (ebℓ)ℓ∈L sont des bases de E, alors card (J) = card (L) .

Preuve. Ce théorème se démontre dans sa généralité grâce à un lemme technique de la théoriedes ensembles, à savoir le lemme de Zorn qui est d’ailleurs équivalent à l’axiome du choix déjàmentionné à la page . Mais nous limitons la preuve de ce théorème au cas des espaces dedimension finie.Soit E un espace vectoriel de dimension finie et (u1, . . . , uq) une famille génératrice de E.1) Soit V une famille libre dans E. D’après la proposition .., toute partie libre est de cardinal

au plus q car u1, . . . , uq est une partie génératrice de E. Considérons toutes les parties libresqui contiennent V . Leurs cardinaux forment un sous-ensembleM de N majoré par q. Soit n leplus grand élément deM. Il existe donc une partie libre B qui contient V et qui est de cardinaln. Mais alors B est libre maximale, donc c’est une base de E.

2) Soit V une partie génératrice de E. Considérons dans un premier temps le cas où V est finie.Considérons toutes les parties génératrices finies contenues dans V . Leurs cardinaux formentun sous-ensemble N de N. Soit n le plus petit élément de N . Il existe donc une partie généra-trice finie B contenue dans V et de cardinal n. Mais alors B est génératrice minimale, doncc’est une base deE. Il reste à traiter le cas où V est infinie. Écrivons chaque vecteur de la partiegénératrice u1, . . . , uq comme combinaison linéaire de vecteurs de la partie génératrice V :

uk =Xv∈V

λk,vv , (λk,v)v∈V ∈ K(V ) , k = 1, . . . , q . (.)

Les supports Vk = v ∈ V | λk,v 6= 0 sont finis car les familles (λk,v)v∈V sont à supportfini. Posons V ′ =

Sqk=1 Vk . Autrement dit, V ′ est l’ensemble (fini) des vecteurs de V qui

« comptent » dans les combinaisons linéaires (.). Chaque vecteur de E est combinaison li-néaire des u1, . . . , uq et donc aussi combinaison linéaire des vecteurs de V ′. On vient doncd’extraire de V la partie génératrice finie V ′ ⊂ V . Nous nous sommes donc ramenés au casfini et V ′ contient une base de E.

3) On a le choix : ou bien on applique 1) et on complète une partie libre (par exemple l’ensemblevide) en une base ; ou bien on applique 2) et on extrait une base d’une partie génératrice (parexemple, de E tout entier).

4) C’est une conséquence immédiate de la proposition ...

Définition ..

Soit E un espace vectoriel et B = (bj)j∈J une base de E. On appelle dimension de E le cardinal de J et on le notedim(E) = card (J). C’est donc un élément de N ∪ ∞, indépendant du choix de la base B.

La règle suivante est le cas particulier, en dimension finie, du fait qu’une base est une famille libremaximale ou génératrice minimale.

Règle .. Soit E un espace vectoriel de dimension finie n.1) Toute famille génératrice de E possède au moins n vecteurs.2) Si une famille de n vecteurs engendre E, alors c’est une base.3) Toute famille libre dans E possède au plus n vecteurs.4) Toute famille libre dans E avec n vecteurs est une base de E.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

La notion de dimension formalise l’intuition que nous avons d’un nombre de degrés de liberté.Avec de la pratique, on peut deviner la dimension d’un espace donné avant de chercher à lacalculer : il s’agit d’appréhender le nombre minimal de paramètres nécessaires pour décrire uneposition quelconque d’un élément de l’espace.

Exemple ..

Soit F le sous-ensemble de R[−1,1] formé des fonctions (conti-nues) dont les restrictions à [−1, 0] et à [0, 1] sont affines. On vé-rifie facilement que F est un sous-espace vectoriel. Une fonctionde F a l’allure ci-contre.

−1 0 1

A

B

C

b

b

b

Comme chacun des points A,B,C peut être déplacé le long d’une « verticale », on devine qu’une positionest caractérisée par les trois hauteurs des points A,B,C et on s’attend à ce que la dimension de F soit3. Pour le démontrer rigoureusement, écrivons la forme générale d’une fonction f de F . Il existe troisparamètres a, b, c tels que

f(x) =

ax+ b si − 1 6 x < 0 ,

cx+ b si 0 6 x 6 1 .

On retrouve que trois paramètres sont nécessaires pour décrire cette fonction. En fait, on montre alorsfacilement que les trois fonctions f1, f2 et f3, définies par

f1(x) =

x si − 1 6 x < 0 ,

0 si 0 6 x 6 1 ,f2(x) = 1, f3(x) =

0 si − 1 6 x < 0 ,

x si 0 6 x 6 1 ,

forment une base de F , et que les coefficients qui figurent dans la définition de f sont donnés par la dé-composition f = af1 + bf2 + cf3.

Proposition .. Deux espaces vectoriels de dimension finie sont isomorphes si et seulement s’ils ontmême dimension.

Preuve. Soit E,F deux espaces vectoriels de dimensions finies n et m respectivement. D’aprèsle point 5) de la proposition .. il existe des isomorphismes E ≃ Kn et F ≃ Km.(⇒) Si n = m, alors on a E ≃ Kn et F ≃ Kn, donc E ≃ F .(⇒) Supposons qu’il existe un isomorphisme f : E

∼→ F . On montre sans peine que l’image parf d’une base de E est une base de F . Donc ces deux bases ont le même cardinal et par conséquentE et F ont la même dimension.

Proposition .. Pour tout sous-espace vectoriel F de E on a1) dim(F ) 6 dim(E),2) Si E est de dimension finie, alors on a dim(F ) = dim(E) si et seulement si F = E .

Preuve.1) Si E est de dimension infinie, alors il n’y a rien à prouver. Considérons donc le cas où n =

dim(E) < ∞. D’après le corollaire .., la dimension du sous-espace F est également finie.Alors il existe une base de F formée de p vecteurs, avec p = dim(F ) . Cette base de F est unefamille libre de E. D’après le point 3) de la règle .., on a donc p 6 n .

2) Si dim(F ) = dim(E) = n, il existe une base de F formée de n vecteurs. D’après le point 4) dela règle .., c’est aussi une base de E, d’où F = E.

Remarque.. On peut avoir F $ E et dim(F ) = dim(E)C’est possible en dimension infinie. Par exemple, l’espace des polynômes K[X ] est de dimensioninfinie. Le sous-espace strict des polynômes de degrés pairs est également de dimension infinie.

Proposition .. Soit E,E′ deux K-espaces vectoriels. Alors

dim(E × E′) = dim(E) + dim(E′) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

Preuve. Soit (bj)j∈J une base de E et (b′ℓ)ℓ∈L une base de E′. Alors les vecteurs

(bj , 0) , pour j ∈ J, et (0, b′ℓ), pour ℓ ∈ L,

constituent une base de E × F . En effet, cette famille est évidemment libre. Les vecteurs (bj , 0)engendrent les vecteurs de la forme (x, 0) avec x ∈ E ; les vecteurs (0, b′ℓ) engendrent les vecteursde la forme (0, x′) avec x′ ∈ E′. Or tout vecteur de E × E′ se décompose sous la forme (x, y) =(x, 0) + (0, y). Donc la famille obtenue est génératrice. On a donc

dim(E × E′) = card (J) + card (L) = dim(E) + dim(E′).

Bien sûr, cet énoncé se généralise à un nombre fini quelconque de facteurs.

Tests

.. Quelle est la dimension de l’espace vectoriel des fonctionsaffines de K dans K ?

.. Quelle est la dimension du sous-espace vectoriel deMmn(K) formé des matrices (aℓk) telles que aℓk = 0 pourℓ 6 k ?

.. Déterminer dim(Kn[X]) . Puis prouver sans calcul que(X − 2, X2 + 1, X2 + X − 1, X2 − X) est une famille liée.

.. On pose f(x) = cos(4x) et g(x) = sin(5x). Les fonctionsf + 4g, 4fg′ , 5g − fg′ , 5f sont-elles linéairement indépendantesdans C

∞(R) ?

Bases canoniques

Une base canonique (ou base naturelle) d’un espace vectoriel E est une base que l’on estime natu-rellement associée à sa structure d’espace vectoriel. C’est une base que l’on choisit de privilégier.Comme nous avons déjà eu l’occasion de le mentionner, il n’y a pas de définition universelle dumot « canonique » en mathématiques. C’est une affaire de convention.A contrario, il existe des espaces qui n’ont pas de base canonique : ceux pour lesquels il n’y a pasde procédé pour construire algorithmiquement la moindre base. Ce sont donc en particulier desespaces de dimension infinie. Il y a en effet une grande différence entre démontrer qu’une baseexiste toujours et en construire explicitement une. Par exemple, il n’est pas possible d’expliciterune base pour les espaces vectoriels KN, KK et C k(I) où I est un intervalle ouvert de R et k ∈N ∪ ∞. Dans cette partie, nous allons passer en revue quelques espaces dont il est bon, pour saculture générale, de connaître les bases canoniques.

⋄ Kn possède la base naturelle

e1 = (1, 0, 0, . . . , 0) ; e2 = (0, 1, 0, . . . , 0) ; . . . ; en = (0, 0, 0, . . . , 1).

⋄ Kn[X ] possède la base naturelle (Xk)06k6n .

⋄ K[X ] possède la base naturelle (Xk)k∈N .

⋄ Les espaces vectoriels K[X ] et K(N) sont isomorphes. La base naturelle de K[X ] correspond à labase naturelle (δj)j∈N de K(N) où

δ0 = (1, 0, 0, 0, . . .)

δ1 = (0, 1, 0, 0, . . .)

δ2 = (0, 0, 1, 0, . . .)

...

⋄ Montrons que l’espace K(J), où J est un ensemble arbitraire, possède également une base na-turelle. Pour cela rappelons le symbole de Kronecker défini par la formule

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

δjℓ =

¨1 si j = ℓ ,0 si j 6= ℓ .

Pour tout j ∈ J , la famille δj = (δjℓ)ℓ∈J peut aussi être vue comme la fonction δj : J → K, ℓ 7→ δjℓqui prend la valeur 1 en j et qui est nulle partout ailleurs.

Proposition .. L’espace K(J) des familles à support fini possède la base (δj)j∈J . Donc

dimK(J)

= card (J).

Preuve. Montrons d’abord que (δj)j∈J est libre. Soit (λj)j∈J une famille de scalaires à support fini telleque

Pj∈J λjδj = 0. C’est une identité de fonctions que nous pouvons évaluer en un point ℓ ∈ J

arbitraire, ce qui donne les relations

0 =

Xj∈J

λjδj

(ℓ) =

Xj∈J

λjδj(ℓ) = λℓ .

Tous les coefficients λℓ sont nuls, ce qui montre bien que (δj)j∈J est libre. Montrons que δj | j ∈ J est une partie génératrice. Soit f ∈ K(J). Notons S le support de f .Alors S est fini et

∀ ℓ ∈ J, f(ℓ) =Xj∈S

f(j)δj(ℓ) =

Xj∈S

f(j)δj

(ℓ).

Comme cette dernière relation est vraie pour tout ℓ, nous obtenons l’égalité des fonctions f =Pj∈S f(j)δj , ce qui démontre bien que δj | j ∈ J est génératrice.

Remarque..Évidemment, on décide que la base (δj)j∈J est une base canonique. Pour J = 1, . . . , n (resp.J = N) on retrouve la base naturelle de Kn (resp. K(N)).

Tests

.. Trouver une base du sous-espace S de RN constitué dessuites stationnaires.

.. Trouver une base du sous-espace de RN constitué des suitesadmettant 3 comme période.

... Images d’une famille par une application linéaire

Il est aisé de montrer qu’un isomorphisme d’espaces vectoriels transporte les bases de l’espacede départ vers les bases de l’espace d’arrivée. Dans cette partie, nous allons affiner ce résultat enconsidérant l’action d’applications linéaires seulement injectives ou surjectives sur des familleslibres ou génératrices.

Proposition .. Soit f ∈ L (E,F ). Les propriétés suivantes sont équivalentes :1) f est injective ;2) Pour toute famille libre (vj)j∈J dans E, la famille (f(vj))j∈J est libre ;3) Pour toute base (bj)j∈J de E, la famille (f(bj))j∈J est libre ;4) Il existe une base (bj)j∈J de E telle que la famille (f(bj))j∈J est libre.

Preuve.1)⇒ 2) Soit f injective et soit (vj)j∈J libre dansE. Pour montrer que la famille (f(vj))j∈J est libre,soit

Pj∈J λjf(vj) = 0, avec une famille (λj)j∈J ∈ K(J) . Alors f(

Pλjvj) =

Pλjf(vj) = 0, donc,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

par injectivité de f , on aPλjvj = 0, d’où λj = 0 pour tout j ∈ J .

2)⇒ 3) Toute base est libre.3)⇒ 4) Tout espace vectoriel possède une base.4)⇒ 1) Soit v ∈ Ker(f). Nous décomposons v dans la base (vj)j∈J fournie par l’hypothèse 4),v =

Pλjbj . Alors

Pλjf(bj) = f (

Pλjbj) = f(v) = 0 . Par hypothèse (f(bj))j∈J est libre, d’où

λj = 0 pour tout j ∈ J . On conclut que v = 0, donc le noyau de f est nul.

De la même manière que les applications linéaires injectives sont adaptées aux familles libres, lesapplications linéaires surjectives le sont aux familles génératrices.

Proposition .. Soit f ∈ L (E,F ). Les propriétés suivantes sont équivalentes :1) f est surjective ;2) Pour toute famille génératrice (vj)j∈J de E, la famille (f(vj))j∈J est génératrice de F ;3) Pour toute base (bj)j∈J de E, la famille (f(bj))j∈J est génératrice de F ;4) Il existe une base (bj)j∈J de E telle que (f(bj))j∈J est génératrice de F ;5) Il existe une famille génératrice (vj)j∈J de E telle que (f(vj))j∈J est génératrice de F .

Preuve.1)⇒ 2) Soit f surjective et soit (vj)j∈J une famille génératrice de E. Montrons que la famille(f(vj))j∈J est génératrice de F . Soit u ∈ F arbitraire. Alors il existe v ∈ E tel que u = f(v). Onécrit v =

Pj∈J λjvj avec une famille à support fini de coefficients. Alors

u = f(v) = fP

j∈J λjvj=P

j∈J λjf(vj) .

2)⇒ 3) Toute base est génératrice.3)⇒ 4) Tout espace vectoriel possède une base.4)⇒ 5) Toute base est génératrice.5)⇒ 1) Soit (vj)j∈J une famille génératrice de E telle que (f(vj))j∈J est génératrice de F . Soitu ∈ F . Il existe (λj)j∈J ∈ K(J) tel que u =

Pλjf(vj). Posons v =

Pλjvj ∈ E. Alors on a

f(v) = f (Pλjvj) =

Pλjf(vj) = u, ce qui montre la surjectivité de f .

Proposition .. Soit f ∈ L (E,F ). Les propriétés suivantes sont équivalentes :1) f est un isomorphisme ;2) Pour toute base (bj)j∈J de E, la famille (f(bj))j∈J est une base de F ;3) Il existe une base (bj)j∈J de E telle que la famille (f(bj))j∈J est une base de F .

Preuve. On combine simplement les deux propositions .. et ...

Proposition .. Soit f, g dans L (E,F ) et (vj)j∈J une famille génératrice de E. Alors

f = g ⇐⇒ ∀ j ∈ J : f(vj) = g(vj) .

Autrement dit, une application linéaire est entièrement déterminée par les images d’une famille généra-trice.

Preuve.(⇒) Immédiat par définition.(⇐) Soit w un vecteur arbitraire de E. Il s’écrit comme combinaison linéaire w =

Pj∈J λjvj avec

une famille à support fini de coefficients. Alors

f(w) = f

Xj∈J

λjvj

=Xj∈J

λjf(vj) =Xj∈J

λjg(vj) = g

Xj∈J

λjvj

= g(w) .

Puisque w était arbitraire dans E, cela prouve que f = g.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Remarque..Cette proposition n’affirme pas que l’on peut définir une application linéaire f par la prescrip-tion des images des générateurs ; par exemple, pour une application linéaire f , on ne peut pasdemander simultanément que f

10

= 2, f

01

= 2 et f

11

= 3, car les deux premières conditions

impliquent f11

= 4. La proposition dit seulement que pour connaître une application linéaire,

il suffit de connaître ses valeurs sur une partie génératrice. Mais on peut définir une applicationlinéaire en prescrivant les images sur une base (voir proposition ..).

Définition ..

Le rang d’une famille de vecteurs de E est la dimension du sous-espace vectoriel engendré par cette famille, soitencore

rg ((vj)j∈J ) = dim(vect(vj | j ∈ J)) .De même, on définit le rang d’une partie V ⊂ E par rg(V ) = dim(vect(V )).Le rang d’une application linéaire f : E → F est la dimension de son image, soit encore

rg(f) = dim(Im(f)) = dim(f(E)) .

Nous déduisons des propositions .. et .. les deux majorations suivantes.

Règle ..1) Si f : E → F est linéaire injective, alors dim(E) 6 dim(F ) .2) Si f : E → F est linéaire surjective, alors dim(E) > dim(F ) .

Montrons maintenant que, soumis à des applications linéaires, le rang ne peut que diminuer.

Proposition ..Soit f : E → F et g : F → G deux applications linéaires et V une partie de E. Alors

rg(f) 6 min(dim(E), dim(F )), (.)

rg(f(V )) 6 min(rg(f), rg(V )), (.)

rg(g f) 6 min(rg(g), rg(f)). (.)

Preuve. Prouvons (.). On a l’inégalité rg(f) = dim(f(E)) 6 dim(F ) car l’image f(E) est un sous-espace vectoriel de F . Pour prouver l’autre majoration, on considère l’application linéaireef : E −→ f(E) , v 7−→ f(v) .

On a dim(E) > dim(f(E)) car ef est surjective.Montrons (.). Puisque f(V ) ⊂ f(E), on a rg(f(V )) 6 dim(f(E)) = rg(f). Pour prouver l’autremajoration, notons G = vect(V ) et H = vect(f(V )). Alors G → H, v 7→ f(v), est surjective et ondéduit que dim(G) > dim(H), ce qui signifie rg(V ) > rg(f(V )). Pour démontrer (.), on remarque d’abord que Im(g f) ⊂ Im(g), d’où rg(g f) 6 rg(g) . Pourprouver l’autre majoration, on considère une partie génératrice V de E (par exemple, V = E).Alors f(V ) est génératrice de f(E) et g(f(V )) est génératrice de (g f)(E). On déduit avec (.)que rg(g f) = dim(g(f(V )) 6 rg(f(V )) = rg(f).

En substance, cette proposition dit que l’image d’un objet de dimension n par une application li-néaire est un objet de dimension au plus n. Les applications linéaires sont donc très raisonnables.Parmi les applications continues, il y a des exemples surprenants qui défient notre intuition. Parexemple, Giuseppe Peano (1858-1932) a construit une application continue et surjective du seg-ment [0, 1] sur le carré [0, 1]2 ; elle envoie donc un objet de dimension 1 sur un objet de dimension2. Une telle « chose horrible » n’existe plus dans le cadre des fonctions de classe C 1 ; la raisonest qu’une fonction dérivable est approximée localement par une fonction linéaire (penser à l’ap-proximation d’une courbe par sa tangente).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Bases. Dimension

Enfin, rappelons l’important théorème du rang. À la page nous l’avons énoncé pour des ma-trices. Or, depuis que nous savons que Mmn(K) ≃ L (Kn,Km), nous pouvons l’énoncer commesuit : pour toute application linéaire f : Kn → Km, on a dim(Ker(f)) + rg(f) = n.

Tests

.. Existe-t-il f ∈ L (R2,R2) telle que f(1, 2) = (0, 0) etf(2, 4) = (1, 0) ?

.. Existe-t-il f ∈ L (R3,R2) telle que f(1, 2, 3) = (1, 0) etf(2, 3, 1) = (1, 0) ?

.. Existe-t-il une application linéaire

a. injective de K2 dans K3 ,

b. surjective de R2 dans C (R) ,

c. surjective de C∞(R) dans R ,

d. bijective de C∞(R∗

+) sur C∞(R) ,

e. injective de C[X] dans Cn[X] ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

.. Exercices

Exercice ..

On munit R∗+ de la loi interne u ⊞ v = uv et de la loi externe λ u = uλ, pour (u, v) ∈ (R∗

+)2 et λ ∈ R.

Obtient-on un R-espace vectoriel ?

Exercice ..

Donner un exemple simple d’un endomorphisme f de K[X] qui est

. injectif mais pas surjectif ;

. surjectif mais pas injectif.

Exercice ..

Soit b1, . . . , bn une base de E. Les parties suivantes sont-elles des bases de E ?

a. b1, 2b2, 3b3, . . . , nbn.b. b1 + bn, b2 + bn, . . . , bn−1 + bn, 2bn.c. b1 − bn, b2 − b1, b3 − b2, . . . , bn − bn−1.

Exercice ..

Le Q-espace vectoriel R possède-t-il une base dénombrable ?

Exercice ..

Une fonction f : R→ R définie parf(t) = a sin(ωt+ θ),

où a, ω, θ ∈ R et ω 6= 0, est dite sinusoïdale. Le nombre |a| est l’amplitude, ω est la fréquence (angulaire) et θ estle décalage de phase.Soit ω 6= 0. On note Sω l’ensemble des fonctions sinusoïdales de fréquence ω. Prouver que Sω est un sous-espace vectoriel de RR et que les fonctions s et c définies par s(t) = sin(ωt) et c(t) = cos(ωt) constituentune base de Sω .

Exercice ..

Trouver des espaces isomorphes parmi les R-espaces vectoriels suivants !

C1(R) , CN , R2n+3 , C(N) , C]−1,1[ ,

C[X] , Cn[X]×R , CZ , C(Z) ,

R[X]2 , C[[X]] , Rn[X]×Rn×C ,C

10 (R) , C

10 (R)× R , CR , C (R) ,

où on a posé C10 (R) = f ∈ C

1(R) | f(0) = 0 .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Soit J un ensemble. Déterminer toutes les fonctions f ∈ CJ telles que f, f2 soient liées.

Exercice ..

Dans l’espace vectoriel R3, on considère les sous-ensembles

F =(λ− 3µ, 2λ+ 3µ, λ) , (λ,µ) ∈ R2

©,

G =(x, y, z) ∈ E | x+ 2y = 0

©.

. Prouver que les ensembles F et G sont des sous-espaces vectoriels de R3.

. Déterminer le sous-espace vectoriel F ∩ G.

Exercice ..

Les espaces vectoriels suivants sont-ils de dimension finie ?

a. L’espace des fonctions paires sur R.

b. L’espace des suites périodiques.

c. L’espace des suites périodiques qui admettent 3 pour période.

d. L’espace des suites de Fibonacci.

e. L’espace des solutions d’un système linéaire homogène à n inconnues.

Exercice ..

On note E = RN. Les sous-ensembles suivants sont-ils des sous-espaces vectoriels de E ?

F =

§(un)n∈ N ∈ E

limn→∞

(un − un+1) = 0

ªG =

§(un)n∈N ∈ E

un = On2ª

H =

§(un)n∈N ∈ E

un ∼1

n

ªL =

§(un)n∈N ∈ E

∃ k ∈ R , un ∼k

n

ªExercice ..

En général, la composition P Q a-t-elle un sens si

a. P est un polynôme et Q une série formelle,

b. Q est un polynôme et P une série formelle,

c. P est une série formelle et Q une série formelle dont le premier coefficient est nul ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Exercice ..

Soit f un endomorphisme d’un K-espace vectoriel E. Montrer l’équivalence des propriétés suivantes.1) f est une homothétie, c’est-à-dire qu’il existe λ ∈ K tel que f = λidE .2) Pour tout v ∈ E, la famille (v, f(v)) est liée.

Exercice ..

Soit E un espace vectoriel sur K de dimension 3 et f ∈ L (E).

. On suppose dans cette question que f2 = 0 et f 6= 0. Calculer le rang de f . Donner un exemple d’un telf .

. On suppose dans cette question que f3 = 0 et f2 6= 0. Calculer le rang de f . Donner un exemple d’untel f .

Exercice ..

Soit E = C (R+) l’espace vectoriel des applications continues de R+ dans R. Considérons l’application ψde E dans E qui à f associe l’application g : R+ → R définie par

∀x > 0 , g(x) =

Z x

0

tf(t)dt.

. Quelle est la dimension de E ?

. Pourquoi l’application ψ est-elle bien définie ? Montrer que ψ ∈ L (E).

. Étudier l’injectivité puis la surjectivité de ψ.

. Soit λ ∈ R. En utilisant ses connaissances sur les équations différentielles déterminer le sous-espacevectoriel Ker(ψ − λidE).

Exercice ..

Montrer de deux manières que les trois fonctions

x 7→ ex , x 7→ x2 , x 7→ ℓn(x)

forment une famille libre dans l’espace vectoriel des applications de ]0,+∞[ dans R :

. une fois, en donnant des valeurs particulières à la variable x ;

. une autre fois, en utilisant les croissances comparées des trois fonctions en +∞.

Exercice ..

Pour tout t ∈ R, on poseft : R → R , x 7→ |x− t|.

Prouver que la famille (ft)t∈R est libre dans RR.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Soit I, J des ensembles.

. Montrer qu’on peut identifierKI×J = (KI)J .

. Sous cette identification a-t-onK(I×J) = (K(I))(J) ?

Exercice ..

Dans cet exercice on considère l’espace vectoriel R2 avec sa représentation « habituelle » comme planeuclidien. On note C le cercle d’unité défini par x2+ y2 = 1 etD la tangente à C au point P = ( 1

2,√

32). Soit

les matrices

A1 =

2 00 1

, A2 =

0 1−1 0

,

A3 =

1 10 1

, A4 =

cos π

6− sin π

6

sin π6

cos π6

,

A5 =

1√3

1√3

, A6 =

1 11 1

.

. Donner une équation cartésienne ainsi qu’une écriture paramétrique de D. Dessiner C et D.

. Montrer que l’image de la droite D par un endomorphisme f de R2 est un point si (√3,−1) ∈ Ker(f),

et est une droite sinon.

. Pour chaque j = 1, . . . , 6, donnerz des équations des images C′j = Aj(C) et D′

j = Aj(D) du cercle C etde sa tangente D par l’endomorphisme Aj de R2 (pour C′

5 et C′6 il faut en plus des inéquations).

Faire des dessins de C′j , D

′j et P ′

j = f(P ).

Exercice ..

On considère l’espace E = C ([0, 1]). Existe-t-il une norme ‖ · ‖ sur E et une suite (fn)n∈N∗ dans E telle que

limn→∞

‖fn‖ = 0 et ∀n ∈ N∗ : fn > 1 ?

Exercice ..

Soit K un corps et E un K-ev de dimension finie n.

. Lorsque K = R ou C, établir par des arguments topologiques que E n’est pas réunion dénombrable desev stricts.

. Lorsque K est infini non dénombrable, établir que E n’est pas réunion dénombrable de sev stricts.

Indication : Penser au lemme de Baire au 1.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

.. Réponses aux tests

.. Faux, vrai.

.. Soit v ∈ E un vecteur non nul. Si λv = µv pour deuxscalaires λ et µ, alors

(λ − µ)v = λv − µv = 0,

donc λ − µ = 0 d’après la règle ... Cela montre quel’application K → E : λ 7→ λv est injective. Or, le corps Kcontient une infinité d’éléments. Donc E contient une infinité devecteurs de la forme λv.

.. L’axiome EV3, car il commence par « ∃0 ∈ E ».

.. Si 1A = 0A, alors

u = u × 1A = u × 0A = 0A

pour tout u ∈ A d’après la règle ...

.. Supposons que 1′ soit une unité de A. Alors

1′= 1A × 1

′= 1A

d’après l’axiome AL3.

.. Aucun.

.. Oui, c’est une R-algèbre qui s’identifie à C.

.. Soit P =P

k∈NakX

k , Q =P

k∈NbkX

k et

R =P

k∈NckX

k dans K[[X]].

Commutativité : dans PQ le coefficient d’ordre k est donné parla somme

a0bk + a1bk−1 + · · · + ak−1b1 + akb0.

La commutativité dans K assure que cette somme reste la mêmesi on échange les rôles des aj et des bj .Associativité : Posons

dk =

kXℓ=0

aℓbk−ℓ

et

ek =

kXℓ=0

bℓck−ℓ .

Le coefficient d’ordre k de (PQ)R est donné parX06ℓ6k

dℓck−ℓ

=X

06ℓ6k

X06j6ℓ

ajbℓ−jck−ℓ

=X

06j6ℓ6k

ajbℓ−jck−ℓ .

Le coefficient d’ordre k de P (QR) est donné par

X06j6k

ajek−j

=X

06j6k

aj

X06p6k−j

bpck−j−p

=X

06j6k

aj

Xj6j+p6k

bpck−(j+p)

=X

06j6k

aj

Xj6ℓ6k

bℓ−jck−ℓ

=X

06j6ℓ6k

ajbℓ−jck−ℓ .

..

a. Non :

(1, 0, 0)∧(x, y, z) = (0, ∗, ∗)6= (1, 0, 0)

pour tout (x, y, z) ∈ R3.

b. Pour la fonction constante w = 1, on a

w (u + v) = 1 6= 2 = w u + w v .

.. L’image de

1 10 1

est

2

1 00 1

+

1 10 1

2=

3 20 3

.

..1) Si F est un sous-espace vectoriel alors F est non-vide.

Prenons un v dans F . Alors 0 = 0 · v ∈ F .2) Évident.3) Il est clair que la condition est nécessaire. Réciproquement,

en prenant λ = 1, on voit que F est stable par addition. Enprenant λ = −1 et u = v un vecteur fixé dans F , on voitque F contient le vecteur nul. En prenant v = 0, on voitque F est stable par multiplication par scalaires.

.. Non.

.. Sous-algèbre. Sous-algèbre. Sous-algèbre. Sous-espacevectoriel. Pas un sous-espace vectoriel. Pas un sous-espacevectoriel. Pas une sous-algèbre car la fonction 1 n’est pas àsupport borné. Pas un sous-espace vectoriel. Sous-espacevectoriel.

.. Sous-espace vectoriel. Pas un sous-espace vectoriel.Sous-algèbre. Sous-espace vectoriel. Pas un sous-espacevectoriel. Sous-algèbre. Sous-espace vectoriel. Pas unsous-espace vectoriel.

.. Non, sinon K × K n’aurait que quatre sous-espacesvectoriels.

.. Vrai, faux, vrai, vrai, vrai, faux, vrai, vrai.

.. Elle est R-linéaire mais pas C-linéaire.

..

a. C’est un cas particulier de l’exemple .. avec lamatrice A = a de format 1× 1.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Réponses aux tests

b. On pose a = f(1), alors pour tout x ∈ K, on af(x) = f(x · 1) = x · f(1) = ax.

.. On vérifie facilement que c’est vrai.

.. Morphisme d’algèbres. Linéaire si Q = αX ; sinon nonlinéaire. Morphisme d’algèbres. Non linéaire. Linéaire. Nonlinéaire si B 6= 0. Linéaire. Linéaire.

.. idE .

.. Non. En effet, elle inverse l’ordre dans lamultiplication : tAB =t BtA et le produit matriciel n’est pasen général commutatif. On l’appelle un anti-automorphisme.

.. L’application est bien un isomorphisme d’espacesvectoriels mais non d’algèbres (si KN est munie de la structured’algèbre produit). En effet, elle ne conserve pas lamultiplication interne. Ou plus brièvement : elle n’envoie pasl’élément unité (1, 1, . . .) de KN sur l’élément unité X0 deK[[X]].

.. La linéarité des deux applications résulte des règles ducalcul matriciel. On constate que

2 15 3

est inversible d’inverse

3 −1−5 2

. Donc les deux applications ont pour inverses

M 7→

3 −1−5 2

M

3 −1−5 2

,

et M 7→

2 15 3

M

3 −1−5 2

.

La première application n’est pas un morphisme d’algèbres. Eneffet, elle ne conserve pas la multiplication interne et, en outre,elle n’envoie pas la matrice unité sur elle-même. La deuxièmeapplication est un automorphisme d’algèbres.Plus généralement, soit A une algèbre et a ∈ A inversible. Alorsl’application définie par b 7→ a−1ba est linéaire, conserve lamultiplication car

a−1bb′a = a−1baa−1b′a

et envoie 1A sur 1A . Son inverse est l’application b 7→ aba−1 ,donc il s’agit bien d’un automorphisme d’algèbres, que l’onappelle automorphisme intérieur parce qu’il est défini à partird’un élément a qui appartient à A.

.. Presque. La réponse serait affirmative si l’on pouvaitdéfinir l’ensemble de tous les espaces vectoriels, ce qui n’est pasévident dans le cadre de la théorie des ensembles. Pour donnerun sens à la question, on peut considérer la relation ≃ surl’ensemble des sous-espaces vectoriels d’un espace vectorielfixé. On obtient bien dans ce cas une relation d’équivalence.

.. D’après .. la réciproque est

L (Kn,Km) → Mmn(K), f 7→ Af ,

où Af = (f(e1), . . . , f(en)) est la matrice formée desvecteurs f(ei), écrits en colonne, images par f des vecteurs dela base canonique de Kn .

.. Pour un exemple de non-commutativité on s’inspire dela preuve de la proposition ...

f(x) = (x1, x1 + x2, x3, . . . , xn) ,

g(x) = (x2, x1, x3, . . . , xn) ,

où x = (x1, . . . , xn).Pour un exemple de diviseurs de zéro, on peut s’inspirer del’exemple .. ou prendre

f(x) = (x1, x1, x1, . . . , x1) ,

g(x) = (0, x2 − x1, . . . , xn − x1) .

..

a. Partie, noyau, groupe, condition suffisante, conditionnécessaire, clan (autre désignation pour « algèbre de Boole »).

b. C’est le mot « mais ». Condition suffisante et conditionnécessaire sont deux notions indépendantes. On peut bien dire« cet homme est russe, mais il vit au Brésil ». En revanche, ilserait bizarre de dire « cet homme est russe, mais il a 30 ans ».

..

a. (x, y, z) 7→ x + y − z convient. Dans ce cas, on pense F

comme une « tranche » de R3 , en tant que ligne de niveau de fd’équation f(p) = 0.

b. (x, y) 7→ (x, y, x+ y) convient. Dans ce cas, on pense F

comme un espace canonique R2 « plongé » dans R3.

..

a. f est injective car la matrice

2 −11 −2

de cette application

linéaire est de rang 2.

b. f est non injective car la matrice associée est de rang 1.

c. L’application est non linéaire ( !) et non injective (commez 7→ |z|2).

d. f est injective car c’est une application linéaire de noyaunul.

e. Φ est non injective car c’est une application linéaire denoyau non nul, constitué de toutes les fonctions de la formex 7→ cex, avec c ∈ K.

.. Non-sens car en général E 6= F , faux, vrai, vrai.

.. Non car elle ne contient pas la famille constante égale à1. Mais comme supp(fg) ⊂ supp(f) ∩ supp(g) on peut direque K(J) est une « sous-algèbre sans unité » et un idéal de KJ .

.. Non car les δk sont dans R(N) et(1, 1, . . .) ∈ RN \ R(N) .

.. Les deux assertions sont vraies.

..

a. Une suite stationnaire est à support fini si et seulement si salimite est nulle.

b. Une suite périodique est à support fini si et seulement si elleest nulle.

..

a. Soit f ∈ F . Alors il existe (λ, µ) ∈ R2 tels quef = λ sin+µ cos. Supposons f constante. Alors f est dérivableet 0 = f ′ = λ cos−µ sin. En évaluant cette relation en 0, onobtient λ = 0. Il s’ensuit que µ = 0 car la fonction sinus n’estpas identiquement nulle. Donc la seule fonction constante de Fest la fonction nulle.

b. Comme sin2 +cos2 = 1, toutes les fonctions constantessont dans G.

.. L’équation x2 = 0 convient.

.. vect(V ) = vect(U).

..

a. Faux, prendre par exemple V = 1 et U = 2 dans R.

b. Vrai. On a V ∩ U ⊂ vect(V ) ∩ vect(U). Commevect(V ) ∩ vect(U) est un sous-espace vectoriel, il doit contenirvect(V ∩ U).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

c. Faux, car vect(V \U) contient le vecteur nul, alors quevect(V )\vect(U) ne le contient pas.

d. Vrai.

.. Vrai. En effet, vect(V ) est l’ensemble de toutes lescombinaisons linéaires de familles finies de vecteurs dans V .

.. La partie (1, 0), (0, 1) engendre le C-espacevectoriel C2 et (1, 0), (0, 1), (i, 0)(0, i) engendre le R-espacevectoriel C2.

..

a. Faux.

b. Vrai, considérer l’application(λ1, . . . , λn) 7→

Pn

j=1λjvj pour une famille (v1, . . . , vn)

génératrice fixée.

.. Ils sont tous de dimension finie à l’exception dudernier.

.. Soit (vj)j∈J une famille de vecteurs de E noninjective. Cela signifie qu’il existe deux indices k 6= ℓ dans J telsque vk = vℓ. On a donc la relation vk − vℓ = 0, ce qui montreque la famille est liée. Si on préfère, on peut poser λk = 1,λℓ = −1 et λj = 0 pour tout j ∈ J \ k, ℓ, de sorte queP

j∈Jλjvj = 0.

.. Vrai. Faux (les parties 1 et 2 sont libres dans Rmais la partie 1, 2 est liée). Faux (considérer(1, 0), (0, 1), (1, 1) dans R2). Faux.

.. Oui. Soient λ, µ deux réels tels queλ log x+ µ

√x = 0 pour tout x > 0. Alors en évaluant cette

formule en x = 1, on obtient que µ = 0. Comme la fonction logn’est pas identiquement nulle, il s’ensuit que λ = 0.

.. Vrai. Faux car h = cos+i sin.

.. Elles sont fausses.

.. x 7→ x et x 7→ 1 constituent une base, donc ladimension est 2.

.. Soit r = min(m,n). Alors la dimension est

rXj=1

(m − j) =r(2m − r − 1)

2.

.. dim(Kn[X]) = n + 1.Il s’agit de 4 polynômes inclus dans l’espace K2[X] dedimension 3.

.. Non, car ces quatre fonctions sont dans l’espaceengendré par les 3 fonctions f, g, fg′ .

.. Notons 1 la suite constante (1, 1, . . .). On connaît déjàune famille libre dans S, à savoir (δj)j∈N et la suite 1 n’est pascombinaison linéaire de cette famille. Donc, d’après le lemme.., la famille « enrichi » (δj)j∈N ∪ 1 est une partie libre.Montrons que c’est une base de S. Soit a = (an)n∈N une suitestationnaire. Il existe α ∈ K et N ∈ N tels que an = α pourtout n > N . Ainsi la suite a − α · 1 est à support fini et elle estdonc combinaison linéaire de la famille (δj)j∈N . Parconséquent, a est bien combinaison linéaire de 1, δ0, δ1, . . .

.. (1, 0, 0, 1, 0, 0, . . . ), (0, 1, 0, 0, 1, 0, . . . ),(0, 0, 1, 0, 0, 1, . . . ).

.. Non.

.. On cherche une telle application sous la forme d’unematrice

a b cd e f

qui doit vérifier(

a + 2b + 3c = 1d + 2e + 3f = 0

2a + 3b + c = 12d + 3e + f = 0

Ce système admet des solutions, par exemple,

−1 1 00 0 0

. La

réponse à la question est donc affirmative.

..

a. Oui, (x, y) 7→ (x, y, 0).

b. Non, car R2 est de dimension finie et C (R) est dedimension infinie.

c. Oui, f 7→ f(0).

d. Oui, f 7→ f exp.

e. Non, car C[X] est de dimension infinie et Cn[X] est dedimension finie.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

D’abord, constatons que si u, v ∈ R∗+, λ ∈ R, alors

u ⊞ v = uv > 0 et λ u = uλ = eλ ℓn(u) > 0,

donc les lois internes et externes sont bien à va-leurs dans R∗

+. Vérifions les huit règles de la défi-nition ...⋄ Commutativité : u ⊞ v = uv = vu = v ⊞ u.⋄ Associativité : u ⊞ (v ⊞ w) = u(vw) = (uv)w =

(u⊞ v)⊞ w.⋄ Le vecteur nul est le nombre 1 ∈ R∗

+.⋄ Le vecteur opposé de u ∈ R∗

+ est u−1.⋄ 1 u = u1 = u.

⋄ λ (µ u) = λ uµ = (uµ)λ = uµλ = uλµ =(λµ) u.

⋄ (λ + µ) u = uλ+µ = uλuµ = uλ ⊞ uµ =λ u⊞ µ u.

⋄ λ (u ⊞ v) = (uv)λ = uλvλ = uλ ⊞ vλ =λ u⊞ λ v.

Remarque – Il n’y rien de mystérieux avec cet es-pace vectoriel. En effet, il n’est qu’une réécriture del’espace vectoriel canonique R ; on a « transporté » lastructure de l’espace vectoriel R sur l’ensemble R∗ parla bijection exp : R→ R∗

+ .)

Solution ..

. P 7→ XP . . P 7→ P ′.

Solution ..

a. Oui.

b. Oui.

c. Non car

(bn − bn−1) + (bn−1 − bn−2) + · · ·+ (b1 − bn) = 0.

Solution ..

Non, en effet si c’était le cas, alors R ≃ Q(N). Ordans des exemples du chapitre sur la dénombra-

bilité nous avons vu que R est non-dénombrabletandis que Q(N) est dénombrable.

Solution ..

période

θ

ω

a

t

Montrons d’abord que (s, c) est une famillelibre. Soit (λ, µ) ∈ R2 tel que λs + µc = 0. Celasignifie que λs(t) + µc(t) = 0 pour tout t ∈ R.Pour t = 0 on obtient λ = λs(0)+µc(0) = 0. Doncil reste µc(t) = 0 pour tout t ∈ R. Évaluant ent = π

2ω, on obtient finalement µ = 0

Soit a, θ ∈ R. Alors d’après la formule d’addi-tion du sinus on a pour tout t ∈ R :

a sin(ωt+ θ) = a sin(θ) cos(ωt) + a cos(θ) sin(ωt)

= λc(t) + µs(t),

où l’on a posé λ = a sin(θ) et µ = a cos(θ). Celaprouve que Sω ⊂ vect(s, c).

Pour l’inclusion réciproque, soit λ, µ ∈ R. Po-sons f(t) = λc(t) + µs(t) . Nous devons trouverdeux réels a, θ tels que f(t) = a sin(ωt + θ) pourtout t ∈ R. L’idée repose sur l’écriture polaire d’unnombre complexe : il existe a > 0 et θ ∈ R tels queµ+ iλ = aeiθ = a cos θ + ia sin θ. Ainsi

f(t) = λc(t) + µs(t)

= a sin(θ)c(t) + a cos(θ)s(t)

= a sin(ωt+ θ).

Cela prouve que Sω ⊃ vect(s, c).

En termes de physique, cela signifie que la super-position de deux oscillations avec une fréquencecommune est une oscillation de même fréquence.L’espace des fonctions sinusoïdales à fréquencedonnée est de dimension deux.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Solution ..

⋄ Pour des raisons de dimension, on a

R2n+3 ≃ Rn[X]×Rn×C ≃ Cn[X]×R.

⋄ Soit ψ : R →] − 1, 1[ une bijection (par exemplex 7→ 1

πarctan x).

Il est clair que l’application C]−1,1[ → CR, f 7→f ψ, est linéaire. Elle est bijective car f 7→ f ψ−1

est son inverse. Donc

C]−1,1[ ≃ CR .

⋄ Même idée : soit ϕ : N → Z une bijection (parexemple 0 7→ 0, 1 7→ 1, 2 7→ −1, 3 7→ 2,4 7→ −2 . . .).Il est clair que l’application CZ → CN, (uk)k∈Z 7→(uϕ(k))k∈N, est linéaire. Elle est bijective car(uk)k∈N 7→ (uϕ−1(k))k∈Z est son inverse. On a alors

CZ ≃ CN ≃ C[[X]] .

⋄ Les isomorphismes ci-dessus induisent des iso-morphismes C(Z) ≃ C(N) ≃ C[X] . Enfin, en as-sociant à tout polynôme complexe sa partie réelleet sa partie imaginaire, on voit que C[X] est iso-morphe à R[X]2, d’où

C(Z) ≃ C(N) ≃ C[X] ≃ R[X]2 .

⋄ L’application

C (R)→ C10 (R) , g 7→

x 7→

Z x

0

g(t)dt,

est linéaire. Elle est bijective car la dérivation f 7→f ′ est son inverse. Ainsi,

C10 (R) ≃ C (R) .

⋄ L’application

C1(R)→ C

10 (R)× R , g 7→ (g − g(0), g(0)),

est linéaire. Elle est bijective car (f, c) 7→ f + c estson inverse. Donc

C10 (R)× R ≃ C

1(R) .

Remarque – On vient de montrer que parmi les 17espaces vectoriels proposés, le nombre de classes d’iso-morphie est au plus 6. On n’a pas démontré que cenombre est égal à 6.

Solution ..

Ce sont les fonctions dont l’image est soit de laforme 0, c, soit de la forme c , avec c ∈ C∗

ou c ∈ C. En effet, soit f ∈ CJ telle que f et f2

sont liées. Alors il existe λ et µ non tous les deuxnuls dans K tels que λf + µf2 = 0. Soit j ∈ J tel

que f(j) 6= 0. Alors λ + µf(j) = 0. Ainsi µ 6= 0,car sinon µ = λ = 0. Il en résulte que f(j) = −λ

µ.

Réciproquement, si f ∈ CJ ne prend que la va-leurs c ∈ C, et éventuellement la valeurs nulle,alors cf − f2 = 0. Donc f et f2 sont liées.

Solution ..

. Puisque

(λ− 3µ, 2λ+ 3µ, λ) = λ(1, 2, 1) + µ(−3, 3, 0)l’ensemble F est le sous-espace vectoriel engendrépar (1, 2, 1) et (−1, 1, 0). L’ensembleG est un sous-espace vectoriel car c’est l’ensemble des solutionsdu système homogène x+ 2y = 0.

. D’abord une observation : F et G étant desplans on s’attend à ce que leur intersection F ∩ Gsoit une droite (sauf dans le cas où F = G).Soit v = (x, y, z) ∈ R3. Alors v ∈ F ∩G si, et seule-ment si, x+2y = 0 et v ∈ vect((1, 2, 1), (−1, 1, 0)).Autrement dit v ∈ F ∩ G si, et seulement si,v = (−2y, y, z) et si

rg

−1 1 −2y1 2 y0 1 z

!= 2.

Par pivot de Gauss on transforme la matrice ci-dessus en −1 1 −2y

0 3 −y0 0 3z + y

!,

donc la condition du rang donne 3z + y = 0.Donc F ∩ G est l’espace de solutions du systèmex + 2y = 3z + y = 0, ou encore l’espace vectorielengendré par (6,−3, 1).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

a. Dimension infinie. Les fonctions x 7→ x2k,k ∈ N, forment une famille libre.

b. Dimension infinie. Les suites périodiques sui-vantes forment une famille infinie libre :

(1, 1, 1, 1, 1, 1, 1, 1, 1, 1, . . .) période 1

(1, 0, 1, 0, 1, 0, 1, 0, 1, 0, . . .) période 2

(1, 0, 0, 0, 1, 0, 0, 0, 1, 0, . . .) période 22

(1, 0, 0, 0, 0, 0, 0, 0, 1, 0, . . .) période 23

...

c. Dimension finie de base

(1, 0, 0, 1, 0, 0, . . .)

(0, 1, 0, 0, 1, 0, . . .)

(0, 0, 1, 0, 0, 1, . . .)

d. Dimension finie car toute suite de Fibonacci estdéterminée par ses deux premiers termes.

e. Dimension finie car sous-espace vectoriel deKn.

Solution ..

⋄ F est un sous-espace vectoriel de E. En effet, Fcontient la suite nulle ; la stabilité par combinai-son linéaire résulte de la linéarité de lim, vue enanalyse – plus précisément, si (un)n∈N et (un)n∈N

sont dans F et si λ est dans K, alors

limn→∞

((un + λvn)− (un+1 + λvn+1))

est égale à

limn→∞

(un − un+1) + λ limn→∞

(vn − vn+1) = 0.

⋄ G est non vide car il contient la suite nulle ;d’après le cours d’analyse, toute combinaison li-

néaire de suites dominées par n2 est dominée parn2 : G est donc un sous-espace vectoriel de E.

⋄ H n’est pas un sous-espace vectoriel, il necontient pas la suite nulle.

⋄ L n’est pas un espace vectoriel car il n’est passtable par l’addition. En effet, les suites

1

n+ 1

n>0

et

1

(n+ 1)2− 1

n+ 1

n>0

appartiennent à L mais pas leur somme.

Solution ..

Oui, non, oui. Explication : Si P =P

k>0akX

k

et Q =P

k>0bkX

k alors dans P (Q) le terme

constant seraitP

k>0akb

k0 ce qui, en général, a

seulement un sens si b0 = 0 ou s’il n’y a qu’un

nombre fini de ak non nuls. Si b0 = 0 alors Q =XR avec R ∈ K[[X]], et P (Q) =

Pk>0

akXkRk a

bien un sens car pour calculer le coefficient de Xn

seulement les n premiers termes de cette sommeinterviennent.

Solution ..

(⇒) est trivial.

(⇐) Pour tout vecteur v non nul, il existe λv ∈ Ktel que f(v) = λvv. Prouvons que le scalaire λv estindépendant de v. Soient u, v deux vecteurs nonnuls de E.

⋄ Cas 1 : (u, v) est libre.

En particulier, u+ v 6= 0. On a donc

f(u+ v) = λu+v(u+ v) = λu+vu+ λu+vv,

mais on a aussi

f(u+ v) = f(u) + f(v) = λuu+ λvv.

Ainsi, λuu + λvv = λu+vu + λu+vv, et puisque lafamille est libre, λu = λu+v = λv.

⋄ Cas 2 : (u, v) est liée.

Puisque u 6= 0 et v 6= 0, il existe donc µ ∈ K∗ telque v = µu. On a f(v) = λvv = µλvu, mais aussif(v) = f(µu) = µλuu. Ainsi, λu = λv puisqueµ 6= 0.

Conclusion : en notant λ la valeur commune desλv pour v non nul, on a pour tout v non nul,f(v) = λv. Puisque f(0) = 0, cette égalité est va-lable sur E.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

Solution ..

. Puisque f2 = 0 est équivalent à Im(f) ⊂Ker(f), on a dim(Im(f)) 6 dim(Ker(f)). Deplus, Im(f) 6= Ker(f) car sinon, en appliquantle théorème du rang, on obtiendrait la contra-diction 2 dim(Im(f)) = 3. Ainsi, dim(Im(f)) <dim(Ker(f)). Puisque f est non nulle,

1 6 dim(Im(f)) et dim(Ker(f)) 6 2.

Ainsi, rg(f) = 1. Un exemple est l’endomor-phisme de R3 associé à la matrice

0 1 00 0 00 0 0

!.

. Puisque f3 = 0 équivaut à Im(f) ⊂ Ker(f2),on a dim(Im(f)) 6 dim(Ker(f2)).

De plus, f2 6= 0 (donc a fortiori f 6= 0) ; ainsi

1 6 dim(Im(f)) et dim(Ker(f2)) 6 2.

On a donc rg(f) = 1 ou 2.

Montrons que le cas rg(f) = 1 ne peut avoir lieu.Supposons par l’absurde que rg(f) = 1. Commef2 6= 0, on a dim(Im(f2)) > 1. D’autre partIm(f2) ⊂ Im(f) et par conséquent Im(f2) =Im(f). Ainsi, f2(E) = f(E) et donc

f3(E) = f(f2(E)) = f2(E) = f(E),

ce qui est absurde car f3(E) = 0. Ainsi, rg(f) =2. Un exemple est l’endomorphisme de R3 associéà la matrice

0 1 00 0 10 0 0

!.

Solution ..

. E est de dimension infinie.

. ψ est bien définie car la fonction primitiveψ(f) = g est bien une fonction continue. La vé-rification de la linéarité est facile.

. ⋄ Soit f ∈ Ker ψ. On a alors

∀x ∈ R+,

Z x

0

tf(t)dt = 0.

La fonction t 7→ tf(t) étant continue sur R+, l’ap-plication

x 7→Z x

0

tf(t)dt

est dérivable sur R+ de dérivée

x 7→ xf(x).

Ainsi,∀x ∈ R+ , xf(x) = 0.

En particulier, ∀x > 0, f(x) = 0 puis f(0) = 0 parcontinuité de f en zéro. Le noyau de ψ est donc ré-duit à 0 et ψ est injective.

⋄ L’application ψ n’est pas surjective puisque

∀f ∈ E, ψ(f)(0) = 0

et qu’il existe des fonctions g ∈ E telles que g(0) 6=0 (comme g = cos ou g = 1).

. Soient λ ∈ R et f ∈ Ker(ψ − λidE).

⋄ Cas 1 : λ = 0.

On a montré à la question précédente que Ker ψ =0.

⋄ Cas 2 : λ 6= 0.

Pour tout x positif,Z x

0

tf(t)dt− λf(x) = 0,

d’où

∀x ∈ R+ , f(x) =1

λ

Z x

0

tf(t)dt.

La fonction f est donc dérivable et

∀x ∈ R+ , xf(x)− λf ′(x) = 0.

De plus,

f(0) =1

λ

Z 0

0

tf(t)dt = 0.

La fonction f est alors solution du problème deCauchy

y′ − 1

λxy = 0 , y(0) = 0.

D’après les théorèmes sur les équations différen-tielles linéaires, nous savons que ce problème pos-sède une solution unique, et par conséquent f = 0.Ainsi, Ker(ψ − λidE) = 0.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

Soient α , β et γ ∈ R tels que

∀ x > 0 , α e x + β x 2 + γ ℓn( x ) = 0 .

. Si on remplace x = 1, e,√e, on est amené à un

système linéaire homogène dont la matrice est

A =

e 1 0ee e2 1

e√e e 1

2

.

Supposons par l’absurde que rg(A) 6= 3. NotonsL1, L2, L3 les lignes de A. On voit que L2 et L3 nesont pas colinéaires (car e2 × 1

2− e× 1 6= 0).

Donc il existe λ, µ ∈ R tels que L1 = λL2 + µL3.On voit sur la dernière coordonnée que µ = −2λ.On a donc e = λ(ee − 2e

√e) et 1 = λ(e2 − 2e). En

multipliant la dernière équation par e, on obtient

ee − 2e√e = e3 − 2e2 .

Avec la calculatrice, on vérifie que cette égalité estfausse.

. Cette méthode est plus élégante, car elle ne faitpas appel à la calculatrice qui, après tout, pourraitfaire des erreurs d’arrondi.On a pour tout x strictement positif,

α + β x 2 e−x + γ ℓn( x ) e−x = 0,

et faisant tendre x vers +∞ , d’après les crois-sances comparées, α = 0 . On a pour tout x stric-tement positif,

β + γℓn(x )

x 2= 0 ,

et faisant tendre x vers +∞ , d’après les crois-sances comparées , β = 0 . On a alors γ = 0 car lafonction logarithme est non nulle.

Solution ..

Soit (λt)t∈R une famille à support fini telle queXt∈R

λtft = 0 .

Supposons par l’absurde qu’il existe r ∈ R tel queλr 6= 0. Alors on a

fr = − 1

λr

Xt∈R,t 6=r

λtft .

On remarque que la fonction ft est dérivable entout point de R sauf en t. Ainsi, la somme ci-dessusdonne une fonction dérivable en r, ce qui est encontradictoire car fr n’y est pas dérivable.

Solution ..

. Un élément de KI×J est une fonction f : I ×J → E. En posant ϕ(j)(i) = f(i, j) , (i, j) ∈I × J , cela définit pour tout j ∈ J une fonctionϕ(j) : I → E, donc ϕ est un élément de (KI)J .Réciproquement, si ψ ∈ (KI)J , alors en posantf(i, j) = ψ(j)(i), on obtient un élément f de KI×J .Cela définit une bijection naturelle entre KI×J et(KI)J .

. Si f : I × J → E est à support fini,alors f(i, j) = 0 pour tout (i, j) ∈ I ×

J\(i1, j1), . . . , (in, jn) avec certains ik ∈ I etjk ∈ J . On pose I ′ = i1, . . . , in et J ′ =j1, . . . , jn. Alors (i1, j1), . . . , (in, jn) ⊂ I ′×J ′.Donc ϕ(j)(i) = f(i, j) = 0 pour tout i ∈ I\I ′ etϕ(j) est la fonction nulle sur I pour tout j ∈ J\J ′.Réciproquement, soitψ ∈ (K(I))(J). Alors,ψ(j) estla fonction nulle sur I pour tout j ∈ J\j1, . . . , jnavec certains jk ∈ J . De plus, on a ψ(jk)(i) = 0pour tout i ∈ I\I ′k , où I ′k est un sous-ensemblefini de I , k = 1, . . . , n. Donc f(i, j) = ψ(j)(i) = 0pour tout (i, j) ∈ (I × J)\(

Sn

k=1I ′k× J ′).

Solution ..

. Une équation cartésienne deD est x+√3y = 2 .

Une écriture paramétrique est

D =1

2(1,√3) + R(

√3,−1) .

b

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces vectoriels et applications linéaires

. f(D) = 12f(1,√3) + R f(

√3,−1) . Donc,

si f(√3,−1) = 0, alors f(D) consiste du point

unique P ′ = 12f(1,√3). Dans le cas contraire f(D)

est la droite parallèle à vect(f(√3,−1)) et passant

par a.

. D’abord une remarque générale : Si S est unsous-ensemble de R2 défini par une équationΨ(x, y) = 0 et si A est un automorphisme de R2,alors l’ensemble image A(S) est défini par l’équa-tion

(Ψ A−1)(x, y) = 0 ,

c’est-à-dire on remplace dans l’équation Ψ(x, y) =0 les varibales (x, y) par A−1(x, y). On le com-prend mieux dans la pratique : Images par A1.L’équation Ψ(x, y) = 0 du cercle C est donnée parla fonction Ψ(x, y) = x2 + y2 − 1. Un point (ξ, η)de R2 est dans A1(C) si et seulement s’il existe(x, y) ∈ R2 tel que

ξη

= A1

xy

et x2 + y2 − 1 = 0 .

Ou encorexy

= A−1

1

ξη

=

ξ2

η

et x2 + y2 − 1 = 0 ,

ce qui se ramène à la seule conditionξ

2

2

+ η2 − 1 = 0 .

Or ξ et η sont des variables muettes (on n’a pas faitde changement de coordonnées), donc on peut lesrenommer par x et y. Ainsi l’équation de l’imageC′

1 de C par A1 est

C′1 : x2 + 4y2 = 4 .

De même, en remplaçant dans l’équation carté-sienne de D, on obtient

D′1 : x+ 2

√3y = 4 .

b

Images parA2 : On trouve par la même méthode

C′2 = C : x2+y2 = 1 et D′

2 :√3x−y = 2 .

Remarque – Il s’agit d’une rotation d’angle −π2

.

b

Images par A3 : On a A−13 = ( 1 −1

0 1 ) donc

C′3 : (x − y)2 + y2 = 1 et D′

3 : x− y +√3y = 2 .

ou encore

C′3 : x

2 − 2xy + 2y2= 1 et D

′3 : x + (

√3 − 1)y = 2 .

b

Images par A4 : On a

A−14 =

cos π

6sin π

6− sin π

6cos π

6

=

1

2

√3 1

−1√3

.

On trouve

C′4 = C : x2 + y2 = 1 et D′

4 : y = 1 .

Remarque – Il s’agit d’une rotation d’angle π6

.

b

Images par A5 : Ici on n’a pas affaire à un au-tomorphisme. En effet A5 envoie tout R2 sur ladroite d’équation y − x = 0. D’après la question2., D′

4 = P ′5(2, 2).

C′5 consiste de tous les points de la forme

(x +√3y, x +

√3y) avec x2 + y2 = 1. Autre-

ment dit, ce sont tous les points de la forme(x +

p3(1− x2), x +

p3(1− x2)) ou (x −p

3(1− x2), x −p

3(1− x2)) avec −1 6 x 6 1.Par un petit calcul d’extrema, on trouve que C′

5

consiste en tous les points de la forme (t, t) avec|t| 6 2.

On trouve

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

C′5 :

§x− y = 0|x| 6 2

et D′5 :

§x = 2y = 2

.

Remarque – À une homothétie près, il s’agit de laprojection sur la droite R(1, 1) parallèlement à la droiteR(√3,−1) , donc parallèlement à la tangente T .

Images par A6 : Comme ci-dessus, A6 envoietout R2 sur la droite d’équation y− x = 0. D’aprèsla question 2., l’image de D est cette droite touteentière. On trouve

C′6 :

§x− y = 0

2|x| 6√2

et D′6 : x− y = 0 .

Remarque – À une homothétie près, il s’agit de laprojection orthogonale sur la droite R(1, 1) .

b

Solution ..

Oui ça existe. La construction est basée sur l’obser-vation générale suivante. Si B ⊂ E est une based’un espace vectoriel E et si ϕ est une applicationde B vers ]0,∞[ alors on peut définir une normesur E comme suit : Si f =

Pb∈B

λbb ∈ E alorson pose ‖f‖(B,ϕ) :=

Pb∈B|λb|ϕ(b) (seulement un

nombre fini de coefficients non-nuls). On vérifiequ’il s’agit bien d’une norme d’espace vectoriel.

Maintenant on considère E := C([0, 1]) et une fa-mille libre (fn)n∈N∗ dans E telle que fn > 1 (parexemple fn(x) = 1 + xn). Grâce à l’axiome duchoix il existe une base B de E la contenant. Main-tenant il suffit de choisir l’application ϕ : B →]0,∞[ de sorte que ϕ(fn) = 1/n pour tout n ∈ N∗.Alors limn→∞ ‖fn‖(B,ϕ) = limn→∞

1n= 0.

Solution ..

. C’est une conséquence immédiate du lemme deBaire.

. Nous proposons deux preuves indépendantes.

Raisonnons par l’absurde en supposant que

E =[m∈N

Fm

avec, pour tout entierm, Fm sev strict deE. Consi-dérons une base B = (e1, . . . , en) de E et, pourtout λ ∈ K∗,

fλ =

nXk=1

λk−1ek.

Comme K n’est pas dénombrable, il existe i ∈ Ntel que Fi contienne une infinité de vecteurs fλ.Il existe donc en particulier n scalaires λ1, . . . , λn

deux à deux distincts tels que

∀1 6 k 6 n, fλk∈ Fi.

Comme le déterminant de Van der Monde

V (λ1, . . . , λn)

est non nul (les scalaires λk sont deux à deux dis-tincts), on en déduit que

∀1 6 k 6 n, ek ∈ Fi

et donc que Fi = E, ce qui est absurde.

Nous pouvons supposer que E = Kn et procé-der par récurrence sur n.Les cas n = 0 et n = 1 sont évidents. Soit donc n >1. Supposons par l’absurde queKn est réunion dé-nombrable de sous-espaces stricts

Kn =[m∈N

Fm .

Considérons la famille d’hyperplans

Hλ = (x1, . . . , xn) ∈ Kn | x1+λx2 = 0 , λ ∈ K .

Elle est injective et non-dénombrable. Donc ilexiste un scalaire λ0 tel que Hλ0 6= Fm pour toutnaturel m. Par conséquent la famille

Fm ∩Hλ0 , m ∈ N ,

est une famille de sous-espaces vectoriels stricts deHλ0 et son union est Hλ0 . Or c’est une contradic-tion à notre hypothèse de récurrence.

Université Paris Sud agreg 2012 - 2013

Représentation matricielle d’une application linéaire

POUR décrire la position d’un vecteur dans un plan, il suffit de fixer un repère constitué dedeux vecteurs non colinéaires, puis d’identifier tous les vecteurs du plan aux couples de co-ordonnées dans R2 à l’aide de la décomposition dans cette base. Ce procédé se généralise à

tout espace vectoriel de dimension quelconque et conduit à la notion de système de coordonnées.

.. Système de coordonnées associé à une base

Pour fixer les idées, nous commençons par considérer les espaces vectoriels de dimension finie.L’idée sous-jacente à cette partie est qu’il existe toujours suffisamment de fonctions linéaires surun espace vectoriel pour distinguer chacun des vecteurs. Pour un espace de dimension n, nousallons voir qu’il suffit de n fonctions bien choisies pour distinguer chacun des vecteurs.

Définition ..Soit E un espace vectoriel de dimension n et soit B = (b1, . . . , bn) une base de E. L’application linéaire

ΦB : Kn → E , (λ1, . . . , λn) 7→ λ1b1 + · · ·+ λnbn

est un isomorphisme d’espaces vectoriels. Son isomorphisme réciproque ΦB : E → Kn est appelé système decoordonnées associé à la base B.

Ainsi le système de coordonnées ΦB est un n-uplet ΦB = (ϕ1, . . . , ϕn) de fonctions linéairesϕj : E → K pour j = 1, . . . , n, appelées fonctions coordonnées associées à B. Si on décomposeun vecteur sous la forme v =

Pnj=1 λjbj , alors les coefficients λj sont appelés les coordonnées de

v dans la base B. Le système de coordonnées ΦB envoie tout vecteur v ∈ E sur le n-uplet de sescoordonnées dans la base B.

Remarque..Rappelons que les fonctions coordonnées sont linéaires parce que ce sont les composantes d’uneapplication linéaire à valeurs dans Kn (voir le test ..). Chacune de ces fonctions est sensibleau choix de la base entière : si on change un seul vecteur d’une base, alors, en général, toutes lesfonctions coordonnées changent comme le montre l’exemple ci-dessous.

Dans la base (u, v),

u

v

w

le vecteur w a pour coordonnées (1, 1).

Dans la base (u′, v′) = (u, 13u+ 13v),

u′

v′

w

le vecteur w a pour coordonnées (0, 3).

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Exemple ..Soit F = (x, y, z) ∈ R3 | x − y + z = 0 . Dans l’exemple .., nous avons montré que A =((1, 1, 0), (0, 1, 1)) et B = ((1, 0,−1), (0, 1, 1)) sont des bases de F . Pour chacune de ces deux bases, ex-plicitons le système de coordonnées associé.

⋄ Soit (x, y, z) dans F . Alors (x, y, z) = (x, x+ z, z) = x(1, 1, 0) + z(0, 1, 1). Donc

ΦA : F → R2, (x, y, z) 7→ (x, z).

⋄ Soit (x, y, z) dans F . Alors (x, y, z) = (x, y, y − x) = x(1, 0,−1) + y(0, 1, 1). Donc

ΦB : F → R2, (x, y, z) 7→ (x, y).

Voici deux caractérisations des systèmes de coordonnées.

Proposition ..Soit E un espace vectoriel de dimension finie et soit B = (b1, . . . , bn) une base de E.1) Le système de coordonnées associé à B est l’unique n-uplet de fonctions ϕj ∈ L (E,K), j =

1, . . . , n, tel que

∀ v ∈ E , v =nX

j=1

ϕj(v)bj . (.)

2) Le système de coordonnées associé à B est l’unique n-uplet de fonctions ϕj ∈ L (E,K), j =1, . . . , n, tel que

∀ (j, ℓ) ∈ 1, . . . , n2 , ϕj(bℓ) = δjℓ . (.)

Preuve.1) C’est une conséquence immédiate de la définition 18.29 des fonctions coordonnées.2) Comme la décomposition de chaque vecteur bℓ suivant la base B est unique, les fonctionscoordonnées vérifient bien la condition (.). Inversement, soit ψj : E → K une fonction linéairetelle que ψj(bℓ) = δjℓ pour tout ℓ. Nous allons montrer que ϕj = ψj . Soit v ∈ E. La relation (.)montre que v =

Pnℓ=1 ϕℓ(v)bℓ . Donc la linéarité de ψj entraîne que

ψj(v) = ψj

nX

ℓ=1

ϕℓ(v)bℓ

!=

nXℓ=1

ϕℓ(v)ψj(bℓ) =nX

ℓ=1

ϕℓ(v)δjℓ = ϕj(v) ,

ce qui prouve l’égalité des fonctions ψj et ϕj .

Calcul en coordonnées – pour et contre

Nous avons étudié au chapitre une liste d’espaces vectoriels

K,K2, . . . ,Kn, . . .

Or, d’après la proposition .., tout K-espace vectoriel de dimension finie est isomorphe à ununique élément dans cette liste. Autrement dit, à chaque entier n > 1 correspond un unique es-pace vectoriel Kn, et à chaque espace vectoriel E de dimension finie correspond un unique entiern tel que E est isomorphe à Kn. La liste des espaces canoniques est une classification des espacesvectoriels de dimension finie. Il est très remarquable d’avoir ainsi pu mettre en correspondanceun objet infini et « continu », tel qu’un espace vectoriel, avec un objet fini et discret, sa dimension.Tout énoncé dans un espace vectoriel E de dimension finie n possède sa traduction en coordon-nées. Par exemple, pour vérifier si des vecteurs dans E sont linéairement dépendants, on calculeles coordonnées de ces vecteurs et on se ramène ainsi à un calcul de dépendance linéaire dans Kn.Toutefois, ce serait une erreur de vouloir faire de l’algèbre linéaire uniquement sur Kn, même endimension finie. En voici quelques raisons supplémentaires.

⋄ Raison naturelle. L’isomorphisme ΦB entre E et Kn n’est pas naturel, il dépend du choix dela base B dans E. En général, il n’y a pas de base naturelle, donc pas de choix naturel.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Système de coordonnées associé à une base

⋄ Raison nominale. En identifiant tout espace de dimension finie avec l’espace canonique onperdrait vite le contact avec la question posée. Les objets mathématiques portent des noms et sontnotés d’une certaine façon, ce qui n’est pas anodin dans notre manière de les penser. Par exemple,l’espace engendré par les colonnes d’une matrice a la même dimension que l’espace engendré parses lignes (voir la poproposition ..). Donc les deux sont isomorphes. Or il serait complètementabsurde d’identifier ces deux espaces.

⋄ Raison efficiente. Passer aux coordonnées signifie en général que l’on va faire des calculs,avec toujours une possibilité d’erreur et le risque de perdre le fil de ce que l’on souhaite prouver.Nous savons par expérience que beaucoup de problèmes de géométrie ont des solutions courteset élégantes sans calcul avec les coordonnées. Il faut garder le passage aux coordonnées commeune roue de secours quand on n’a plus d’autres moyens.

Fonctions coordonnées associées à une base en dimension infinie

Soit E un espace vectoriel de dimension infinie, et soit B = (bj)j∈J une base de E . Le systèmede coordonnées ΦB associé à la base B est l’application réciproque de l’isomorphisme

ΦB : K(J) → E , (λj)j∈J 7→Xj∈J

λjbj .

Le système de coordonnées ΦB est donc une famille (ϕj)j∈J de fonctions de E dans K. Commeen dimension finie, ces fonctions sont caractérisées par les deux propriétés équivalentes

1) ∀v ∈ E , v =Xj∈J

ϕj(v)bj ,

2) ∀j ∈ J, ϕj est linéaire et ∀ℓ ∈ J, ϕj(bℓ) = δjℓ .

Exemple ..Soit B = (Xk)k∈N la base naturelle de K[X]. Alors le système de coordonnées ΦB est un isomorphismequi, à un polynôme, associe la suite à support fini de ses coefficients.

ΦB : K[X] → K(N) , P =Xk∈N

akXk 7→ (ak)k∈N .

Tests

.. Soient u et v des vecteurs d’un espace de dimension 3. Dansun système de coordonnées (ϕ1, ϕ2, ϕ3) associé à une base, on aϕ2(u) = 2ϕ3(v) = 4 et ϕ3(u) = 3ϕ2(v) = 3 . Montrer que lafamille (u, v) est libre.

.. Montrer la linéarité des fonctions coordonnées directement àpartir de la relation (.).

.. Expliciter le système de coordonnées ΦB dans chaque cas :

a. E = Kn et B la base canonique ;

b. E = Kn[X] et B = (1, X, . . . , Xn) ;

c. E = K2[X] et B = (1, 1 + X, 1 + X + X2) ;

d. E = K2 et B = ((1, 0), (1, 1)) ;

e. E = K2 et B = ((1, 1), (−1, 1)).

Définir une application linéaire par les images d’une base

Il est possible de construire une application linéaire en prescrivant dans l’espace d’arrivée l’imagede chacun des vecteurs d’une base choisie dans l’espace de départ. Cette construction fait appel àla linéarité des fonctions coordonnées.

Proposition .. Soit (bj)j∈J une base de E et (uj)j∈J une famille arbitraire dans F . Alors il existeune unique application linéaire f : E → F telle que, pour tout j ∈ J , f(bj) = uj .Autrement dit, une application linéaire est définie par les valeurs qu’elle prend sur une base.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Preuve. Unicité : c’est une conséquence de la proposition ... Existence : notons (ϕj)j∈J le système de coordonnées associé à la base (bj)j∈J . Posons

f(v) =Xj∈J

ϕj(v)uj .

Il faut vérifier que f satisfait les conditions demandées. Grâce à la proposition .., on a

∀ ℓ ∈ J , f(bℓ) =Xj∈J

ϕj(bℓ)uj =Xj∈J

δjℓuj = uℓ .

La linéarité de f découle de celle des fonctions coordonnées. En effet, pour tous (v, w) ∈ E2 etλ ∈ K, on a

f(v + λw) =Xj∈J

ϕj(v + λw)uj =Xj∈J

(ϕj(v) + λϕj(w)) uj

=Xj∈J

ϕj(v)uj + λXj∈J

ϕj(w)uj = f(u) + λf(v).

Changement de coordonnées en dimension finie

Un changement de base induit un changement des coordonnées. Soient B = (b1, . . . , bn) et B′ =(b′1, . . . , b

′n) deux bases de E, et soient ΦB = (ϕ1, . . . , ϕn) et ΦB′ = (ϕ′

1, . . . , ϕ′n) les systèmes de

coordonnées associés. Exprimons chaque vecteur de la base B′ en fonction des vecteurs de la baseB. On a

∀ k ∈ J1, nK : b′k =nX

ℓ=1

γℓkbℓ avec γℓk ∈ K. (.)

Pour tout vecteur v ∈ E, on a

v =Xk=1

ϕ′k(v)b

′k =

Xk=1

ϕ′k(v)

nXℓ=1

γℓkbℓ =nX

ℓ=1

Xk=1

γℓkϕ′k(v)

!bℓ .

En comparant cette décomposition avec la décomposition v = ϕℓ(v)bℓ , on obtient par unicité

∀ ℓ ∈ J1, nK : ϕℓ(v) =Xk=1

γℓkϕ′k(v) . (.)

Traduisons (.) et (.) matriciellement.

Règle .. (Matrice de passage) La matrice de passage de B à B′ est la matrice CBB′ = (γℓk)dont la k-ième colonne est le vecteur b′k de la « nouvelle » base exprimé en coordonnées dans l’« an-cienne » base B. Autrement dit , b′1...

b′n

=t CBB′

b1...bn

. (.)

Soit v ∈ E un vecteur et x1, . . . , xn ses coordonnées dans la base B, et x′1, . . . , x′n celles dans B′. Alors

x1...xn

= CBB′

x′1...

x′n

. (.)

Remarque..L’usage de la terminologie « ancienne base » pour B et « nouvelle base » pour B′ est très commodepour apprendre ces formules. On retiendra les deux propriétés suivantes des matrices de passage.

. Il s’agit d’un système de n équations entre vecteurs (et non entre scalaires !). Le produit d’une matrice avec unélément de En est défini de manière analogue au produit d’une matrice avec un élément de Kn.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Système de coordonnées associé à une base

Les colonnes de la matrice de passage sont les coordonnées de la nouvelle base décomposéeselon l’ancienne.

On obtient les anciennes coordonnées en multipliant les nouvelles par la matrice de passage.

Remarquons le chiasme : la matrice de passage (plus précisément, sa transposée) permet d’expri-mer les vecteurs de la nouvelle base en fonction de ceux de l’ancienne, mais elle permet d’expri-mer les anciennes coordonnées en fonction des nouvelles. Cela eest à rapprocher du problème dechangement d’heure effectué dans beaucoup de pays européens deux fois par an : si par exempleon passe directement de 3h à 4h du matin, ou bien on considère que l’on a avancé les aiguillesde la montre d’une heure (point de vue des coordonnées), ou bien on considère que le minuit del’ancien temps a lieu une heure plus tard que le minuit du nouveau temps (point de vue du choixde l’origine, c’est-à-dire de la base). Le mélange des deux points de vue est source de bien desconfusions. Il faut faire très attention.

Exemple ..Dans R2, nous considérons les deux bases

B = (u, v) = ((1, 0) , (0, 1)) et B′ = (u′, v′) =

1

2,−1

2

,1

2,1

2

.

On a le système entre vecteurs

(u′ = 1

2u− 1

2v

v′ = 12u+ 1

2v .

La transposée de la matrice de ce système est la matrice de passage de B à B′,

CBB′ =1

2

1 1−1 1

.

Notons (x, y) (resp. (x′, y′)) le système de coordonnées associé à B (resp. B′). Alors on a(x = 1

2x′ + 1

2y′

y = − 12x′ + 1

2y′.

Ce système permet de traduire toute équation avec les « anciennes » coordonnées x, y en une équation avecles « nouvelles » coordonnées x′, y′.Par exemple, l’hyperbole H d’équation x2 − y2 = 1. On a

1 = x2 − y2 =

x′ + y′

2

2

−−x′ + y′

2

2

= x′y′ .

Autrement dit, dans les « nouvelles » coordonnées, H a pour équation x′y′ = 1 .

u

v

u′

v′

x

y

x′

y′

Dans les deux systèmes de coordonnées l’hyperbole possède deux équations différentes. On no-tera que l’hyperbole reste la même et que c’est le système de coordonnées qui change.Cette situation est à distinguer du cas où on envoie l’hyperbole H sur une autre hyperbole f(H)par un automorphisme f du plan, sans changer de système de coordonnées ; la question qui se

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

pose alors est savoir comment on déduit, toujours dans le même système de coordonnées, l’équa-tion de f(H) de l’équation de H (voir l’exercice ..).

Plusieurs passages

On peut résumer la situation par le diagramme suivant.

EΦB

~~||||

|||| ΦB′

BBB

BBBB

B

Kn KnCBB′oo

Nous identifions ici la matrice CBB′ avec son application linéaire. D’après la formule (.), on aΦB = CBB′ ΦB′ (ou encore ΦB = CBB′ ΦB′ ). Cela signifie que dans le diagramme ci-dessus, sion part du nord, nous pouvons aller directement vers le sud-ouest ou bien faire le détour par lesud-est, mais le résultat sera le même. On dit que le diagramme est commutatif.Ces diagrammes sont très utiles pour garder une vue d’ensemble des divers changements de baseque nous considérerons. Par exemple, avec trois bases B,B′ et B′′ deE, les changements de basepossibles sont représentés par le diagramme suivant.

Kn

CB′B′′

666

6666

6666

6666

6666

6666

CBB′′

E

ΦB

oooooo

wwooooo

ΦB′′

OO

ΦB′

OOOOOO

''OOOOO

Kn KnC

BB′

oo

Comme chacun des trois petits triangles commute, le grand triangle commute aussi. On déduitque CBB′CB′B′′ = CBB′′ . Si on prend en particulier B = B′′, on trouve CBB′CB′B = CBB ; orla matrice de passage de B à elle-même est certainement la matrice identité. Cela prouve l’énoncésuivant.

Règle .. Toutes bases B, B′ et B′′ de E vérifient les propriétés suivantes.1) CBB′ CB′B′′ = CBB′′ (relation de Chasles).2) La matrice de passage CBB′ est inversible et (CBB′ )−1 = CB′B.

Tests.. Toute matrice de passage est-elle carrée ? Toute matriceinversible est-elle une matrice de passage ?

.. Reconsidérons l’exemple ...

a. Donner la matrice de passage de B′ à B.

b. Donner les coordonnées de w = (3,−2) dans la base B, puisdans la base B

′.

.. Soit CBB′ = (γℓk) une matrice de passage. Que penser deces formules ?a. γℓk = ϕ′

ℓ(bk) , d. γℓk = ϕℓ(b′k) ,

b. γℓk = ϕ′k(bℓ) , e. γℓk = ϕk(b

′ℓ) .

c. γℓk = ϕ′ℓ(b

′k) ,

.. Soient (x, y) et (x′, y′) les systèmes de coordonnées d’unmême espace vectoriel, associés à deux bases (u, v) et (u′, v′)respectivement. On suppose que

u′ = 3u + 2vv′ = 7u + 5v .

Parmi les systèmes suivants, trouver les intrus !x′ = 3x + 2yy′ = 7x + 5y

x = 3x′ + 7y′

y = 2x′ + 5y′u = 5u′ − 2v′

v = −7u′ + 3v′

x′ = 5x− 7yy′ = −2x+ 3y

u = 5u′ + 2v′

v = 7u′ + 3v′

x = 3x′ + 2y′

y = 7x′ + 5y′

.. Répondre au test .. sans faire aucun calcul.

.. Montrer que (P,Q,R) = (X, 2 − X, 1 + X) est unefamille génératrice de R1[X]. Existe-t-il f ∈ L (R1[X],K) telleque

a. f(P ) = 1, f(Q) = 3 et f(R) = 1 ,

b. f(P ) = 1, f(Q) = 3 et f(R) = 3 ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Représentation d’une application linéaire par une matrice

.. Représentation d’une application linéaire par une matrice

Dans ce qui suit, E et F sont des K-espaces vectoriels de dimensions finies n et m respectivement,et B = (b1, . . . , bn) et B′ = (b′1, . . . , b

′m) sont des bases de E et F respectivement. Nous avons vu

à la proposition .. que la donnée d’une application linéaire de E dans F équivaut à la donnéedes images des n vecteurs de B. Or chacune de ces images est donnée par le m-uplet de sescoordonnées dans la base B′. Ainsi la donnée d’une application linéaire de E dans F équivautà la donnée de n vecteurs dans Km. Autrement dit, le choix de deux bases B et B′ de E et Fdétermine une bijection entre L (E,F ) et Mmn(K), qui est en fait un isomorphisme d’espacesvectoriels. Comme le choix des bases B et B′ n’est pas canonique en général, nous allons enoutre indiquer comment cette correspondance est modifiée en cas de changement de bases.Les changements de bases sont des opérations qui ne sont pas aussi faciles que ce que l’on vou-drait bien croire (pensez au problème du changement d’heure été-hiver). Il est primordial de bienconnaître un mode opératoire et de s’y tenir. Le minimun à retenir de cette partie (si on l’a biencomprise), pour pouvoir tout reconstruire, est sans doute la règle .., l’interprétation de la ma-trice de passage qui en résulte (voir la règle ..) et le caractère « fonctoriel » des propriétésénoncées dans le théorème ...

... L’isomorphisme L (E,F ) ≃ Mmn(K)

Soit f : E → F une application linéaire. Les systèmes de coordonnées ΦB : E → Kn et ΦB′ : F →Km sont des isomorphismes ; ce fait permet de « transporter » l’application f vers l’applicationlinéaire

ΦB′ f Φ−1B

: Kn → Km .

Or nous avons identifié les applications linéaires entre espaces canoniques avec les matrices, c’est-à-dire qu’on peut concevoir ΦB′fΦ−1

Bcomme une matrice dans Mmn(K). On l’appelle la matrice

de f dans les bases B et B′ ou encore représentation matricielle de f par les bases B et B′ ; on la noteMB′B(f).

Définition ..La matrice MB′B(f) de f ∈ L (E,F ) dans les bases B et B

′ est l’unique matrice A ∈ Mmn(K) qui rendcommutatif le diagramme suivant.

Ef //

ΦB

F

ΦB′

Kn A // Km

(.)

On a donc une bijection L (E,F ) →Mmn(K), f 7→ MB′B(f). Cette présentation est très satisfai-sante pour l’esprit, mais n’est peut-être pas des plus parlantes au premier abord. Voici ce qu’ellesignifie en pratique.

Règle ..1) La k-ième colonne de la matrice MB′B(f) est le m-uplet des coordonnées de f(bk) dans la base B′.2) Si x1, . . . , xn sont les coordonnées de v ∈ E dans la base B et si y1, . . . , ym sont celles de f(v)

dans la base B′, alors y1...ym

Ǒ=MB′B(f)

x1...xn

Ǒ.

Preuve. En fait, les deux propriétés sont équivalentes. Mais au lieu de les déduire l’une del’autre, nous les montrons directement.

. C’est-à-dire obéissant à une sorte de relation de Chasles.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

1) L’application ΦB′ étant inversible, nous pouvons emprunter dans le diagramme commuta-tif (.) deux chemins différents de Kn à Km. Notons (e1, . . . , en) la base canonique de Kn. Suivonsle vecteur ek par le chemin du haut.

bk // f(bk)_

ek_

OO

ΦB′(f(bk))

Ce chemin mène donc à ΦB′(f(bk)) qui, par définition, est le m-uplet des coordonnées de f(bk)dans la base B′. Maintenant, suivons le chemin horizontal en bas :

ek // MB′B(f)ek .

La multiplication de la matrice MB′B(f) par ek donne la k-ième colonne de MB′B(f) .

2) Comme le diagramme (.) commute, on a, pour tout v ∈ E,

ΦB′(f(v)) =MB′B(f)ΦB(v).

C’est exactement l’égalité de l’énoncé.

Exemple ..Soit l’application linéaire f : K2[X] → K2, P 7→ (P (2), P ′(1)). Notons B

′ la base canonique de K2 etB = (1, X,X2) la base canonique de K2[X]. Alors la matrice qui repésente f dans ces bases estMB′B(f) =( 1 2 40 1 2 ).

Cette règle fait étrangement penser aux propriétés des matrices de passage (voir p.). Cela n’estbien sûr pas un hasard.

Règle .. Soient E un espace vectoriel de dimension finie et B et B′ deux bases de E. Alors

MBB′(idE) = CBB′ .

Preuve. Par définition, la k-ième colonne de MBB′(idE) est constituée des coordonnées deidE(b

′k) dans la base B ; or idE(b′k) = b′k, et on retrouve exactement la définition de la matrice de

passage de B à B′.

Remarque.. L’ordre des bases dans les règles .. et ..La matrice MB′B(f) est la matrice de l’application f avec les bases B au départ et B′ à l’arrivée.La matrice MBB′(idE) est la matrice de passage de la base B à la base B′.

Nous arrivons au résultat principal de cette partie. Il exprime comment la matrice d’une appli-cation linéaire est modifiée en cas de changement de bases. Ce résultat se retient très facilement

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Représentation d’une application linéaire par une matrice

si on veut bien se rappeler que les formules de composition et de passages sont des relations deChasles.

Théorème ..1) L’application

MB′B : L (E,F ) → Mmn(K) , f 7→ MB′B(f),

est un isomorphisme d’espaces vectoriels et conserve le rang.2) Pour tout g ∈ L (F,G) où G est un espace vectoriel de base B′′, on a

MB′′B(g f) = MB′′B′(g)MB′B(f) .

3) Si A et A ′ sont deux autres bases de E et F respectivement, alors

MA ′A (f) = CA ′B′ MB′B(f) CBA .

4) Dans le cas particulier E = F et B = B′, on note MB(f) = MBB(f) la matrice de l’endomor-phisme f dans la base B. Alors

MB : L (E) → Mn(K) , f 7→ MB(f) ,

est un isomorphisme d’algèbres. Si B′ est une autre base de E, alors

MB′(f) = (CBB′ )−1 MB(f) CBB′ .

5) L’applicationMB induit un isomorphisme de groupes entre les groupes linéairesGL(E) etGL(n,K).En particulier, pour tout f ∈ GL(E), on a MB(f−1) =MB(f)−1.

Preuve.1) Par définition on a MB′B(f) = ΦB′ f Φ−1

B. La linéarité découle donc de celle de ΦB′ , par

exemple pour l’addition

ΦB′ (f + f ′) Φ−1B

= (ΦB′ f +ΦB′ f ′) Φ−1B

= ΦB′ f Φ−1B

+ΦB′ f ′ Φ−1B.

De plus, l’application f 7→ MB′B(f) = ΦB′ f Φ−1B

est bijective et d’inverse l’applicationdéfinie parA 7→ Φ−1

B′ AΦB. Comme le rang de la matriceMB′B(f) est aussi le rang de l’ap-plication linéaire ΦB′ f Φ−1

B(voir la règle ..) et que la composition par des isomorphismes

ne change pas le rang d’une application linéaire, on a rg(MB′B(f)) = rg(ΦB′fΦ−1B

) = rg(f).2) Soit p la dimension de G. La situation est résumée par le diagramme suivant.

KnMB′′B(gf) //

MB′′B(f)

999

9999

9999

9999

9999

9999

9999

9999

99Kp

E

ΦBNNNNNN

ggNNNNN

gf //

f

!!CCC

CCCC

C G

ΦB′′ppppp

77ppppp

F

g==

ΦB′

Km

MB′′B′ (g)

BB

Les circuits intérieurs sont commutatifs, donc le grand circuit triangulaire extérieur l’est aussi.Cela démontre la formule exposée. Si le lecteur est plus à l’aise avec les calculs, il préférera lapreuve suivante. Notons MB′B(f) = (αkj) et MB′′B′(g) = (βℓk). Alors, pour tout vecteur bjde la base canonique de Kn, on a

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

g(f(bj)) = g

Xk

αkjb′k

!=Xk

αkjg(b′k) =

Xk

αkj

Xℓ

βℓkb′′ℓ =

Xℓ

Xk

βℓkαkj

!b′′ℓ .

Cela signifie que l’élément d’indice (ℓ, j) de la matrice MB′′B(gf) estP

k βℓkαkj . C’est doncexactement le produit matriciel MB′′B(g f) = MB′′B′(g)MB′B(f) .

3) Rappelons que CBA =MBA (idE) et utilisons la formule de composition prouvée au point 2).

MA ′A (f) =MA ′A (idE f idE)=MA ′B′(idE)MB′B(f)MBA (idE)

= CA ′B′ MB′B(f) CBA .

4) Le fait que MB est un morphisme d’algèbres, découle des points 1) et 2) avec B′ = B et carla matrice de l’application identité dans une base donnée est toujours la matrice identité. Laformule de passage est une conséquence de 3) et du fait que CB′B = (CBB′)−1.

5) C’est vrai pour tout isomorphisme d’algèbres, les groupes linéaires étant les groupes des élé-ments inversibles des algèbres considérées.

Remarque..Si, dans le théorème, on prend E = Kn et F = Km et si B, B′ sont les bases naturelles de cesespaces, alors l’isomorphisme est précisément l’identification entre L (Kn,Km) et Mmn(K) quenous avons déjà rencontrée à la page .

Exemple ..Reprenons l’exemple ... La famille A = (1, 1+X, 1+X +X2) est une autre base de l’espace de départE = K2[X]. La matrice de changement de passage de B à A est MBA (idE) =

1 1 10 1 10 0 1

. Donc

MB′A (f) =MB′B(f)MBA (idE) =

1 2 40 1 2

1 1 10 1 10 0 1

!=

1 3 70 1 3

.

Chaque énoncé sur les applications linéaires a donc une traduction en termes de matrices. Ainsile théorème .. du rang se traduit sur les applications linéaires f : E → F en prenant pourA la matrice de f dans des bases choisies. Pour que cette écriture matricielle soit possible, nousexigeons que E soit de dimension finie. La dimension de l’espace d’arrivée F n’a pas d’impor-tance : si F est de dimension infinie on le remplacera par f(E), qui est de dimension finie. Nousobtenons donc le théorème suivant.

Théorème .. (Théorème du rang dans L (E,F ))Soit f : E → F linéaire. Si E est de dimension finie, alors dim(E) = dim(Ker(f)) + rg(f) .

Corollaire .. Soit f : E → F linéaire.1) Si E est de dimension finie, alors f est injective si et seulement si rg(f) = dim(E) .2) Si F est de dimension finie, alors f est surjective si et seulement si rg(f) = dim(F ) .3) Si E et F sont de même dimension finie, alors la bijectivité de f équivaut à son injectivité ou encore

à sa surjectivité.

Preuve.1) f est injective ⇐⇒ dim(Ker(f)) = 0 ⇐⇒ dim(E)− rg(f) = 0.2) f est surjective ⇐⇒ Im(f) = F ⇐⇒ dim(Im(f)) = dim(F ) (car dimension finie).3) Supposons que E et F sont de même dimension finie. Nous allons prouver le circuit

f injective =⇒ f surjective =⇒ f bijective =⇒ f injective.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Représentation d’une application linéaire par une matrice

La dernière implication est toujours vraie.Si f est injective, alors rg(f) = dim(E) d’après 1). Puisque dim(E) = dim(F ), il en résulte querg(f) = dim F , puis que f est surjective d’après 2).Supposons f surjective, alors rg(f) = dim(F ) d’après 2) ; donc rg(f) = dim(E), puisquedim(E) = dim(F ). Ainsi f est injective d’après 1). L’application est donc injective et surjective,c’est-à-dire bijective.

Tests

.. Dans Kn[X] on considère la base naturelleB = (1, X, . . . , Xn). Donner la matrice de l’endomorphismedérivation d

dX dans cette base. Quel est son rang ? Quel est sonnoyau ? Vérifier les résultats avec le théorème du rang.

.. Soit α ∈ R fixé. On considère

f : R2 → R2,

xy

7→

−y−x

,

g : R2 → R2 ,

xy

7→

x cos α−y sinαx sinα+y cosα

.

Expliciter MB(f), MB′ (f), MB(g) et MB′ (g) dans le cas oùB et B

′ sont les deux bases de l’exemple ...

... Matrices équivalentes, matrices conjuguées

Dans cette partie, nous introduisons l’idée que les matrices peuvent être classées sous l’action dugroupe linéaire. Nous donnons les relations d’équivalences classiques et montrons comment elless’interprètent en termes d’applications linéaires.

Définition ..

1) Deux matrices A,A′ ∈Mmn(K) sont équivalentes s’il existe (C,C′) ∈ GL(n,K)×GL(m,K) tel que

A′ = CAC′ .

2) Deux matrices A,A′ ∈Mn(K) sont conjuguées ou semblables s’il existe C ∈ GL(n,K) tel que

A′ = C−1AC .

Il est évident que ces deux notions définissent des relations d’équivalences. Elles sont bien dis-tinctes. La première est définie pour toutes les matrices de format m×n tandis que la seconde estseulement définie pour les matrices carrées n× n. Mais même lorsque n = m, deux matrices car-rées équivalentes ne sont pas forcément conjuguées. Par exemple, toute matrice carrée inversibleA est équivalente à la matrice identité (prendre l’inverse de A pour C et l’identité pour C′), maisla seule matrice conjuguée à l’identité est l’identité elle-même.

Règle ..Deux matrices sont équivalentes si et seulement si elles ont le même rang.

Preuve. La multiplication par une matrice inversible n’influence pas le rang. Donc deux ma-trices équivalentes ont le même rang. Réciproquement, on a vu à la page que toute matrice

A ∈Mmn(K) de rang r est équivalente à

Ir 0r,n−r

0m−r,r 0m−r,n−r

!.Ainsi toutes les matrices de même

rang sont équivalentes.

Si on interprète les matrices C et C′ dans la définition .. comme des matrices de passage, onobtient les caractérisations suivantes :

Deux matrices A et A′ sont équivalentes si et seulement si elles sont des représentations ma-tricielles d’une même application linéaire f , c’est-à-direA =MBA (f) et A′ =MB′A ′(f).

Deux matrices carréesA et A′ sont conjuguées si et seulement si elles sont des représentationsmatricielles d’un même endomorphisme f , c’est-à-dire A =MB(f) et A′ =MB′(f).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

L’un des chapitres importants en deuxième année sera le problème de la réduction d’un endomor-phisme. On entend par là la recherche, pour f ∈ L (E) donné, d’une base B telle que la matriceMB(f) soit d’une forme la plus simple possible, par exemple triangulaire et même diagonale sipossible. Dans l’algèbre Mn(K) des matrices, ce problème revient à examiner si, dans une classede conjugaison donnée, il existe une matrice triangulaire (ou encore mieux, diagonale). En ef-fet, pour une base B quelconque fixée, posons A = MB(f). S’il existe une base B′ telle queA′ =MB′(f) est triangulaire, alors A et A′ sont conjuguées car A′ = (CBB′)−1ACBB′ .Réciproquement, s’il existeA′ triangulaire et conjuguée àA =MB(f), alorsA′ = C−1AC pour uncertain C ∈ GL(n,K). Or toute matrice inversible est la matrice d’un changement de base, doncpour la base B′ telle que C = CBB′ on a la représentation triangulaire A′ =MB′(f).En deuxième année, nous verrons des critères d’existence de cette réduction en matrice triangu-laire ou diagonale. Dans la dernière partie de ce chapitre, nous en donnons un exemple concretélémentaire.

Remarque..La notion de conjugaison existe dans tout anneau A : deux éléments a, a′ ∈ A sont conjugués si etseulement s’il existe c ∈ A inversible tel que a′ = c−1ac.

Polynôme annulateur

Soient f ∈ L (E) et P =Pp

k=1 akXk un polynôme de K[X ]. Si on remplace l’indéterminée X

par f , on obtient l’endomorphisme P (f) =Pp

k=1 akfk, avec la convention f0 = idE . Un polynôme

annulateur de f est un polynôme P non nul tel que P (f) = 0. Autrement dit, un polynôme annula-teur de f est un élément non nul dans le noyau de l’évaluation νf , qui est le morphisme d’algèbresdéfini par

νf : K[X ] → L (E) , P 7→ P (f) .

Supposons maintenant que n = dim(E) est fini. Alors dimL (E)

= n2 car L (E) est isomorphe

à l’espace des matrices carrées d’ordre n. Comme la dimension de K[X ] est infinie, νf n’est pasinjectif ; autrement dit, le noyau de νf est non nul. Cela prouve que tout endomorphisme d’unespace vectoriel de dimension finie possède un polynôme annulateur.

De manière analogue, on définit la notion de polynôme annulateur d’une matrice carrée A. SiA,A′ sont deux matrices conjuguées, c’est-à-dire si A′ = C−1AC, alors pour tout polynôme P ona

P (A′) = P (C−1AC) = C−1P (A)C ,

donc les matrices P (A) et P (A′) sont conjuguées. En particulier, un polynôme annulateur d’unematrice annule aussi toute sa classe de conjugaison.

Tests

.. Que penser des assertions suivantes ?

a. Deux matrices carrées conjuguées sont forcémentéquivalentes.

b. Si b est un élément inversible de l’algèbre A, alorsa 7→ b−1ab est un automorphisme d’algèbres.

c. Soit B une base de E. Alors f, g dans L (E) sont conjuguéssi et seulement si MB(f) et MB(f) le sont dans Mn(K).

.. Soit E de dimension finie, f ∈ L (E) et P ∈ K[X] unpolynôme annulateur de f . Donner une majoration de deg(f).

.. Soit f un endomorphisme et soit P un polynômeannulateur de f . Montrer que si P (0) 6= 0, alors f est unautomorphisme. (Indication : factoriser P (f) − P (0) par f .)

... Exemple : réduction d’une matrice

Soit p ∈ K. Considérons la matrice

. On dit alors que l’on a « diagonalisé » l’endomorphisme f .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Représentation d’une application linéaire par une matrice

A =

1 pp 1

.

On se propose de chercher une matrice diagonaleB qui lui soit conjuguée. À ce stade, on n’est passûr qu’un tel B existe. Pour chercher un objet inconnu, une bonne démarche consiste à supposerqu’il existe, à étudier les propriétés qu’il doit posséder, puis à essayer de construire l’objet à partirde ces propriétés.

Supposons donc qu’il existe une matrice diagonale B =β1 00 β2

conjuguée à A, c’est-à-dire

telle que AC = CB pour une certaine matrice C ∈ GL(2,R). Notons (e1, e2) la base canoniquede R2. Alors, pour k ∈ 1, 2, on a ACek = C(Bek) = C(βkek) = βkCek. Posons vk = Cek.Alors

Avk = βkvk, k = 1, 2. (.)

On dit que v1 et v2 sont des vecteurs propres de A. Géométriquement, un vecteur propre de Aest un vecteur v non nul tel que son image Av se trouve sur la droite engendrée par v. On peutécrire (.) sous la forme

(A− βkI2)vk = 0, k = 1, 2. (.)

Puisque C = (Ce1, Ce2) = (v1, v2), les vecteurs v1 et v2 sont les deux colonnes de la matriceinversible C. En particulier, ils sont non nuls. Cela implique que Ker(A − βkI2) est non nulpour k ∈ 1, 2 . Or, pour tout β ∈ K, on a Ker(A−βI2) 6= 0 si, et seulement si, A−βI2 est noninversible, c’est-à-dire si, et seulement si,

det(A− βI2) =1− β pp 1− β

= 0,

soit encore si(1− β)2 − p2 = 0 .

Cette dernière équation possède deux solutions, à savoir β1 = 1− p et β2 = 1+ p . En résumé,s’il existe une matrice diagonale B conjuguée à A, alors elle est forcément de la forme

B =

1− p 00 1 + p

ou B =

1 + p 00 1− p

.

Déterminons la matrice C. Ses deux colonnes sont les vecteurs v1 et v2. Ils vérifient (.) quimaintenant s’écrit

p pp p

v1 = 0 et

−p pp −p

v2 = 0 .

On peut prendre par exemple v1 =

1−1

et v2 = ( 11 ). Inversement, on pose C =

1 1

−1 1

. Le

lecteur vérifiera facilement que AC = CB, ce qui montre bien que A = CBC−1.

Question

Considérons le problème suivant. On dispose deux verres remplis d’une même quantité de li-quide, l’un de vin, l’autre d’eau. On verse une partie du vin dans le verre d’eau. Puis on reverse lamême quantité du mélange obtenu dans le verre de vin, de sorte que les niveaux de liquide dansles deux verres sont les mêmes qu’au début. On itère le procédé en transvasant toujours la mêmeproportion de liquide.1) À chaque étape, la proportion de vin dans le verre d’eau est-elle plus grande, égale ou plus

petite que la proportion d’eau dans le verre de vin ?2) Quelle est la limite du mélange dans chaque verre lorsque le nombre d’étapes tend vers l’in-

fini ?

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Réponse

1) Les deux proportions sont égales ! On peut raisonner sans calcul : après chaque opération,la partie de vin dans le verre d’eau prend un certain volume V . Au début du processus, cevolume V était occupé par de l’eau. Or nous n’avons pas perdu de liquide. Ainsi ce volume Vest précisément celui de l’eau qui se trouve maintenant dans le verre de vin.

2) On a l’intuition que l’on mélange de mieux en mieux les liquides, c’est-à-dire que les propor-tions vont s’approcher de 50%. Nous allons le démontrer en utilisant le calcul matriciel. Pourn ∈ N, soit¨

xn = la proportion d’eau dans le verre de vin après la n-ième opération,yn = la proportion d’eau dans le verre d’eau après la n-ième opération.

Rappelons que xn est aussi la proportion de vin dans le verre d’eau. Nous avons donc toujoursxn + yn = 1. Évidemment, au départ, x0 = 0 et y0 = 1.Notons p ∈ ]0, 1] la proportion de liquide transvasé. En versant une portion du verre d’eaudans le verre de vin, nous obtenons

yn+1 =1

1 + p(yn + pxn).

Et comme xn+1 + yn+1 = 1, on obtient

xn+1 = 1− yn+1 = 1− 1

1 + p(yn + pxn) =

(1− yn) + p(1− xn)1 + p

=xn + pyn1 + p

.

Ainsi nous avons démontré la formule de récurrencexn+1

yn+1

=

1

1 + p

1 pp 1

xnyn

.

On reconnaît la matrice A =1 pp 1

. Par itération, on trouvexn+1

yn+1

=

1

(1 + p)nAn

01

.

Pour calculer les puissances An, le plus simple est d’utiliser la matrice diagonale B =1−p 00 1+p

conjuguée à A.

An = (CBC−1)n = CBnC−1 =1

2

1 1−1 1

(1− p)n 0

0 (1 + p)n

1 −11 1

=

1

2

(1 + p)n + (1 − p)n (1 + p)n − (1− p)n(1 + p)n − (1 − p)n (1 + p)n + (1− p)n

.

Par conséquent,xn+1

yn+1

=

1

(1 + p)nAn

01

=

1

2(1 + p)n

(1 + p)n − (1− p)n(1 + p)n + (1− p)n

=

1

2

1−

1−p1+p

n1 +

1−p1+p

n!converge bien vers 1

2 (11 ) car la suite géométrique de raison 1−p

1+p converge vers zéro. Ainsi lesproportions d’eau et de vin tendent à s’équilibrer dans chaque verre.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Somme directe de sous-espaces vectoriels

.. Somme directe de sous-espaces vectoriels

Nous avons déjà rencontré des exemples de sommes directes sans le savoir. En effet, nous savonsque tout K-espace vectoriel E admet une base. En termes de sous-espaces vectoriels, cela signifieque E contient une famille de droites vectorielles, les droites engendrées par chaque vecteur dela base, telle que tout vecteur de E se décompose de manière unique en une somme d’une familleà support fini de vecteurs, chacun dans une de ces droites. Nous dirons que E se décompose enla somme directe de cette famille de droites.En substance, les droites engendrées par une base constituent des sortes d’« atomes » de l’espacevectoriel : elles sont indécomposables et leur somme permet de reconstituer l’espace vectoriel toutentier. Dans certains problèmes, notamment liés à l’étude des applications linéaires, on peut sou-haiter pouvoir décomposer l’espace en sous-espaces plus gros. Par exemple, pour un endomor-phisme f ∈ L (E) donné, il peut être instructif pour étudier f de décomposer E en une sommedirecte de sous-espaces Ei tels que f(Ei) ⊂ Ei, puis d’examiner les restrictions de f à chaque Ei.Mais en général, les espaces Ei obtenus ne sont pas de dimension 1. C’est pourquoi nous allonsétudier dans ce chapitre la notion générale de somme directe de sous-espaces vectoriels.La notion de somme directe est fondamentale pour saisir les propriétés géométriques des es-paces vectoriels. Par exemple, dans R3, deux plans vectoriels (c’est-à-dire passant par l’origine)se coupent en général le long d’une droite vectorielle. En revanche, deux droites vectorielles secoupent transversalement à l’origine, à moins d’être confondues, et de même, une droite et unplan vectoriel se coupent également transversalement, à moins que la droite ne soit contenue dansle plan. Dans les deux cas, la transversalité des deux sous-espaces vectoriels considérés signifieque leur intersection se réduit à l’espace nul. Dans le cas du plan et de la droite, tout élément deR3 se décompose de manière unique comme somme d’un vecteur de la droite et d’un vecteur duplan : on dit alors que le plan et la droite sont supplémentaires dans R3.

... Somme de sous-espaces vectoriels

Dans tout ce qui suit, E est un K-espace vectoriel.Soient v ∈ E et F,G deux sous-espaces vectoriels de E. Nous avons déjà rencontré des notationsbien utiles

Kv = λv | λ ∈ K et F +G = v + u | (v, u) ∈ F ×G.Il est immédiat que si F et G sont des sous-espaces vectoriels de E, alors l’ensemble F + G eststable par addition et par multiplication par les scalaires, et donc qu’il est également un sous-espace vectoriel. On l’appelle la somme de F et de G.

Nous généralisons immédiatement cette définition à la somme d’une famille arbitraire (Fj)j∈J desous-espaces vectoriels de E. Pour cela, on note E(J) le sous-espace vectoriel de EJ formé desfamilles à support fini de vecteurs, c’est-à-dire des familles (vj)j∈J telles que j ∈ J | vj 6= 0 estun ensemble fini.

Proposition ..Soit (Fj)j∈J une famille de sous-espaces vectoriels de E. Alors l’ensembleX

j∈J

Fj :=

8<:Xj∈J

vj

(vj)j∈J ∈ E(J), vj ∈ Fj

9=;est un sous-espace vectoriel de E. On l’appelle la somme de la famille (Fj)j∈J .

Preuve. Il est évident que le vecteur nul est dans cette somme. Montrons la stabilité par combi-naisons linéaires. Soient u, v dans

Pj∈J Fj et (λ, µ) ∈ K2. Il existe deux familles (vj)j∈J et (uj)j∈J

à supports finis dansE, avec (vj , uj) ∈ F 2j pour tout j ∈ J , telles que v =

Pj∈J vj et u =

Pj∈J uj .

Posons wj := λuj + µvj pour tout j ∈ J . Alors, (wj)j∈J est à support fini et

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

λu+ µv = λXj∈J

uj + µXj∈J

vj =Xj∈J

(λuj + µvj) ∈Xj∈J

Fj .

Exemple ..

On a K[X] =Xn∈N

Kn[X] .

Règle ..

Soit (Vj)j∈J une famille de parties de E . Alors, vect [

j∈J

Vj

=Xj∈J

vect(Vj).

Preuve. Il est évident que la somme

Pj∈J vect(Vj) contient chaque Vj et donc leur union. Or, vect

Sj∈J Vj

est le plus petit des sous-espaces vectoriels qui contient cette union, ce qui prouve l’inclusion

vect [j∈J

Vj⊂Xj∈J

vect(Vj).

Réciproquement, on remarque que pour tout ℓ ∈ J , l’inclusion Vℓ ⊂[j∈J

Vj entraine que

vect(Vℓ) ⊂ vect [j∈J

Vj

. Donc, la somme des vect(Vℓ) est également contenue dans vect [j∈J

Vj

.

Remarque..Cette règle montre que nous aurions pu définir la somme de sous-espaces vectoriels comme lesous-espace vectoriel engendré par leur union, c’est-à-dire par la formuleX

j∈J

Fj := vect [

j∈J

Fj

.

Remarque.. Distinguer intersection, union et sommeTandis que l’intersection et la somme de sous-espaces vectoriels sont toujours des sous-espacesvectoriels, leur union, en général, ne l’est pas. Voir l’exemple ...

Précisons cette question de somme et d’union.

Règle .. Soient F,G deux sous-espaces vectoriels de E. Alors,1) F ∩G ⊂ F ∪G ⊂ F +G ;2) F +G = F si et seulement si F ⊃ G ;3) F ∪G est un sous-espace vectoriel si et seulement si F ⊂ G ou F ⊃ G.

Preuve.1) Cela découle immédiatement des définitions.2) (⇐) Si F ⊃ G, alors F +G ⊂ F + F = F . Il est évident que F ⊂ F +G.

(⇒) Si F +G = F , alors G ⊂ F +G = F .3) (⇐) Évident.(⇒) Soit F ∪ G un sous-espace vectoriel de E. Supposons par l’absurde F 6⊂ G et F 6⊃ G. Alorsil existe v ∈ F\G et u ∈ G\F . Comme F ∪G est stable par addition, on a v + u ∈ F ∪G. Il existedonc w ∈ F ou w ∈ G tel que v+ u = w. Dans le premier cas, on a la contradiction u = w− v ∈ F ,et dans le deuxième la contradiction v = w − u ∈ G.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Somme directe de sous-espaces vectoriels

Tests

.. Montrer que la somme de deux sous-algèbres n’est pasforcément une sous-algèbre. (Indication : chercher un

contre-exemple dans l’algèbre des polynômes.)

.. Soient F,G deux s.e.v. de E. Que pensez-vous desassertions suivantes ?F ∩ G ⊂ F + G, F ∪ G ⊂ F + G, F ⊂ F + G,F + F = F, F ∪ G ⊃ F + G, F + G = G + F .

.. Soient F,G,H trois s.e.v. de E. Que pensez-vous desrelations suivantes ?

F ∩ (G + H) ⊂ (F ∩ G) + (F ∩ H) ,

F ∩ (G + H) ⊃ (F ∩ G) + (F ∩ H) .

.. Que pensez-vous des assertions suivantes ?

a. K[[X]] =Xn∈N

K[X] . c. K[X] =[n∈N

Kn[X] .

b. K[[X]] =[n∈N

Kn[X] .

.. Soit (Fj)j∈J une famille de sous-espaces vectoriels de E.Que pensez-vous des assertions suivantes ?

a.Xj∈J

Fj =[j∈J

Fj .

b.\j∈J

Fj ⊂ Fk ⊂Xj∈J

Fj pour tout k ∈ J .

c.Xj∈J

Fj ⊂Yj∈J

Fj .

... Somme directe et supplémentaires

Nous venons de définir la somme de sous-espaces vectoriels. Nous nous demandons, à présent,dans quel cas tout vecteur dans cette somme admet une unique décomposition.

Définition ..

Soit (Fj)j∈J une famille de sous-espaces vectoriels deE. La sommeH =P

j∈JFj est dite directe si tout vecteur de

la somme se décompose de manière unique comme somme de vecteurs de chaque sous-espace ; autrement dit, si pourtout v ∈ H , il existe une unique famille (vj)j∈J ∈ E(J), avec vj ∈ Fj , telle que v =

Pj∈J

vj .

Notation. Dans le cas où H =Xj∈J

Fj est en somme directe, on écrit H =Mj∈J

Fj . Pour un nombre

fini de sous-espaces on note H =nM

j=1

Fj = F1 ⊕ · · · ⊕ Fn .

Proposition .. Soit (Fj)j∈J une famille de sous-espaces vectoriels de E. La sommeP

j∈J Fj estdirecte si, et seulement si, pour toute famille (vj)j∈J ∈ E(J), avec vj ∈ Fj , on a l’implicationX

j∈J

vj = 0 =⇒ ∀ j ∈ J , vj = 0 .

Preuve. On pose H =P

j∈J Fj .(⇐) Soit u ∈ H . Par définition u =

Pj∈J vj avec des vecteurs vj ∈ Fj formant une famille à

support fini. Soit v =P

j∈J v′j une autre décomposition de la sorte. Alors,P

j∈J (vj − v′j) = 0.

L’hypothèse implique que vj − v′j = 0 pour tout j ∈ J , et la décomposition est bien unique.(⇒) Soit

Pj∈J vj = 0 avec vj ∈ Fj . Or, le vecteur nul se décompose en une somme de termes nuls

et, par définition d’une somme directe, cette décomposition est unique. Donc chaque vj est nul.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Nous en déduisons les deux conséquences suivantes.

Corollaire .. Soit (vj)j∈J une famille de vecteurs non nuls dans E. Alors les conditions suivantessont équivalentes :1) La famille (vj)j∈J est libre ;2) vect

vj | j ∈ J

=Mj∈J

Kvj .

Corollaire .. Soit F1, . . . , Fn des sous-espaces vectoriels de E. Alors les conditions suivantes sontéquivalentes :1) E = F1 ⊕ · · · ⊕ Fn ;2) f : F1 × · · · × Fn → E, (v1, . . . , vn) 7→ v1 + · · ·+ vn , est un isomorphisme d’espaces vectoriels.

Exemple ..

⋄ La sommeXn∈N

Kn[X] n’est pas directe.

⋄ La sommeMk∈N

KX2k est directe. Elle donne l’espace des polynômes pairs.

⋄ La sommenM

k=0

(KX2k +KX2k+1) est directe. Elle donne l’espace K2n+1[X].

On a même

K2n+1[X] =

nMk=0

(KX2k ⊕KX2k+1) .

Ainsi, il arrive que les termes d’une somme directe puissent aussi se décomposer en sommes directes.

Règle .. Soient F,G,H et Fj , j ∈ J, des sous-espaces vectoriels de E.1) La somme F +G est directe si et seulement si la somme G+ F l’est. Autrement dit, on a F ⊕G =

G⊕ F .2) La somme F +G+H est directe si et seulement si chaque somme dans (F +G) +H l’est ; et si et

seulement si chaque somme dans F+(G+H) l’est. Autrement dit, on a F⊕G⊕H = (F⊕G)⊕H =F ⊕ (G⊕H) et dès que l’un des trois termes a un sens les deux autres sont automatiquement vrais.

Preuve. Cela découle immédiatement de la proposition .., de l’associativité et de la commu-tativité de l’addition dans E.

Ainsi, l’ordre et le parenthèsage dans une somme directe n’ont pas d’importance. Par exemple,

(F1 ⊕G1)⊕ (F2 ⊕G2) = F1 ⊕G1 ⊕ F2 ⊕G2 = (F1 ⊕ F2)⊕ (G1 ⊕G2) .

Cela est encore vrai pour une famille de sous-espaces indexée par un ensemble infini, mais lanotion de parenthèsage serait alors plus difficile à formaliser.

Tests

.. Soit (Fj)j∈J une famille de sous-espaces vectoriels de Etelle que leur somme est directe. Que pensez-vous des assertionssuivantes ?

a. Si I ⊂ J alors la famille (Fj)j∈I est en somme directe.

b. Si Gj est un sous-espace vectoriel de Fj pour tout j ∈ Jalors la famille (Gj)j∈I est en somme directe.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Somme directe de sous-espaces vectoriels

Dimension d’une somme directe

Proposition .. Si les sous-espaces Fj de E, pour j ∈ J , sont en somme directe, alors

dim

Mj∈J

Fj

=Xj∈J

dim(Fj) .

En particulier dim(F ⊕G) = dim(F ) + dim(G) .

On note l’analogie avec la formule des cardinaux

card

[j∈J

Aj

=Xj∈J

card (Aj) pour des sous-ensembles Aj disjoints deux à deux.

L’idée de la preuve de la proposition consiste justement à se ramener à cette formule en choisissantune base.

Preuve. Posons H =L

j∈J Fj . Dans chaque Fj on choisit une base Vj ⊂ Fj . On a dim(Fj) =

card (Vj). Par conséquent, il suffit de montrer que V =S

j∈J Vj est une base de H et que cetteunion est disjointe. Supposons par l’absurde qu’il existe v ∈ Vj ∩ Vℓ avec j 6= ℓ. Alors v ∈ Fj ∩ Fℓ. En particulierv ∈ Fj et −v ∈ Fℓ. Puisque v + (−v) = 0 on déduit avec la proposition .. que v = 0. Celacontredit le fait que la partie Vj est libre. De plus, la règle .. montre que

vect(V ) = vect

[j∈J

Vj

=Xj∈J

vect(Vj) =Xj∈J

Fj = H .

Donc V est une partie génératrice de H . Il reste à montrer que V est libre. Supposons que

Pv∈V λvv = 0 avec (λv)v∈V ∈ K(V ). Comme

V est union disjointe des Vj , on peut regrouper cette somme par « paquets », sous la forme

0 =Xv∈V

λvv =Xj∈J

uj avec uj =Xv∈Vj

λvv ∈ Fj .

Comme les sous-espaces Fj sont en une somme directe, on a uj = 0 pour tout j ∈ J , et finalementtous les coefficients λv sont nuls car Vj est libre.

Remarquons que, dans le cas particulier où J est fini, la proposition se démontre par récurrenceen utilisant la proposition .. et le corollaire ...

Projecteurs et inclusions associés à une somme directe.

SoitE =L

j∈J Fj . On associe à cette décomposition des applications linéaires pour chaque j ∈ J :L’inclusion naturelle ιj : Fj → E , v 7→ v .Le projecteur ρj : E → Fj , v 7→ vj .L’inclusion naturelle est injective, tandis que le projecteur est surjectif. Le projecteur est bien définigrâce à l’unicité de la décomposition de chaque vecteur v ∈ E en une somme à support fini devecteurs vj ∈ Fj . La famille des projecteurs est caractérisée par la condition

. On convient qu’une somme d’éléments de N ∪ ∞ vaut ∞ si elle contient une infinité de termes non nuls ou si aumoins l’un des termes est infini.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

∀ v ∈ E, v =Xj∈J

ρj(v) .

Tests

..a. Vérifier la linéarité de ij et de ρj .

b. Déterminer ρj ιk et ιk ρj .

.. Soit E = F1 ⊕ · · · ⊕ Fn . Alors l’applicationf : F1 × · · · × Fn → E, (v1, . . . , vn) 7→ v1 + · · · + vn est unisomorphisme. Donner son inverse.

.. Que pensez-vous des assertions suivantes ?

a. Soit E = F1 + · · ·+ Fn de dimension finie. Alors cettesomme est directe si et seulement sidim(E) = dim(F1) + · · · + dim(Fn) .

b. Soit E = F1 ⊕ F2 = F ′1 ⊕ F ′

2. Si F1 = F ′1, alors ρ1 = ρ′

1.

... Somme directe de deux sous-espaces. Supplémentaires

Dans le cas particulier d’une somme de deux sous-espaces, nous avons le critère suivant.

Proposition .. Soient F,G,H des sous-espaces vectoriels deE. Alors les propriétés suivantes sontéquivalentes :1) H = F ⊕G ;2) H = F +G et F ∩G = 0 .

Preuve.1)⇒ 2) SiH = F⊕G, alorsH = F+G. Montrons que F∩G = 0. Soit v ∈ F∪G. Alors 0 = v+(−v).Comme V ∈ F et −v ∈ G, la proposition .. montre que v = 0.2)⇒ 1) Il faut prouver que tout vecteur de H s’écrit de manière unique comme somme d’unvecteur de F et d’un vecteur de G. L’existence de cette décomposition vient de l’hypothèseH = F + G. Pour montrer l’unicité, la proposition .. affirme qu’il suffit de le faire pour levecteur nul. Supposons donc que 0 = u + v avec u ∈ F et v ∈ G. On sait que v est dans G et −uest dans F . Ainsi v = −u ∈ F ∩G = 0. Cela montre u = v = 0.

F

G

b

F

G

La somme F + G est directe carF ∩G est l’espace nul.

La somme F + G n’est pas directe car F ∩ Gn’est pas l’espace nul mais une droite.

Remarque.. Deux, mais pas troisLa proposition .. est valable seulement pour le cas de deux sous-espaces vectoriels.

Exemple ..Considérons par exemple les trois sous-espaces vectoriels de R2 suivants :

F1 = R× 0 , F2 = 0× R , F3 = (x, x) | x ∈ R .

On a Fj ∩ Fk = 0 si j 6= k, mais la somme F1 + F2 + F3 n’est pas directe car le vecteur (1, 1) a les deuxdécompositions distinctes : (1, 1) = (1, 0) + (0, 1) + (0, 0) = (0, 0) + (0, 0) + (1, 1) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Somme directe de sous-espaces vectoriels

Définition ..

Si E = F ⊕G, on dit que G est un supplémentaire de F dans E.

Évidemment, si G est un supplémentaire de F , alors F est un supplémentaire de G. On dira aussique F etG sont supplémentaires. On ne peut pas direG est le supplémentaire de F car il n’est pasd’unique. Par exemple, dans le cas d’un plan F de l’espace R3, toute droite non contenue dans Fest un supplémentaire de F dans R3.

Exemple ..On se propose de prouver que toute fonction de R dans R s’écrit de manière unique comme somme d’unefonction paire et d’une fonction impaire. En terme d’espaces vectoriels cela s’énonce ainsi : dans l’espaceRR, le sous-espace Fpair constitué des fonctions paires est un supplémentaire du sous-espace Fimpair consti-tué des fonctions impaires ; ou encore

RR = Fpair ⊕ Fimpair .

Soit h : R → R une fonction et supposons que l’on a déjà la décomposition souhaitée h = h0 + h1 avech0 ∈ Fpair et h1 ∈ Fimpair. Alors h0(−x) = h0(x) et h1(−x) = −h1(x) pour tout x ∈ R. Donc,§

h(x) = h0(x) + h1(x),h(−x) = h0(x)− h1(x).

Ce système se résout aisément et on obtient comme solution unique

h0(x) =h(x) + h(−x)

2et h1(x) =

h(x)− h(−x)2

. (.)

Donc, si on définit h0 et h1 par les formules de (.) alors on vérifie immédiatement que h = h0+h1 d’unepart, et que h0 est paire et h1 est impaire d’autre part. Cela prouve que RR = Fpair +Fimpair. Enfin, l’unicitéde la solution du système montre que cette somme est directe.

Remarque.. Complémentaire 6= supplémentaireIl ne faut pas confondre les mots complémentaire et supplémentaire. Le complémentaire de Fdans E, noté E \F ou E−F , n’est pas un sous-espace vectoriel : il ne contient pas le vecteur nul.

Proposition .. Tout sous-espace vectoriel possède un supplémentaire.

Preuve. L’idée est de compléter une base du sous-espace en une base de l’espace entier ; lesvecteurs ajoutés engendreront le supplémentaire.Soit F un sous-espace vectoriel de E. D’après le théorème .. il existe une base V de F (ici nousconsidérons les bases comme des parties et non comme des familles). En particulier V est unepartie libre dans E. D’après le même théorème, on peut la compléter en une base de E, c’est-à-dire, il existe une partie U ⊂ E telle que

V ∩ U = ∅ et V ∪ U est une base de E .

Posons G = vect(U) et montrons E = F ⊕G. La règle .. montre que

E = vect(V ∪ U) = vect(V ) + vect(U) = F +G .

Soit maintenant w ∈ F ∩ G. Alors w est combinaison linéaire des vecteurs de V , et aussi desvecteurs de U .

w =Xv∈V

λvv =Xu∈U

µuu .

Donc Xv∈V

λvv −Xu∈U

µuu = 0 .

Comme V et U sont disjoints et comme V ∪ U est libre, tous les coéfficients λv et µu sont nuls, cequi implique que w est nul. Cela prouve F ∩G = 0 et achève la démonstration.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Corollaire .. Un sous-ensemble d’un espace vectoriel est un sous-espace vectoriel si et seulements’il est le noyau d’une application linéaire.

Preuve. Nous savons que le noyau d’une application linéaire est un sous-espace vectoriel. Réci-proquement, soit F ⊂ E un sous-espace vectoriel. Alors il possède un supplémentaireG, c’est-à-dire E = F ⊕G. Donc F est le noyau du projecteur sur G associé à la décomposition E = F ⊕G(page ).

Remarque..Le corollaire a déjà été prouvé dans le cas des espaces de dimension finie. En effet, d’après laproposition .., un sous-ensemble de Kn est un sous-espace vectoriel si et seulement s’il est lenoyau d’une application linéaire. La démonstration de la proposition .. repose essentiellementsur la complétion d’une famille libre en une base. C’est pourquoi dans le cas de dimension infinie,il peut être impossible d’expliciter un supplémentaire, parce que nous ne connaissons pas expli-citement de base de l’espace.Par exemple, dans K[[X ]] il n’est pas difficile de trouver un supplémentaire de Kn[X ] (voir laquestion-test ..), mais nous sommes dans l’incapacité de donner un supplémentaire de K[X ].À cause de cette difficulté, bien que le corollaire .. affirme qu’il suffit de montrer qu’une par-tie soit le noyau d’une application linéaire pour qu’elle définisse un sous-espace vectoriel, cetteméthode n’est pas toujours pratiquable.

Proposition .. Si F,G sont deux sous-espaces vectoriels de E, alors

dim(F +G) + dim(F ∩G) = dim(F ) + dim(G) .

Remarquons l’analogie avec la formule des cardinaux

card (A ∪B) + card (A ∩B) = card (A) + card (B) .

Preuve. Soit F ′ un supplémentaire de F ∩ G dans F , c’est-à-dire F = F ′ ⊕ (F ∩ G) . On endéduit que F +G = F ′ ⊕G. D’après la proposition .., dim(F +G) = dim(F ′) + dim(G). Doncdim(F +G) + dim(F ∩G) = dim(F ′) + dim(F ∩G) + dim(G) = dim(F ) + dim(G). .

Proposition ..Les supplémentaires d’un même sous-espace vectoriel sont tous isomorphes entre eux.

Preuve. Soient G1 et G2 deux supplémentaires d’un sous-espace vectoriel F de E. Cela signifieque E = F ⊕G1 = F ⊕G2 . Nous devons montrer queG1 etG2 sont isomorphes. Soit ρj : E → Gj

le deuxième projecteur de la décomposition E = F ⊕ Gj , pour j = 1, 2, et soit ρ : G1 → G2 larestriction de ρ2 à G1. Nous allons montrer que ρ est un isomorphisme d’espace vectoriels.Injectivité : Avec la proposition .. on a Ker(ρ) = G1 ∩ Ker(ρ2) = G1 ∩ F = 0, donc ρ estbien injective. Surjectivité : Soit v ∈ G2. Alors v1 = ρ1(v) ∈ G1 et ρ2(v1) = ρ2(v + (v1 − v)) = ρ2(v) = v carρ2(v1 − v) = 0 puisque v − v1 ∈ F . Ainsi ρ est bien surjective.

Tests

.. La fonction exponentielle x 7→ ex peut-elle s’écrire demanière unique comme somme d’une fonction paire et d’unefonction impaire ? Si oui, donner ces deux fonctions.

.. Donner un supplémentaire des matrices symétriques dansMn(K).

.. Donner un supplémentaire du sous-espace Kn[X] dansK[X], puis dans K[[X]].

.. Soient F,G,G′ des sous-espaces de E. Les propositionssuivantes sont-elles vraies ?F ⊕ G = F ⊕ G′ ⇒ G = G′.E = F ⊕ G ⇒ E ≃ F × G.E = F ⊕ G ⇐ E ≃ F × G.

. Une autre preuve, plus élégante, utilise la notion de « quotient », reservée à l’année L2. En fait, F est le noyau de lasurjection canonique E → E/F, v 7→ v +E.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Sommes directes et applications linéaires

.. Sommes directes et applications linéaires

Forts de la notion de supplémentarité, nous allons dans cette partie approfondir notre connais-sance des applications linéaires. Nous commençons par un exemple très simple : le cas où l’espaced’arrivée est le corps K des scalaires.

... Formes linéaires. Hyperplans

Définition ..

Une forme linéaire sur un K-espace vectoriel E est une application linéaire de E dans K. L’espace vectoriel E∗ =L (E,K) des formes linéaires sur E est appelé le dual de E. Un sous-espace vectoriel de E est appelé hyperplans’il est noyau d’une forme linéaire non nulle sur E.

Remarque..L’image d’une forme linéaire est un sous-espace vectoriel de K. Or les seules sous-espaces vecto-riels de K sont 0 et K. Par conséquence toute forme linéaire non nulle est surjective.

Exemple ..Les fonctions coordonnées ϕ1, . . . , ϕn associées à une base (b1, . . . , bn) deE sont des formes linéaires. Ellessont non nulles car ϕj(bj) = 1 pour tout j = 1, . . . , n . Par ailleurs, ϕj(bk) = 0 pour tout k 6= j, doncl’hyperplan Ker(ϕj) est l’espace engendré par tous les vecteurs de la base à part bj .

Ker(ϕj) = vect(b1, . . . ,Òbj , . . . , bn) .Proposition .. Soit f : E → K une forme linéaire et soit v ∈ E tel que f(v) 6= 0. Alors Kv est unsupplémentaire de l’hyperplan Ker(f). En particulier tout supplémentaire d’un hyperplan est une droite.

Preuve. Nous devons prouver que E = Kv ⊕Ker(f). Montrons d’abord que E = Kv + Ker(f). Soit u ∈ E. Posons µ = f(u)/f(v) ∈ K etw = u − µv ∈ E. Alors f(w) = f(u) − µf(v) = f(u) − f(u) = 0. Ainsi u = µv + w avecµv ∈ Kv et w ∈ Ker(f). Montrons maintenant que la somme est directe. Soit u ∈ Kv∩Ker(f). Alors u = µv avec µ ∈ K.On a µf(v) = f(µv) = f(u) = 0, donc µ = 0 car f(v) 6= 0. Cela montre que Kv ∩Ker(f) = 0.

Exemple ..Soit (a1, . . . , an) ∈ Kn\0 et posons

F = (x1, . . . , xn) ∈ Kn | a1x1 + · · ·+ anxn = 0

Alors F est un hyperplan dans Kn, car c’est le noyau de la forme linéaire non nulle f : (x1, . . . , xn) 7→Pn

j=1ajxj . Soit k ∈ 1, . . . , n tel que ak 6= 0. Alors f(ek) 6= 0, c’est-à-dire que Kn = Kek ⊕ F .

Le résultat suivant est à rapprocher du théorème du rang pour les systèmes linéaires. La dimen-sion de l’espace des solutions est égale au nombre de variables diminuées du nombre d’équationsindépendantes, donc ici de 1 pour un hyperplan donné par une équation. En particulier, dans unespace de dimension 3, un hyperplan est de dimension 2, donc un plan vectoriel. Dans un espacede dimension 2, un hyperplan est de dimension 1, donc une droite vectorielle. Dans un espace dedimension 1, l’unique hyperplan est l’espace nul.

Proposition .. Soit E un espace vectoriel de dimension finie n et soit F un sous-espace vectorielde E. Alors F est un hyperplan de E si et seulement si dim(F ) = n− 1.

Preuve.(⇒) Supposons que F est un hyperplan. D’après la proposition .., les supplémentaires de F

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

sont des droites. Donc la dimension de F vaut n− 1.(⇐) Supposons que F est de dimension n−1. Soit (b1, . . . , bn−1) une base de F , que l’on complèteen une base (b1, . . . , bn) de E. Soit ϕn la dernière fonction coordonnée associée à cette base. Alorsϕn est une forme linéaire non nulle et Ker(ϕn) = F . Ainsi F est un hyperplan de E.

Il est bien connu que les équations d’une droite vectorielle dans R2 ou d’un plan vectoriel dans R3

sont uniques, à un facteur multiplicatif près des coefficients. Le résultat suivant montre la mêmechose pour l’équation linéaire d’un hyperplan.

Proposition .. Soit f ∈ E⋆ une forme linéaire non nulle et soit H = Ker(f) l’hyperplan associé.Soit g ∈ E⋆ une forme linéaire quelconque. Alors,1) H ⊂ Ker(g) ⇐⇒ ∃λ ∈ K, g = λf ;2) H = Ker(g) ⇐⇒ ∃λ ∈ K⋆, g = λf .

Preuve.1) (⇐) Supposons que g = λf . Alors pour x ∈ H , on a f(x) = 0, donc g(x) = λf(x) = 0.(⇒) Supposons que H ⊂ Ker(g) et soit v ∈ E \ H . Alors f(v) 6= 0 et E = H ⊕ Kv. Posonsλ = g(v)/f(v). La forme linéaire g − λf s’annule sur H par hypothèse, et sur Kv par constructionde λ, donc elle s’annule sur E et ainsi g = λf .2) (⇐) C’est immédiat.(⇒) Le point précédent montre qu’il existe λ ∈ K tel que g = λf . Si λ = 0 alors H = ker g = En’est pas un hyperplan, contrairement à l’hypothèse. Donc λ est non-nul.

Proposition .. (Multiplicateurs de Lagrange)Soient g, f1, . . . , fm des formes linéaires sur un espace vectoriel E. Alors les deux conditions suivantessont équivalentes.

1) Ker(g) ⊃m\

k=1

Ker(fk) .

2) Il existe λ1, . . . , λm ∈ K tels que g = λ1f1 + · · ·+ λmfm .

On appelle les coefficients λk des multiplicateurs de Lagrange. Ils joueront un rôle en deuxièmeannée en analyse dans le chapitre des fonctions de plusieurs variables, lorsque l’on déterminerales extrema d’une fonction sous conditions.Preuve. Nous avons clairement 2)⇒ 1). Montrons l’implication 1)⇒ 2) par récurrence sur m.Le cas m = 1 est déjà connu : on reconnaît le point 1) de la proposition ...Soit m > 2 fixé et supposons que le cas m − 1 est démontré. On se donne m formes linéairesf1, . . . , fm dans L (E) telles que

Ker(g) ⊃m\

p=1

Ker(fp) (.)

Pour allerger les notations, on pose

Hk = Ker(fk) et Fk =k\

p=1

Hp, pour k = 1, . . . ,m.

Ainsi la condition (.) s’écrit encore Ker(g) ⊃ Fm.

Si Fm = Fm−1 , alors Fm−1 ⊂ Ker(g) et on applique le cas m − 1 aux formes g, f1, · · · , fm−1. ilexiste des coefficients λ1, . . . , λm−1 dans K tels que g = λ1f1 + · · ·+ λm−1fm−1 . On conclut alorsen posant λm = 0.

Si Fm ( Fm−1, alors la forme fm n’est pas identiquement nulle sur Fm−1 car

Ker(fm|Fm−1) = Fm−1 ∩Ker(fm) = Fm−1 ∩Hm = Fm 6= Fm−1.

Il en résulte que fm induit par restriction une forme non nulle sur Fm−1. En outre, la proposi-tion .. montre que si on choisit vm ∈ Fm−1 \ Fm, alors

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Sommes directes et applications linéaires

Fm−1 = Fm ⊕Kvm et fm(vm) 6= 0.

Posons

λm =g(vm)

fm(vm).

Alors par construction la forme g − λmfm s’annule sur la droite Kvm, et clairement elle s’annuleaussi sur Fm. Donc g − λmfm s’annule sur Fm ⊕ Kvm = Fm−1. On peut donc appliquer l’hypo-thèse de récurrences aux formes g − λmfm, au lieu de g, et f1, . . . , fm−1. Il existe des coefficientsλ1, . . . , λm−1 dans K tels que g − λmfm = λ1f1 + · · · + λm−1fm−1, ce qui prouve l’hypothèse derécurrence au rang m.

Tests

.. Quelle est la dimension d’un hyperplan dans K[X] ? Etdans Kn[X] ?

.. La trace est l’application

tr : Mn(K) → K , (aℓk) 7→nX

k=1

akk .

Les matrices de trace nulle constituent-elles un sous-espacevectoriel de Mn(K) ? Si oui, quelle est sa dimension ?

.. Quelles fonctions constituent un hyperplan dansC

2([0, 1]) ?

a. Les fonctions d’intégrale nulle ;b. Les fonctions constantes ;c. Les fonctions s’annulant en 1 ;d. Les fonctions f telles que f ′′(0) = 0 ;e. Les fonctions f telles que f(1) = f(0) ;f. Les fonctions f telles que f(1) = f(0) = 0.

Si c’est le cas, donner des supplémentaires.

... Le théorème du rang

Le point de vue des sommes directes nous donne une troisième démonstration du théorème durang, sans doute la plus géométrique.

Théorème .. (Théorème du rang) Soit f : E → F une application linéaire. Alors,1) Tout supplémentaire de Ker(f) est isomorphe à Im(f) ;2) dim(E) = dim(Ker(f)) + rg(f).

Preuve.1) Soit G un supplémentaire de Ker(f), c’est-à-dire E = G⊕ Ker(f). Montrons que l’applicationf : G→ f(E), u 7→ f(u), est un isomorphisme. La linéarité de f vient de celle de f . On a

Ker(f) = u ∈ G | f(u) = 0 = G ∩Ker(f) = 0 ,

d’où l’injectivité de f . Pour la surjectivité, soit v ∈ f(E). Alors il existe u ∈ E tel que f(u) = v. Ondécompose u = w + w′ avec w ∈ G et w′ ∈ Ker(f). Donc

v = f(u) = f(w + w′) = f(w) + f(w′) = f(w) + 0 = f(w) ,

ce qui montre la surjectivité de f .2) D’après la proposition .., le sous-espace vectoriel Ker(f) possède un supplémentaire G,c’est-à-dire tel que E = G ⊕ Ker(f). Avec la proposition .., on trouve dim(E) = dim(G) +dim(Ker(f)) . D’après 1), l’espace G est isomorphe à l’image de f , donc dim(G) = rg(f), ce quipermet de conclure.

Sommes directes et matrices en blocs

Une façon de comprendre le théorème du rang consiste à décomposer l’espace source en la sommedu noyau et d’un supplémentaireG, et à décomposer l’espace but en la somme de l’image et d’un

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

supplémentaire. L’essentiel de l’application linéaire se lit alors sur sa restriction à G à la source, età son image au but.Plus généralement, nous pouvons analyser une application linéaire en décomposant le but et lasource en sommes directes arbitraires. La donnée d’une application linéaire se réduit ainsi à ladonnée d’applications linéaires entre les sous-espaces d’une somme directe. Ceci est intéressantparce que l’étude d’une application entre sous-espaces est a priori plus facile que l’étude de l’ap-plication entre des espaces plus gros. Nous allons voir que cette analyse correspond à la décompo-sition d’une matrice en blocs. Nous illustrerons cette correspondance par l’étude des projectionset des symétries vectorielles.

Proposition .. Les décompositions E = F1 ⊕ · · · ⊕ Fn et E′ = F ′1 ⊕ · · · ⊕ F ′

m induisent unisomorphisme

L (E,E′) ≃Y

16ℓ6m16k6n

L (Fk, F′ℓ) .

Si, par exemple, E = F1 ⊕ F2 et E′ = F ′1 ⊕ F ′

2 alors

L (E,E′) ≃ L (F1, F′1)×L (F1, F

′2)×L (F2, F

′1)×L (F2, F

′2) .

L’ordre des facteurs n’a pas d’importance.Preuve. On note

ιk : Fk → E , u 7→ u

l’injection de Fk dans E. Tout vecteur de E se décompose de manière unique en une sommev1 + · · ·+ vn avec vk ∈ Fk. Cela définit les projecteurs

ρk : E → Fk, v1 + · · ·+ vn 7→ vk .

On définit de manière analogue ι′ℓ et ρ′ℓ associées à la décomposition de E′.

Pour tout f ∈ L (E,E′), on pose fℓk =ρ′ℓ f ιk : Fk → Fℓ de façon à obtenirle diagramme commutatif ci-contre.

F1 ⊕ · · · ⊕ Fnf // F ′

1 ⊕ · · · ⊕ F ′m

ρ′ℓ

Fk

ιk

OO

fℓk // F ′ℓ

.

Les applications fℓk sont linéaires comme composées d’applications linéaires. Elles définissentl’application

L (E,E′)→Y

16ℓ6m16k6n

L (Fk, F′ℓ), f 7→ (fℓk)16ℓ6m

16k6n

(.)

Elle est linéaire car les applications ρ′ℓ le sont. Réciproquement, à partir des fℓk , on reconstruit fpar la formule

f =Xℓ,k

ι′ℓ fℓk ρk .

Ainsi l’application définie par (.) est un isomorphisme.

. Pour simplifier l’écriture, nous omettons le symbole .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Sommes directes et applications linéaires

Composition de deux applications

Soit maintenant E′′ = F ′′1 ⊕ · · · ⊕ F ′′

p un troisième espace vectoriel décomposé en somme directeet soit g : E′ → E′′ une application linéaire. Alors,

f =Xℓ,k

ι′ℓ fℓk ρk , g =Xj,q

ι′′j gjq ρ′q ⇒ gf =

Xj,q,ℓ,k

ι′′j gjq ρ′q ι

′ℓ fℓk ρk ,

où les indices parcourent les ensembles J1, pK ∋ j, J1,mK ∋ q, J1, nK ∋ k, J1,mK ∋ ℓ. Pour lacomposée ρ′q ι

′ℓ , on a

ρ′q ι′ℓ =

¨idFℓ

si q = ℓ ,

0 si q 6= ℓ .

Donc gf =Xj,ℓ,k

ι′′j gjℓ fℓk ρk =Xj,k

ι′′j

Xℓ

gjℓ fℓk

!ρk . On obtient ainsi la formule

gf =Xj,k

ι′′j (gf)jk ρk avec (gf)jk =Xℓ

gjℓ fℓk . (.)

Cette formule est similaire à la formule du produit matriciel. Ce n’est pas un hasard.

Lien avec les matrices en blocs

Supposons maintenant queE,E′, E′′ sont de dimensions finies. Prenons pour chaque Fk une baseBk. En les rassemblant, on obtient la base B = (B1, . . . ,Bn) de E. Faisons l’opération analoguedans E′ et E′′. Posons

A =MB′B(f) , B =MB′′B′(g) , Aℓk =MB′ℓBk

(fℓk) et Bjℓ =MB′′j

B′ℓ(gjℓ) .

Alors les matrices de f et de g sont les matrices en blocs

B =

B11 . . . B1m

......

Bp1 . . . Bpm

Ǒet A =

A11 . . . A1n

......

Am1 . . . Amn

Ǒ.

Et de même, on peut écrire en blocs la matrice MB′′B(gf) de la composée gf . La formule (.)exprime alors précisément le produit en blocs des deux matrices ci-dessus (voir page ).

Règle .. Si on décompose les espaces en sommes directes de sous-espaces vectoriels, les matrices desapplications linéaires se décomposent en blocs de manière correspondante. À la composition des applica-tions linéaires correspond le produit en blocs des matrices.

... Exemple : réduction des projections et symétries

Nous illustrons la technique de décomposition en blocs sur deux exemples.

Définition ..

On suppose E = F ⊕G.1) On appelle projection sur F parallèlement à G l’application linéaire

p : E → E, u+ w 7→ u, où u ∈ F, w ∈ G .

2) On appelle symétrie par rapport à F parallèlement à G l’application linéaire

s : E → E, u+ w 7→ u−w, où u ∈ F, w ∈ G .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Ces applications sont bien définies, car la somme directe garantit l’unicité de la décomposition detout vecteur v ∈ E en somme de u ∈ F et w ∈ G. On vérifie facilement que p et s sont linéaires. Ils’agit donc d’endomorphismes de E.

v

w

p(v)

s(v)

FG

b

Remarque..Le dessin ci-dessus schématise une projection et une symétrie générales. Les espaces F etG repré-sentent des sous-espaces vectoriels quelconques qui peuvent même être de dimensions infinies !Le plan de la feuille ne représente donc pas un espace de dimension deux. C’est un dessin d’unenature différente de celui que nous avons donné sur la page pour illustrer des sous-espacessupplémentaires dans l’espace ambiant, de dimension 3.

Notons que s2 = idE . Par conséquent la symétrie s est un automorphisme avec s−1 = s.En outre, p2 = p et nous avons

Ker(p) = G et Im(p) = F. (.)

On en déduit que la projection p n’est ni injective, ni surjective, sauf dans le cas peu intéressantF = E ou F = 0.

Remarquons de plus que F est l’espace des « vecteurs invariants par s »,

F = v ∈ E | s(v) = v , (.)

tandis que G est l’espace des vecteurs que s transforme en leurs opposés.

G = v ∈ E | s(v) = −v . (.)

Proposition .. Soit f un endomorphisme de E.1) Si f2 = f , alors f est la projection sur Im(f) parallèlement à Ker(f).2) Si f2 = idE , alors f est la symétrie par rapport à v ∈ E | f(v) = v parallèlement à v ∈

E | f(v) = −v.Preuve.1) On pose F = Im(f) et G = Ker(f). On suppose f2 = f . Il faut d’abord montrer la décomposi-

tion E = F ⊕G.

Montrons d’abord que E = F +G. Soit u ∈ E. Alors v = u+w avec u = f(v) etw = v−f(v).On a f(w) = f(v − f(v)) = f(v) − f2(v) = f(v) − f(v) = 0, donc v est bien la somme d’unvecteur de F et d’un vecteur de G.

Montrons maintenant que F ∩G = 0. Soit v ∈ F ∩G. Alors il existe v′ ∈ E tel que v = f(v′).Utilisant le fait que f2 = f et que v ∈ Ker(f), on obtient

v = f(v′) = f(f(v′)) = f(v) = 0.

On a donc la décomposition E = F ⊕G.

Il reste à montrer que f est la projection sur F parallèlement à G. La décomposition d’un

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Sommes directes et applications linéaires

vecteur v dans E = F ⊕G est v = f(v) + (v − f(v)), donc sa projection sur F parallèlement àG est bien f(v).

2) On pose F = v ∈ E | f(v) = v et G = v ∈ E | f(v) = −v. Ce sont bien des sous-espacesvectoriels de E car F (resp.G) est le noyau de l’application linéaire f − idE (resp. f + idE). Onsuppose f2 = idE . Montrons que E = F ⊕G.

Montrons que E = F +G. Soit v ∈ E. On a

v =v + f(v)

2+v − f(v)

2. (.)

Le premier vecteur de cette somme est invariant par f car f(v+f(v)) = f(v)+f2(v) = f(v)+v ;donc il est dans F . De même on montre que le deuxième vecteur est dans G.

Montrons maintenant que la somme E = F + G est directe. Pour cela soit u ∈ F,w ∈ G telque u+ w = 0. Donc 0 = f(u+ w) = u− w. On déduit u = w = 0.

Il reste à montrer que f est la symétrie par rapport à F parallèlement à G. La décompositiond’un vecteur v dansE = F⊕G est donné par (.). Son symétrique par rapport à F parallèlementà G est donc

v + f(v)

2− v − f(v)

2= f(v) .

Ce résultat justifie les appellations suivantes.

Définition ..

1) Une projection est un endomorphisme p de E tel que p2 = p.2) Une symétrie est un endomorphisme s de E tel que s2 = idE .

On peut reformuler la proposition .. comme suit.

⋄ Dans une algèbre, un élément qui est son propre carré est appelé idempotent (du latin idem, lemême, et potens, pouvant). D’après la proposition .., les idempotents de l’algèbre L (E) sontprécisément les projections sur un sous-espace et parallèlement à un supplémentaire.

⋄ Dans un groupe, un élément qui est son propre inverse est une involution (du latin in, à l’inté-rieur (de soi), et volere, tourner). Les involutions du groupe GL(E) sont précisément les symétriespar rapport à un sous-espace et parallèlement à un supplémentaire.

En outre, en dimension finie, nous avons aussi la traduction suivante en termes de matrices enblocs.

⋄ Pour toute projection dans E, il existe une base B de E telle que la matrice de f dans B est

MB(f) =

0BBBBBBBB 1. . .

10. . .

0

1CCCCCCCCA ,

où la taille du bloc avec les 1 correspond au rang de f . En effet, on prend B = (B1,B2) où B1 estune base de l’image de f et B2 une base du noyau de f .

⋄ De manière analogue, pour toute symétrie dansE, il existe une base B deE telle que la matricede f dans B est

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

MB(f) =

0BBBBBBBB 1. . .

1−1

. . .

−1

1CCCCCCCCA ,

où le nombre des 1 est la dimension de l’espace des vecteurs invariants par f .

Exemple ..Considérons l’endomorphisme

f : R3 → R3,

xyz

!7→ −y

−xx+ y + z

!.

f est l’application linéaire induite par la matrice

A =

0 −1 0−1 0 01 1 1

!.

Le lecteur vérifiera que A2 = I3 , c’est-à-dire f est une symétrie. Réduisons-la.L’espace des vecteurs invariants par f est F = Ker(f − idR3). Ainsi F est l’espace de solutions du systèmehomogène de matrice A− I3, −1 −1 0

−1 −1 01 1 0

! xyz

!= 0 .

On obtient le plan F = (x, y, z) | x+y = 0 . Donc f est la symétrie par rapport à un plan et parallèle à unedroite supplémentaire. Cette droite est l’espace G des vecteurs que f envoie sur leurs opposés, autrementdit, G = Ker(f + idR3). Pour déterminer G, on résout donc le système homogène,

1 −1 0−1 1 01 1 2

! xyz

!= 0 .

Si on prend une base de F , disons b1 = (−1, 1, 1) et b2 = (1,−1, 1), ainsi qu’une base de G, disons b3 =(1, 1,−1), alors dans la base B = (b1, b2, b3) de R3 la représentation matricielle de f est

B =MB(f) =

1 0 00 1 0

0 0 −1

.

Si on note A la base canonique de R3, alors A = MA (f) dans l’exemple ci-dessus. La matrice depassage est

CA B =

−1 1 11 −1 11 1 −1

.

Le lecteur vérifiera que B = (CA B)−1ACA B . Bien évidemment, on aurait pu choisir une autrebase de F et une autre base de G. On aurait alors obtenu une autre matrice de passage, mais elletransforme toujours A en B.

.. Le lemme des noyaux

De l’algèbre linéaire aux équations différentielles

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Le lemme des noyaux

Nous allons prouver, avec les méthodes de l’algèbre linéaire, un résultat bien connu de la théoriedes équations différentielles.Ici nous notons la composition de deux endomorphismes f, g d’un K-espace vectoriel E par fg (àla place de f g).On fixe un endomorphisme f de E. Les puissances fk, k ∈ N, sont encore des endomorphismes.On convient que f0 = idE . Rappelons le morphisme d’algèbres « l’évaluation en f » vue sur lapage

νf : K[X ] → L (E) , P =nX

k=1

akXk 7→ P (f) =

nXk=1

akfk .

En particulier l’image νf (K[X ]) est une sous-algèbre commutative de L (E). On a

∀P,Q ∈ K[X ] : P (f)Q(f) = νf (P )νf (Q) = νf (PQ) = νf (QP ) = Q(f)P (f) ,

c’est-à-dire que les endomorphismes P (f) et Q(f) commutent entre eux.

Lemme .. (Lemme des noyaux)Soit f ∈ L (E), soit P,Q dans K[X ] deux polynômes premiers entre eux. Alors,

Ker(PQ)(f) = Ker P (f)⊕KerQ(f) .

Preuve. Appliquons le théorème de Bézout à P etQ : il existeR,S dans K[X ] tels queRP+SQ =1. Alors R(f)P (f) + S(f)Q(f) = idE .

Montrons que Ker(PQ)(f) = Ker P (f) + KerQ(f) . Soit v ∈ Ker(PQ)(f). Alors,

v = idE(v) = R(f)P (f)(v) + S(f)Q(f)(v) = v1 + v2 ,

avec v1 = R(f)P (f)(v) et v2 = S(f)Q(f)(v). On a

Q(f)(v1) = Q(f)R(f)P (f)(v1) = R(f)(PQ)(f)(v1) = R(f)(0) = 0 ,

ce qui prouve que v1 ∈ KerQ(f). On montre que v2 ∈ Ker P (f) de manière analogue. On a doncprouvé que Ker(PQ)(f) ⊂ Ker P (f) + KerQ(f). Pour montrer l’inclusion réciproque, il suffit demontrer que Ker(PQ)(f) contient l’union Ker P (f)∪KerQ(f). Or, l’identité (PQ)(f) = P (f)Q(f)montre que KerQ(f) ⊂ Ker(PQ)(f), et l’identité (PQ)(f) = Q(f)P (f) montre que Ker P (f) ⊂Ker(PQ)(f).

Montrons maintenant que la somme est directe. Soit v ∈ Ker P (f) ∩KerQ(f) . Alors,

v = idE(v) = R(f)P (f)(v) + S(f)Q(f)(v) = R(f)(0) + S(f)(0) = 0 .

Maintenant, appliquons le lemme des noyaux à l’endomorphisme

d

dx: C

∞(R,C) → C∞(R,C) , y 7→ y′.

Exemple ..On considère l’équation différentielle

y′′ + y′ − 2y = 0 . (.)

Pour P = X + 2 et Q = X − 1, on a PQ = X2 +X − 2. Si on remplace dans l’indéterminée X l’endomor-phisme d

dx, on obtient l’endomorphisme

PQd

dx

=

d2

dx2+

d

dx− 2 .

Les solutions de (.) sont précisément les éléments de noyau de PQ

ddx

. Or ce noyau est la somme

directe du noyau de P

ddx

= d

dx+ 2 et du noyau de Q

ddx

= d

dx− 1. Ces deux noyaux sont faciles à

déterminer : la fonction x 7→ e−2x est une base du premier et la fonction x 7→ ex une base du second.Ainsi l’espace des solution de (.) a pour base les fonctions e−2x et ex .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Proposition .. Soit P = Xn + an−1Xn−1 + · · · + a1X + a0 un polynôme de C[X ] à racines

simples α1 , . . . , αn ∈ C. Alors l’espace des solutions de l’équation différentielle

y(n) + an−1y(n−1) + · · ·+ a1y

′ + a0y = 0 (.)

a pour base les fonctions x 7→ eαkx , k = 1, . . . , n.

Preuve. L’espace des solutions de (.) est précisément le noyau de P

ddx

.

On a P = (X − α1) · · · (X − αn). On applique le lemme des noyaux à (X − α1) et à Q = (X −α2) · · · (X − αn) ; on obtient

Ker P

d

dx

= Ker

d

dx− α1

⊕KerQ

d

dx

.

Par récurrence on déduit alors que

Ker P

d

dx

=

nMk=1

Ker

d

dx− αk

.

Chaque noyau se détermine simplement,d

dx− αk

y(x) = 0 ⇐⇒ y′(x)− αky = 0 ⇐⇒ y(x) = eαkx .

Le fait que la somme est directe assure que ces fonctions soient libres, donc elles forment une basede l’espace de solutions de l’équation différentielle.

Comment peut-on procéder lorsqu’il y a une racine double ? Ici encore, le lemme des noyauxdonne la réponse. Supposons que P a des racines distinctes α1 , . . . , αr de multiplicités respec-tives m1 , . . . , mr . L’espace des solutions de l’équation différentielle est donc

rMk=1

Ker

d

dx− αk

mk

.

On a

ddx − α

(xpeαx) = pxp−1eαx , et par récurrence pour tout q ∈ N,

d

dx− α

q

(xpeαx) = p(p− 1) · · · (p− q + 1)xp−qeαx .

En particulier

ddx − α

q(xpeαx) = 0 pour p < q. On en déduit que les fonctions xpeαx , pour

p = 0, . . . ,m− 1, sont dans Ker

ddx − α

m. En outre, elles forment une famille libre.

En résumé, l’espace des solutions de (.) a pour base les fonctions

xpeαkx , p = 0, . . . ,mk − 1, k = 1, . . . , r .

Tests

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Le lemme des noyaux

.. Expliciter la symétrie par rapport à l’espace nul.

.. Un endomorphisme peut-il être à la fois une symétrie etune projection ?

.. Soit p ∈ L (E). Montrer que p ∈ L (E) est une projectionsi et seulement si idE − p l’est aussi. Montrer que dans ce casIm(p) = Ker(idE − p) et Ker(p) = Im(idE − p).

.. Donner l’image de X2 + X par la

a) projection sur les polynômes pairs,

b) symétrie par rapport aux polynômes pairs,

parallèlement aux polynômes impairs.

.. Dans le R-espace vectoriel C, quel nom porte la symétriepar rapport à R parallèlement à iR ? Et quel nom porte laprojection sur R parallèlement à iR ?

.. Dans R3, soient b1 = (1, 1, 0), b2 = (2, 0, 0),b3 = (2,−1, 1

2 ). Donner la matrice dans la base naturelle de

a. la projection sur Kb1 et parallèlement à vect(b2, b3),

b. la symétrie par rapport à Kb1 et parallèlement à vect(b2, b3).

.. D’après ce que nous avons vu page , l’espace des carrésmagiques se décompose sous la forme

K = K0 ⊕ vect(I) .

Soit s la symétrie par rapport à K0 parallèlement à la droitevect(I).Donner l’image par s du carré magique A de la page . Quel estle lien entre le caractère d’un carré magique et celui de sonsymétrique ?

.. Soit E = F ⊕G. On note ιk et ρk, k = 1, 2, les inclusionset projections associées à cette décomposition. Exprimer enfonction de ces applications la projection p sur F parallèlement àG et la symétrie s rapport à F parallèlementà G.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

.. Exercices

Exercice ..

Démontrez que la matrice n× n

A =1

n

1 1 . . . 11 1 . . . 1......

...1 1 . . . 1

est idempotente. Déterminez une matrice C ∈ GL(n,R) telle que B = C−1AC est une matrice diagonale.

Exercice ..

Soit p ∈ L(E) une projection. On pose q = idE − p. Montrez les assertions suivantes

. l’endomorphisme q est une projection,

. p q = q p = 0,

. Im p = Ker q et Im q = Ker p.

. E = Ker q ⊕ Im q.

Exercice ..

Soient H1 et H2 deux hyperplans distincts d’un espace vectoriel E de dimension finie n.

. Prouver que n > 2.

. Montrer que dim(H1 ∩H2) = n− 2.

Exercice ..

. Soit f un endomorphisme d’un K-espace vectoriel E de dimension finie. En utilisant l’exercice ..montrez l’équivalence des propriétés suivantes.

⋄ f est une homothétie.

⋄ La représentation matricielle de f ne dépend pas de la base choisie.

. En déduire le centre du groupe GL(n,K). Comparer avec le résultat de l’exercice ...

Exercice ..

Toute permutation σ ∈ S3 définit un automorphisme σ de R3 par permutation de coordonnées, c’est-à-dire

σ(x1, x2, x3) = x1eσ(1) + x2eσ(2) + x3eσ(3) .

Autrement dit, σ(x) = Pσx avec la matrice de permutation de la page . Considérons les sous-espaces

G = (x1, x2, x3) ∈ R3 | x1 = x2 = x3F = (x1, x2, x3) ∈ R3 | x1 + x2 + x3 = 0

. Montrez que R3 = F ⊕G. Montrez que B = (b1, b2) = (e1 − e2, e2 − e3) est une base de F .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

. Montrez que G est invariant sous l’action du groupe S3 , c’est-à-dire

∀ σ ∈ S3 , σ(G) ⊂ G .

. Montrez que les seuls sous-espaces vectoriels de R3 invariants sous S3 sont F,G,R3 et l’espace nul.(Indication : Observez que si un sous-espace invariant n’est pas contenu dans F , alors il contient b1.)

. Pour tout σ ∈ S3, on note eσ l’automorphisme de F induit par l’automorphisme σ de R3. Montrez queles matrices MB(eσ), σ ∈ S3, sont précisément les six matrices dans GL(2,Z) rencontrées dansl’exercice ...

Exercice ..

On reprend les notations de l’exercice ... Dans toutes les questions suivantes on munit le plan complexeC de sa structure naturelle de R-espace vectoriel.

. Montrez qu’il existe un unique isomorphisme

f : F → C ,

tel que f(b1) = 1 et f(b2) = 12(−1 + i

√3) .

. Pour tous ℓ, k ∈ 1, 2, 3 avec ℓ 6= k notons zℓk = f(eℓ − ek) . Quelle est la configuration formée par lespoints zℓk, ℓ 6= k ? Faire un dessin.

. Pour tout σ ∈ S3, on note bσ l’automorphisme de C défini parbσ = f eσ f−1 .

Notons σℓk ∈ S3 la transposition qui permute ℓ et k. Montrez que l’automorphisme bσℓk est la reflexion parrapport à la droite perpendiculaire à Rzℓk.En déduire une interprétation géométrique du groupe S3.

Exercice ..

Démontrez que pour toute forme linéaire f 6= 0 sur E, il existe un système de coordonnées sur E dont fest l’une des fonctions coordonnées.

Exercice ..

Pour un K-espace vectoriel E on note E∗ = L (E,K) l’espace des formes linéaires sur E, et on l’appelle ledual de E.

. Soit E de dimension fini. Démontrez que E ≃ E∗.

. Démontrez qu’on a un isomorphisme canonique

Kn ≃ (Kn)∗ .

Exercice ..

Pour un K-espace vectoriel E on note E∗∗ = (E∗)∗ le bidual de E, c’est-à-dire le dual de son dual.

. Pour tout v ∈ E et tout f ∈ E∗ on pose χ(v)(f) = f(v). Démontrez que

χ : E → E∗∗ , v 7→ χ(v) ,

est un morphisme injectif.

. Si E est de dimension finie, on écrit E = E∗∗ plutôt que E ≃ E∗∗. Justifiez.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Exercice ..

Soit (G1, G2, G3) un triplet de trois droites vectorielles distinctes dans K2, et soit (G′1, G

′2, G

′3) un autre tel

triplet. Démontrez les assertions auivantes.

. Il existe un automorphisme de K2 qui envoie le premier triplet sur le second. Autrement dit, il existef ∈ GL(K2) tel que f(Gj) = G′

j

pour tout j = 1, 2, 3.

. Si f et g sont deux automorphismes comme ci-dessus, alors il existe λ ∈ K∗ tel que g = λf .

Exercice ..

On note E = R4,F =

(x, y, z, t) ∈ E | z = y + t = 0

et G =

(x, y, z, t) | x = y + z = 0

.

. Prouver que F et G sont des plans vectoriels de E.

. Montrer que F et G sont supplémentaires dans E.

. Donner les expressions analytiques de p et s, respectivement projecteur sur F parallèlement à G etsymétrie par rapport à F parallèlement à G.

Indication : Routine : on pourra par exemple déterminer une base de F .

Exercice ..

On note E = RR, A le sous-espace vectoriel de E constitué des fonctions affines et on pose

N =

§f ∈ E

f(0) = f(1) = 0

ª.

. Montrer que les sous-espaces vectoriel A et N sont supplémentaires dans E.

. Expliciter le projecteur sur A parallèlement à N .

. Expliciter la symétrie par rapport à A parallèlement à N .

Indication : Analyse-Synthèse ! Tout revient finalement à rechercher une application affine co’ıncidant avec f en 0 et1 . . .

Exercice ..

Soient E un R-ev de dimension finie et f ∈ L (E). Montrer que si tr(f) = rg(f) = 1, alors f est unprojecteur de E.Indication : Travailler matriciellement.

Exercice ..

Soit E un espace vectoriel sur K. Soient F,G1 et G2 trois sous-espaces vectoriels de E tels que

E = F ⊕G1 = F ⊕G2.

Soient p le projecteur sur F parallèlement à G1 et q le projecteur sur F parallèlement à G2.

. Que dire de p q et q p ?

. Montrer que pour tout λ ∈ K,pλ = λp+ (1− λ)q

est un projecteur de E d’image F .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Indication :

Exercice ..

Soit E un espace vectoriel de dimension finie et A une partie finie de GL(E) stable par composition. On

pose p =1

|A|Pf∈A

f . Montrer que p est un projecteur.

Indication : Pour g ∈ A, considérer l’application φg : f 7→ g f pour f ∈ A.

Exercice ..

Soient E un K-espace vectoriel de dimension finie et f un endomorphisme de E tel que

∀ x∈E ∃m ∈ N , fm(x) = 0 .

Montrer que f est nilpotent.Exhiber un contre-exemple en dimension infinie.Indication : Travailler avec une famille génératrice finie.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

.. Réponses aux tests

.. Les coordonnées de u sont de la forme (∗, 4, 3) et cellesde v sont de la forme (∗, 1, 2). Ces triplets sont clairement noncolinéaires. Il en est donc de même des vecteurs u et v.

.. Soient u, v ∈ E. Alors

u =

nXj=1

ϕj(u)bj

v =

nXj=1

ϕj(v)bj

u + v =

nXj=1

ϕj(u + v)bj .

Par conséquent,

nXj=1

ϕj(u + v)bj = u + v

=

nXj=1

ϕj(u)bj +

nXj=1

ϕj(v)bj

=

nXj=1

(ϕj(u) + ϕj(v)) bj .

Par unicité de l’écriture dans une base, on a

ϕj(u + v) = ϕj(u) + ϕj(v)

pour tout j = 1, . . . , n. De même, on démontre queϕj(λv) = λϕj(v) pour tout scalaire λ.

..

a. La k-ième fonction coordonnée est la projection sur lak-ième composante.

b. La k-ième fonction coordonnée associe au polynôme sonk-ième coefficient.

c. Les coordonnées de

P = a + bX + cX2

sont (a − b, b − c, c).

d. ϕ1(x, y) = x − y et ϕ2(x, y) = y .

e. ϕ1(x, y) = (x + y)/2 et ϕ2(x, y) = (y − x)/2 .

.. Oui et oui.

..

a. CB′B est égale à1/2 1/2−1/2 1/2

−1

=

1 −11 1

.

b. Les coordonnées de w dans B sont (3,−2). Lescoordonnées de w dans B

′ sont (5, 1).

.. Seulement γℓk = ϕℓ(b′k) est correct.

..

Numérotons les systèmes de la gauche vers la droite, de ligne enligne. Seuls les systèmes 2, 3 et 4 sont vrais.

.. Oui, une telle application linéaire existe. En effet,(1, 2, 3) et (2, 3, 1) étant linéairement indépendants il suffit deles compléter en une base de R3 et d’appliquer laproposition ...

.. Non. Oui.

..

MB

d

dX

=

0 1... 2...

. . .

0 n0 0 . . . . . . 0

.

Le noyau est constitué des polynômes constants. Le rang estn − 1 ; cela se voit sur la matrice et aussi à l’aide le théorème durang.

.. On aMB(f) =

0 −1

−1 0

,

etMB(g) =

cos α − sinαsinα cos α

.

Avec la matrice de passage

CBB′ =1

2

1 1

−1 1

et son inverse

1 −11 1

, on trouve

MB′ (f)

=1

2

1 −11 1

0 −1

−1 0

1 1

−1 1

=

1 00 −1

et de la même manière, par un petit calcul,MB′ (g) = MB(g) . Géométriquement parlant, g est larotation d’angle α ; sa matrice est donc la même dans toute baseothogonale directe dont les deux vecteurs ont même norme(notions introduites en deuxième année).

.. Elles sont toutes vraies.

.. Notant n = dim(E) on a deg(f) 6 n2 . En effet, la

famille (idE = f0, f, . . . , fn2) est liée puisque

dim(L (E)) = n2.

.. Soit P =Pp

k=0akX

k . La condition P (0) 6= 0

signifie que a0 6= 0. De P (f) = 0 on déduit

f

pXk=1

akfk−1 =

pXk=1

akfk = −a0In .

Ainsi, f−1 = − 1

a0

pXk=1

akfk−1 .

.. Soit Bn la sous-algèbre de K[X] engendrée par Xn .Elle est formée des polynômes de la forme

Pk∈N

akXnk .

Alors X2 ∈ B2 et X3 ∈ B3 mais leur produit X5 n’est pasdans la somme B2 + B3.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Réponses aux tests

.. Seule l’inclusion

F + G ⊂ F ∪G

n’est pas vraie en général, comme le montre l’exemple des deuxaxes dans R2 .

.. La première est fausse. Contre-exemple dans R2 :considérer G = R × 0, H = 0 × R et F = (x, x) | x ∈ R .La seconde est vraie. En effet, si v ∈ F ∩G et u ∈ F ∩H, alorsil est clair que d’une part v + u ∈ F et d’autre part quev + u ∈ G + H.

.. Seule l’assertion c. est vraie.

.. Faux. Vraie. Non-sens.

.. Les deux assertions sont vraies.

..

a. La linéarité de ιj est évidente. On a

v =Xj∈J

ρj(v) , u =Xj∈J

ρj(u)

et

u + v =Xj∈J

ρj(u + v) .

En prenant la somme on trouve queP

j∈J(ρj(v) + ρj(u)) est

égal àP

j∈Jρj(u + v) , et par unicité de la décomposition,

ρj(v) + ρj(u) = ρj(u + v) .

b. ρj ιk = 0 si j 6= k et ρj ιj = idFj. La composée

ιk ρj a seulement un sens si j = k. On a ιj ρj = idFj.

.. f−1 est donné par v 7→ (ρ1(v), . . . , ρn(v)).

..

a. Vrai. (⇒) est vrai en dimension arbitraire.

b. Faux (voir page ).

.. La partie paire de x 7→ ex est

x 7→ cosh(x) = ex+e−x

2 et la partie impaire est

x 7→ sinh(x) = ex−e−x

2 .

.. L’espace des matrices anti-symétriques.

.. K[X] est égal à

Kn[X] ⊕ Xn+1P | P ∈ K[X],

et K[[X]] est égal à

Kn[X]⊕ Xn+1P | P ∈ K[[X]] .

.. La première est fausse. Contre-exemple :considérerE = R2 , F = R × 0, G = 0 × R,G′ = (x, x) | x ∈ R .La deuxième est vraie (voir le corollaire ..).La troisième est fausse. Contre-exemple : considérer E = R2,F = G = R × 0.

.. Infinie. n.

.. Oui car la trace est une forme linéaire, et que lesmatrices de traces nulles en constituent le noyau. La dimensionde ce dernier est n2 − 1.

..

a. Oui, c’est le noyau deR

: C2([0, 1]) → R, f 7→

R1

0f . La

fonction x 7→ x engendre un supplémentaire.

b. Non, car sa dimension est 1.

c. Oui, c’est le noyau de l’application « évaluation en 1 »ν1 : C

2([0, 1]) → R, f 7→ f(1). L’espace des fonctionsconstantes est un supplémentaire.

d. Oui, c’est le noyau de C2([0, 1]) → R, f 7→ f ′(1). La

fonction x 7→ x2 engendre un supplémentaire.

e. Oui, c’est le noyau de C2([0, 1]) → R, f 7→ f(1) − f(0).

La fonction x 7→ x engendre un supplémentaire.

f. Non. Supposons par l’absurde que ces fonctions constituentun hyperplan H. Alors il existe une forme linéaire non-nulle ϕ

sur C2([0, 1]) telle que H = Ker(ϕ). D’autre part, avec les

applications « évaluations » définies comme ci-dessus, on aH = Ker(ν0) ∩ Ker(ν1). Alors Ker(ν0) ⊂ Ker(ϕ) etKer(ν1) ⊂ Ker(ϕ). Par la proposition .. on trouve queν0 = λϕ et ν1 = µϕ avec λ, µ ∈ R. Puisque les évalutions sontdes formes linéaires non-nulles on a λ, µ ∈ R∗ , et parconséquent ν0 et ν1 sont linéairement dépendants. Or cela estune contradition car la fonction x 7→ x est dans le noyeau de ν0mais pas dans celui de ν1 .

.. v 7→ −v .

.. Seulement dans le cas de la décomposition triviale

E = E ⊕ 0 .

.. Posons q = idE − p. Comme

q2= idE − 2p + p

2,

q2 = q ssi p2 = p. Sous cette hypothèse, un vecteur x de Eappartient à Im(p) si et seulement si p(x) = x, c’est-à-direx ∈ Ker(q). De même pour la seconde inclusion.

..

a. X2.

b. X2 − X

.. Conjugaison complexe. Partie réelle.

.. 0 1 20 1 20 0 0

,

−1 2 40 1 40 0 −1

.

.. On as : K → K ,

M 7→ M − 2ξ(M)I ,

où ξ : K → R est la forme linéaire qui à un carré magiqueassocie son caractère. La symétrie change le signe du caractèrecar ξ(M − 2ξ(M)I) est égal à

ξ(M) − 2ξ(M) = −ξ(M).

4 2 −8−1 0 −1−5 −4 7

7→8 2 −8

−1 4 −1−5 −4 11

.. On trouve ρ = ι1 ρ1 et s = ι1 ρ1 − ι2 ρ2 .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

.. Solutions des exercices

Solution ..

La vérification de A2 = A est facile. Donc l’endo-morphismeA : Kn → Kn, x 7→ Ax, est une projec-tion. Son rang est 1. Ainsi, A estsemblable à la matrice

B =

10. . .

0

.

Pour chercher une matrice de passage C, nous dé-terminons le noyau G et l’image F de l’endomor-phisme A. On voit immédiatement queb1 = (1, 1, . . . , 1) est une base de F et que les vec-teurs bk = ek−1 − ek , k = 2, . . . , n, forment une

base de G. Dans la base (b1, . . . , bn) de Kn, l’endo-morphismeA a pour matrice la forme diagonaleBci-dessus. La matrice de passage est donc

C =

0BBBBBBBBB1 1 0 . . . . . . 0

1 −1 1...

1 0 −1 . . ....

1 0 0. . .

. . . 0......

.... . . 1

1 0 0 . . . . . . −1

1CCCCCCCCCA .

On peut aussi vérifier AC = CB.

Solution ..

. Il suffit de montrer que q est idempotent,

q2 = (idE − p)2 = idE − 2p+ p2

= idE − 2p+ p = idE − p = q.

. q p = (idE − p) p = p − p2 = p − p = 0.L’égalité p q = 0 résulte par symétrie.

. v ∈ Ker q ⇐⇒ q(v) = 0 ⇐⇒ p(v) = v. Doncle noyau de q est l’espace des vecteurs invariantsde p. Par définition de la projection p, c’estl’image de p. L’égalité Im q = Ker p résulte par sy-métrie.

. C’est vrai car q est une projection.

Solution ..

. Puisqu’en dimension 1, le seul hyperplan estl’espace nul, on a n > 2.

. Puisque les deux hyperplans sont distincts, ilexiste u ∈ H1 \H2. On a donc

E = H2 ⊕Ku ⊂ H2 +H1 ⊂ E,

ainsi E = H1 + H2 et d’après la formule des di-mensions,

dim(H1 ∩H2) = n− 1 + n− 1− n = n− 2.

Solution ..

. Notons n = dim E.(⇒) Si f est une homothétie, alors f = λidE . Clai-rement pour toute base B de E, on a MB(f) =λIn .(⇐) Montrons d’abord que pour tout v ∈ E lesvecteurs v, f(v) sont liés. Supposons le contraire,c’est-à-dire qu’il existe v1 ∈ E non colinéaire avecv2 = f(v1). On complète (v1, v2) en une baseB = (v1, v2, . . . , vn) deE. Alors l’élément d’indice(2, 1) dans MB(f) est 1. En revanche, si on prendla base B

′ = (2v1, v2, . . . , vn) alors l’élément d’in-dice (2, 1) dans MB′(f) est 2. C’est en contradic-tion avec l’hypothèse selon laquelleMB(f) et MB′(f) doivent coïncider.On conclut avec l’exercice ...

. Une matrice A ∈ GL(n,K) commute avec tousles éléments de GL(n,K) si et seulement si

∀ C ∈ GL(n,K) , C−1AC = A .

Cela signifie que la classe de conjugaison de Ane contient que A. Autrement dit, l’application li-néaire définie par A possède la mêmereprésentation matricielle dans toutes les bases.D’après la question 1. cela revient à dire que A estune matrice homothétique, A = λIn , d’où

Z(GL(n,K)) = λIn | λ ∈ K∗ .

On constate donc que le centre de l’algèbre des ma-trices carrées est le même que le centre du groupedes matrices inversibles.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. F est un hyperplan ; le vecteur (1, 1, 1) n’est pasdans F et engendre G. Ainsi R3 = F ⊕G.

. Il est clair que les vecteurs b1, b2 sont contenusdans F et qu’ils sont linéairement indépendants.Ils constituent alors une base del’hyperplan F .

. Les équations qui définissent G sont inva-riantes sous permutation de coordonnées. Donc Gest invariant sous S3.

. F est invariant sous S3 car l’équation qui défi-nit F est invariante sous permutation de coordon-nées. Il est évident que lessous-espaces triviaux 0 et R3 sont invariants.Soit H ⊂ R3 un sous-espace invariant sous S3. SiH ⊂ G, alors H = 0 ou H = G car G est unedroite. Si H 6⊂ G,alors il existe x = (x1, x2, x3) ∈ H\G. On a x1 6=x2 ou x2 6= x3. Comme H est invariant sous per-mutation des coordonnées, nouspouvons supposer, en gardant toute généralité,que x1 6= x2 . Le vecteur x′ = (x2, x1, x3) est éga-lement dans H . La stabilité par combinaisonlinéaire implique

b1 = (1,−1, 0) = x− x′

x1 − x2∈ H .

Or, si b1 est dansH , alors par permutation de coor-données, b2 l’est aussi, ce qui montre que F ⊂ H .Donc, pour des questions dedimension, H = F ou H = R3.

. Nous faisons la preuve seulement pour la per-mutation σ = ( 1 2 3

2 1 3 ) (pour les autrespermutations, le calcul est similaire).eσ(b1) = eσ(e1 − e2) = eσ(1) − eσ(2)

= e2 − e1 = −b1

et eσ(b2) = eσ(e2 − e3) = eσ(2) − eσ(3)

= e1 − e3 = b1 + b2,

ainsi

MB(eσ) = −1 10 1

.

On retrouve bien la matrice de l’exercice ...

Solution ..

. C’est évident car f envoie une base de F surune base de C.

. On sait déjà que z12 = 1 et z23 = 12(−1 + i

√3).

De plus,

z13 = f(e1−e2+e2−e3) = z12+z23 =1

2(1+i

√3) .

Les trois autres points sont leurs opposés, car ona zkℓ = −zℓk . Il s’agit des 6-èmes racines d’unité.

z12z21

z13

z31

z23

z32

. Nous ne faisons la preuve que pour σ12 (pourles deux autres transpositions σ23 et σ13, c’est pa-reil).D’une part, de la preuve de l’exercice précédent,

nous connaissons déjà la matrice de eσ12. Avec labase A = (z12, z23)dans C, nous trouvons

MA (bσℓk) =MA (f eσℓk f−1)

=MA B(f)MB(eσℓk)MBA (f−1)

=

1 00 1

−1 10 1

1 00 1

=

−1 10 1

.

D’autre part, la droite perpendiculaire à Rz12 estl’axe imaginaire. La réflexion par rapport à l’axeimaginaire envoie la base A = (z12, z23) sur(z21, z13) = (−z12, z12 + z23). Donc dans la baseA , cette réflexion a la représentation matricielle(−1 1

0 1 ), ce qui prouve qu’elle est bien l’automor-phisme bσℓk.Les six éléments du groupe symétrique S3 s’iden-tifient à des transformations de l’hexagone ré-gulier de sommets z12, z13, z23, z21, z31, z32 enlui-même. Les transpositions σ12, σ23, σ13 corres-pondent aux reflexions par rapport aux trois axesde symétrie de l’hexagone qui passent au milieudes arêtes. Elles engendrent le groupe S3 ; les troiséléments de S3 qui ne sont pas des transpositionscorrespondent aux trois rotations d’angles respec-tives 0, 2π

3et 4π

3.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

Solution ..

Soit f : E → K une forme linéaire non nulle etsoit u ∈ E un vecteur tel que f(u) 6= 0. Posonsv = u

f(u). Alors f(v) = 1. On a E = Kv ⊕ Ker(f).

On choisit une base de l’hyperplan Ker(f). Son

union avec v est alors une base de E. Dans le sys-tème de coordonnées associée à cette base, la fonc-tion coordonnée ϕv vérifie ϕv(v) = 1 et ϕv(w) = 0pour tout w ∈ Ker(f). Cela prouve que f = ϕv .

Solution ..

. Choisissons une base (b1, . . . , bn) de E et no-tons (ϕ1, . . . , ϕn) le système de coordonnées as-socié. Les formes linéaires ϕ1, . . . , ϕn sont libresdans E∗. En effet, si λ1ϕ1 + · · ·+ λnϕn = 0, alorspour tout k = 1, . . . , n on a

λk = λ1ϕ1(bk) + · · ·+ λnϕn(bk) = 0.

D’autre part, on sait que la dimension de E∗ =L (E,K) est n, donc (ϕ1, . . . , ϕn) est une base de

E∗. Deux espaces vectoriels de même dimensionfinie sont isomorphes.

. Dans Kn, il y a la base canonique e1, . . . , en.Notons (ϕ1, . . . , ϕn) les coordonnées canoniques.Alors ek 7→ ϕk définit un isomorphisme cano-nique de E sur E∗.Sous cet isomorphisme canonique, le vecteur(a1, . . . , an) ∈ Kn correspond à la forme linéaire(x1, . . . , xn) 7→ a1x1 + · · ·+ anxn .

Solution ..

. Linéarité :

χ(u+ λv)(f) = f(u+ λv) = f(u) + λf(v)

= χ(u) + λχ(v).

Supposons par l’absurde que χ n’est pas injective.Alors il existe v ∈ E non nul tel que χ(v) = 0.Donc pour tout f ∈ E∗, on a f(v) = 0. On com-plète v en une base E. Dans le système de coor-données associé à cette base, la fonction qui cor-

respond à v est une forme linéaire sur E qui prendla valeur 1 sur v. C’est une contradiction.

. Si dim E = n < ∞, alors d’après l’exer-cice précédent, l’espace E, le dual E∗ et le bidualE∗∗ ont tous la même dimension finie. Donc lemorphisme injectif de la question précédente estun isomorphisme. Comme il ne dépend d’aucunchoix, il s’agit d’un isomorphisme canonique ; onpeut donc identifier l’espace avec son bidual.

Solution ..

. Comme G1 6= G2, on a K2 = G1 ⊕ G2. Soit b3un vecteur non nul sur la droite G3. Alors il existeune unique décompositionb3 = b1 + b2 où b1 ∈ G1 et b2 ∈ G2. Le vecteur b1est non nul (car G2 6= G3), et de même b2 est nonnul (car G1 6= G3). Pourtout j = 1, 2, 3, le vecteur bj est une base de ladroite Gj .De même, il existe des vecteurs b′j , j = 1, 2, 3, telsque b′j est une base de G′

j et tels que b′3 = b′1 + b′2 .Il suffit alors de définir l’automorphisme f parf(b1) = b′1 et f(b2) = b′2. Par linéarité, on af(b3) = f(b1 + b2) = f(b1)+ f(b2) = b′1+ b′2 = b′3 .On déduit f(Gj) = G′

j pour j = 1, 2, 3 .

. Soient f et g deux automorphismes tels quef(Gj) = G′

j et g(Gj) = G′j pour j = 1, 2, 3 .

Comme ci-dessus, on choisit trois vecteurs nonnulsbj ∈ Gj tels que b3 = b1 + b2.Les vecteurs f(b3) et g(b3) sont non-nuls et coli-néaires (car ils sont dans G′

3). Donc il existe λ ∈ K∗

tel que g(b3) = λf(b3). On a donc

g(b1) + g(b2) = g(b1 + b2) = g(b3) = λf(b3)

= λf(b1 + b2) = λf(b1) + λf(b2).

Par unicité de la décomposition dans la somme di-recte G′

1 ⊕G′2, on trouve

g(b1) = λf(b1) et g(b2) = λf(b2) .

Donc g et λf coïncident sur la base (b1, b2) de K2,d’où l’identité g = λf .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. On a clairement

F = vect(f1, f2)

où f1 = (1, 0, 0, 0) et f2 = (0, 1, 0,−1). Les deuxvecteurs n’étant pas colinéaires , F est un plan vec-toriel de E. De même,

G = vect(g1, g2)

où g1 = (0, 0, 0, 1) et g2 = (0, 1,−1, 0). Les deuxvecteurs n’étant pas colinéaires, F est un plan vec-toriel de E. De même,

. Puisque F et G sont des plans vectoriels de Equi est de dimension quatre , F et G sont supplé-mentaires dans E si et seulement si

F ∩G = 0.

Soit donc (x, y, z, t) ∈ F ∩G. On a

x = z = 0 = y + t = y + z,

ainsi x = y = z = t = 0.

. Soit X = (x, y, z, t). La projection p(X) de Xsur F parallèlement à G est l’unique vecteur X1

de F tel que X − X1 appartienne à G. Or X1 =αf1 + βf2 vérifie X −X1 ∈ G si et seulement si

(x− α, y − β, z, t+ β) ∈ G,

ie α = x et β = y + z. On a donc ,

P (X) = X1 = (x, y + z, 0,−y − z),

et puisque s = −idE + 2p ,

s(X) = (x, y + 2z,−z,−y − z − t).

Solution ..

. A et N sont deux ensembles non vides de E(ils contiennent tous deux la fonction nulle) et clai-rement stables par combinaison linéaire : ce sontdeux sous-espaces vectoriels de E.

Puisque toute fonction affine s’annulant en deuxpoints distincts est la fonction nulle, A ∩N = 0. Soit f ∈ E. Pour tout x ∈ R, posons

a(x) = [f(1)−f(0)]x+f(0) et n(x) = f(x)−a(x).On a clairement f = n+ a , n ∈ N et a ∈ A doncE ⊂ A ⊕N et puisque l’inclusion réciproque esttriviale , E = A ⊕N .

Remarque – Les formules de n et a s’obtiennentnaturellement par Analyse-synthèse.

. Il suffit de reprndre les calculs précédents ; laprojection p(f) de f ∈ E sur A parallèlement àN est

x 7−→ [f(1) − f(0)]x+ f(0).

. Puisque s = 2p − idE , le symétrique s(f) de fpar rapport à A parallèlement à N est

x 7−→ 2[f(1) − f(0)]x+ 2f(0) − f(x).

Solution ..

Soient B une base de E et A = mat( (f),B). Sup-posons que tr(f) = rg(f) = 1. Soit alorsU un vec-teur colonne engendrant Im(A) et v1, . . . , vn dansR tels que, pour tout 1 6 i 6 n, la i-ème colonnede A soit égale à viU . En notant V le vecteur co-lonne de composantes vi, on a donc A = U tV . Ilest clair que

1 = tr(f) =

nXi=1

uivi =t V U.

puis que

A2 = (U tV )(U tV ) = U(tV U tV = U tV = A

et donc que f2 = f : f est un projecteur de E.

Solution ..

. Puisque ∀x ∈ E :

q(x) ∈ F = Im(p), etq(x)

= q(x),

on a p q = q. De même q p = p.

. Soit λ ∈ K,évaluons pλ pλ :

pλ pλ = λ2p2 + λ(1− λ)p q + λ(1− λ)q + (1− λ)2q2

= λ2p+ λ(1− λ)q + λ(1− λ)q + (1− λ)2q= λ(λ+ 1− λ)p+ (1− λ)(1− λ+ 1− 1 + λ)q

= pλ

Puisque pλ est par ailleurs une combinaison li-néaire d’endormorphismes de E, pλ est un endo-

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Représentation matricielle d’une application linéaire

morphisme de E : il s’agit donc d’un projecteur deE. Comme

Im(p) = Im(q) = F,

on a Im(pλ) ⊂ F . Soit y ∈ F . Comme y = p(y) =q(y), on a :

pλ(y) = (λp+ (1− λ)q)(y) = y

et ainsi Im(pλ) = F .

Solution ..

p2 =1

|A|2Xg∈A

Xf∈A

g f

Fixons g dans A et remarquons que l’application

φg : A −→ Af 7−→ g f

est bien définie puisque par stabilité deA, gf ∈ Apour tous f, g ∈ A. φg est injective car g est inver-sible. Comme les ensembles de départ et d’arrivéesont de même cardinal fini, φg est bijective etX

f∈A

g f =Xf∈A

f.

Et donc p2 = p.

Solution ..

Comme E est de dimension finie, il existe unefamille génératrice finie (b1, . . . , bn) de E. Pourtout k = 1, . . . , n il existe mk ∈ N tel quefmk (bk) = 0. Notons m la plus grande valeurparmi lesm1, . . . ,mn. Alors pour tout k = 1, . . . , n

fm (bk) = fm−mk (fmk (bk)) = fm−mk (0) = 0.

Ainsi f est nulle sur la famille génératrice(bk)16k6n et donc fm est identiquement nulle.En dimension infinie ce résultat et faux. Commecontre-exemple il suffit de prendre la dérivationdans K[X].

Université Paris Sud agreg 2012 - 2013

Déterminants

LE déterminant est la notion qui formalise algébriquement la mesure géométrique du vo-lume. Nous en verrons l’emploi dans le cours d’analyse des fonctions de plusieurs variablesen deuxième année. Dans ce chapitre, nous allons présenter une introduction géométrique

en basse dimension, avant de nous consacrer aux aspects plus calculatoires, notamment pour larésolution des systèmes linéaires.

.. Volume orienté en dimension un, deux ou trois

Quelle est la formule générale d’un déterminant ? Si on suppose qu’un déterminant est un outilpour mesurer un volume en dimension quelconque, il doit mesurer une longueur en dimensionun, une aire en dimension deux et un volume en dimension trois. Nous allons emprunter uneapproche axiomatique et trouver la formule pour le déterminant à partir des propriétés qu’il doitvérifier s’il veut bien correspondre géométriquement à une longueur, une aire ou un volume.Mais d’abord nous devons nous occuper d’un petit obstacle technique qui apparaît déjà dans lecas de la dimension 1. Les vecteurs la droite réelle R sont les nombres réels x et la longueur d’unvecteur x est la valeur absolue |x|. Or nous cherchons une formule entièrement « algébrique »(c’est-à-dire ne faisant intervenir que des opérations +,−,× et ÷) pour cette longueur qu’on ap-pelera déterminant. La formule x 7→ |x| n’est donc pas acceptable pour le déterminant et nous luipréférons la simple x 7→ x. Autrement dit, nous devons accepter que le déterminant prend aussides valeurs négatives ; on parle alors de « longueur orientée » (ou « d’aire orientée » dans le planet de « volume orienté » dans l’espace).

Déterminant sur une droite

Soit E un R-espace vectoriel de dimension 1. Fixons un vecteur b non nul dans E et utilisons bcomme « mètre ». En fait, on doit partir d’un vecteur de référence auquel on attribue la longueurun. Soit v ∈ E. Alors on a v = λb avec un unique réel λ car (b) est une base de E. Le déterminantassocié à la base (b) est la fonction d : E → R, v 7→ λ, avec v = λb. Il est donc entièrementdéterminé par les deux conditions§

d(b) = 1d(λv) = λd(v) pour tous λ ∈ R, v ∈ E.

Nous remarquons que d dépend du choix de la base (b) qui sert de référence. Le déterminant d’unvecteur ayant le même sens que b est positif et celui d’un vecteur ayant le sens opposé de b estnégatif. Cela correspond bien à l’idée de « longueur orientée ».

www.mathoman.com Chapitre : Déterminants

Déterminant dans un plan

Soit E un R-espace vectoriel de dimension 2. Le déterminant dans le plan est censé mesurer l’aire(orientée dans un sens qu’on précisera plus loin) du parallélogramme formé par un couple devecteurs.

bu

v

b

Fixons une base (b1, b2) de E comme référence : l’aire du parallélogramme formé par les vecteursde cette base sera l’unité de mesure. Nous cherchons le déterminant sous forme d’une fonctiond : E2 → R, (u, v) 7→ d(u, v). Nous allons montrer que, si cette fonction correspond à l’intuitiongéométrique que nous avons d’une aire, alors elle doit vérifier les propriétés suivantes pour tousλ ∈ R et u, v, w ∈ E,8>><>>: d(b1, b2) = 1

∀ v ∈ E : d(v, v) = 0

∀ (u, v) ∈ E2 ∀λ ∈ K : d(λu, v) = λd(u, v) et d(u, λv) = λd(u, v)

∀ (u, v, w) ∈ E3 : d(u + w, v) = d(u, v) + d(w, v) et d(u, v + w) = d(u, v) + d(u,w).

La première propriété traduit le fait qu’on prend l’aire formé par (b1, b2) comme unité.

La seconde propriété vient du fait qu’un parallélogramme dégénéré est d’aire nulle.

La troisième propriété vient d’une simple observation de proportionnalité : si on multiplie, parexemple, l’un des côtés du parallélogramme par 2 alors l’aire est également multipliée par 2.

La quatrième propriété, à savoir que la somme des aires orientées des parallélogrammes en-gendrés par (u, v) et (w, v) coïncide avec celle de (u+ w, v), est illustrée par le dessin ci-dessous.

b wu

v

b

v

u + w

Les deux dernières conditions peuvent être reformulées en disant que les applications partiellesd( . , v) : E → R , u 7→ d(u, v) et d(u, . ) : E → R , v 7→ d(u, v) sont linéaires. En résumé, ledéterminant d : E2 → R associé à la base (b1, b2) doit vérifier les trois propriétés suivantes :8<:∀ (u, v) ∈ E2 : d( . , v) et d(u, . ) sont linéaires

∀ v ∈ E : d(v, v) = 0d(b1, b2) = 1.

(.)

Le lecteur pourrait objecter qu’il manque une propriété de symétrie : d(u, v) devrait être égale àd(v, u) car le parallélogramme formé par (u, v) est le même que celui formé par (v, u) ! C’est iciqu’intervient la notion d’aire orientée. En effet, calculons d(u+ v, u+ v) de deux manières. D’unepart cette valeur est nulle (parallélogramme dégénéré) et d’autre part on a

0 = d(u + v, u+ v) = d(u, u+ v) + d(v, u+ v) = d(u, u) + d(u, v) + d(v, u) + d(v, v)

= d(u, v) + d(v, u)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Volume orienté en dimension un, deux ou trois

On en déduit∀ (u, v) ∈ E2 : d(u, v) = −d(v, u). (.)

Autrement dit, si on change l’ordre dans le couple de vecteurs alors l’aire orientée change designe. C’est donc une sorte de propriété de symétrie à signe près. Pour la visualiser nous indi-quons par une flèche à l’intérieur du parallélogramme l’ordre des vecteurs dans le couple :

u

v

bu

v

b

Mêmes parallélogrammes avecdes orientations opposées :d(u, v) = −d(v, u)

Nous pouvons à présent déterminer une formule pour le déterminant d associé à la base (b1, b2).Exprimons les deux vecteurs u et v dans cette base. Nous avons u = xb1 + yb2 et v = x′b1 + y′b2.Alors,

d(u, v) = d(xb1 + yb2 , x′b1 + y′b2)

= xd(b1 , x′b1 + y′b2) + yd(b2 , x

′b1 + y′b2)

= xx′d(b1, b1) + xy′d(b1, b2) + yx′d(b2, b1) + yy′d(b2, b2)

= xx′ × 0 + xy′ × 1 + yx′ × (−1) + yy′ × 0

= xy′ − x′y .

(.)

D’une part ce calcul montre que, si une fonction vérifie les conditions (.), alors son expressionen coordonnées est forcément l’expression ci-dessus ; d’autre part on vérifie sans peine que lafonction définie par cette expression satisfait bien les conditions (.). Ainsi l’existence et l’unicitédu déterminant associé à une base du plan sont prouvées.

Remarquons qu’il s’agit précisément du déterminant auquel nous sommes habitués depuis lapage . Si on considère le plan « habituel » il est naturel de prendre comme base de référence unebase orthonormée car son couple de vecteurs forme un carré qu’on a envie de prendre commeunité d’aire. La proposition suivante résume les considérations et calculs que nous venons defaire.

Proposition .. L’aire du parallélogramme formé de deux vecteurs du plan est la valeur absolue dudéterminant de leurs coordonnées dans une base orthonormée.

Aire = |xy′ − x′y| .

Tests

.. À l’aide d’un base orthonormée, on identifie le planeuclidien à R2 . On définit par leurs coordonnées trois points :A(2, 1), B(−1, 2) et C(3,−4).

a. Déterminez les coordonnées du point D (resp. D′) tel que(ABCD) (resp. (CABD′)) est un parallélogramme.

b. Calculez et comparez les aires des parallélogrammes(ABCD) et (CABD′).

Évidemment, il y a des preuves plus directes de cette proposition. Mais notre approche est concep-tuellement plus intéressante. Sans faire appel à des notions métriques comme la longueur desdeux vecteurs ou la mesure de l’angle qu’ils forment, nous avons trouvé cette formule seulementen réfléchissant à une axiomatique possible de ce qu’une mesure d’aire doit raisonnablement être.Revenons sur la notion d’aire orientée dans le plan « habituel ». De même qu’une droite possèdedeux orientations possibles, le plan en possède également deux. En effet, on peut distinguer deuxsens de trourner, horaire ou anti-horaire.Si d est le déterminant associé à une base de référence (b1, b2) alors d(u, v) > 0 si, et seulement si,l’orientation de (u, v) est la même de celle de (b1, b2). Si d(u, v) > 0 on dit que (u, v) est une base

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

directe par rapport à l’orientation donnée par (b1, b2) ; si d(u, v) < 0 on dit que (u, v) est une baseindirecte par rapport à l’orientation donnée par (b1, b2). Voici deux exemples où l’on a pris commeréférence une base orthonormée du plan orientée dans le sens anti-horaire.

b1

b2

u

v

+

b

b1

b2

u

v

−b

d(u, v) > 0 donc (u, v) est d(u, v) < 0 donc (u, v) est

directe par rapport à (b1, b2) indirecte par rapport à (b1, b2)

Déterminant dans un espace de dimension trois

Soit E un R-espace vectoriel de dimension 3. Nous cherchons le déterminant sous forme d’unefonction d : E3 → R, (u, v, w) 7→ d(u, v, w), qui à un triplet de vecteurs associe le volume orientédu parallèlépipède formé par ces trois vecteurs.

uv

w

b

Fixons comme référence une base (b1, b2, b3) dont le volume du parallèlépipède soit l’unité demesure. Alors par des considérations géométriques analogues à celles menées dans le plan noussommes amenés aux conditions suivantes.8<:∀ (u, v, w) ∈ E3 : d( . , v, w) , d(u, . , w) et d(u, v, . ) sont linéaires

∀ v ∈ E : d(u, v, v) = d(v, u, v) = d(v, v, u) = 0d(b1, b2, b2) = 1.

(.)

On en déduit par exemple que

∀ (u, v, w) ∈ E3 : d(u, v, w) = −d(v, u, w). (.)

Par un calcul analogue à (.) on montre que le déterminant d’un triplet de vecteurs (u1, u2, u3) ∈E3 avec uk = xkb1 + ykb2 + zkb3, k = 1, 2, 3, est donné par la formule

d(u1, u2, u3) = x1y2z3 − x1y3z2 + x2y3z1 − x2y1z3 + x3y1z2 − x3y2z1 .

Proposition .. Le volume du parallèlépipède formé de trois vecteurs de l’espace est la valeur absoluedu déterminant de leurs coordonnées dans une base orthonormée.

Volume = | x1y2z3 − x1y3z2 + x2y3z1 − x2y1z3 + x3y1z2 − x3y2z1 | .Pour mémoriser cette formule on apprend par cœur les deux premiers termes x1y2z3 − x1y3z2,puis on en déduit les autres par la permutation circulaire d’indices 1 7→ 2 7→ 3 7→ 1.Dans l’espace ambiant il y a également deux orientations (et pas trois !) qu’on peut distinguer partrois doigts d’une main.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Déterminant d’une matrice

b1 (pouce)

b2 (index)

b3 (majeur)

b1 (pouce)

b2 (index)

b3 (majeur)

Main droite Main gauche

Comme dans le plan, on dit que (u, v, w) est une base directe (resp. indirecte) par rapport à l’orien-tation donnée par (b1, b2, b3) si d(u, v, w) > 0 (resp. d(u, v, w) < 0). Les deux orientations possiblescorrespondent aux deux types d’hélices. Par convention internationale on a choisi une fois pourtoutes l’un des deux sens possibles pour serrer des bouchons des bouteilles, des boulons, desrobinets,. . . (exception : le pédalier gauche d’un vélo).

Le nombre d’orientations n’est pas lié à la dimension ; il existe toujours exactement deux orien-tations, peu importe s’il s’agit d’orienter une droite, un plan, un espace de dimension trois ou dedimension supérieure. Cela vient du fait que le déterminant ne peut prendre que deux signes :positif ou négatif.

Tests

.. Déduire la propriété (.) de celles qui la précèdent.(Indication : Imiter la preuve de (.).)

.. On identifie l’espace ambiant à R3 en choisissant une baseorthonormée. Calculer le volume du parallélépipède engrendrépar les quatre points A(1, 0, 1), B(2,−2, 2), C(−1, 2, 4) etD(2, 3, 0).

.. Déterminant d’une matrice

Nous allons maintenant étendre la définition du déterminant à toute dimension finie. Il faut gar-der à l’esprit que le déterminant mesure un volume (c’est-à-dire une aire en dimension 2), celui duparallélépipède de côtés formés par les vecteurs. Il est alors clair que si les vecteurs sont liés, alorsils sont contenus dans un hyperplan et donc le volume est nul. Le déterminant doit donc avoir entoute dimension des propriétés analogues à (.) : c’est la propriété essentielle de ce qu’on appelleune forme multilinéaire alternée.

... Formes multilinéaires alternées

Définition ..

Soit E un espace vectoriel. Une forme multilinéaire alternée est une fonction

f : En → K , (v1, . . . , vn) 7→ f(v1, . . . , vn) ,

qui vérifie les deux conditions suivantes :1) Pour tout k = 1, . . . , n, et pour tout (v1, . . . ,Òvk, . . . , vn) ∈ En−1, l’application

E → K , v 7→ f(v1, . . . , vk−1, v, vk+1, . . . , vn)

est linéaire ;2) On a f(v1, . . . , vn) = 0 dès que vk = vj avec k 6= j.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

La première condition signifie que f est multilinéaire, c’est-à-dire qu’elle est linéaire en chaquevariable. La seconde condition est clarifiée par la proposition suivante, qui justifie de plus laterminologie : le signe de f « alterne » lorsqu’on permute les vecteurs v1, . . . , vn .

Proposition .. Soit f : En → K une forme multilinéaire alternée. Alors on a pour tout(v1, . . . , vn) ∈ En les propriétés suivantes.1) Pour toute permutation σ ∈ Sn, on a

f(vσ(1), . . . , vσ(n)) = ε(σ)f(v1, . . . , vn) . (.)

2) Si les vecteurs v1, . . . , vn sont liés alors f(v1, . . . , vn) = 0 .3) La valeur de f(v1, . . . , vn) ne change pas lorsqu’on ajoute à l’un des vecteurs une combinaison li-

néaire des autres.

Le nombre ε(σ) est la signature de la permutation σ comme définie en 10.26.

Preuve.1) Commençons par le cas de la transposition qui échange les deux premiers indices. En déve-

loppant0 = f(v1 + v2, v1 + v2, v3, . . . , vn) ,

on montre comme pour (.) que

f(v2, v1, v3, . . . , vn) = −f(v1, . . . , vn) .

De la même manière, on prouve la formule (.) pour toutes les autres transpositions. Commeε(σ) = (−1)m , où m est un nombre de transpositions dont la permutation σ est le produit, onconlut alors par récurrence sur m.

2) Si les vecteurs v1, . . . , vn sont liés, alors il y en a un parmi eux qui est combinaison linéaire desautres. À un signe près (voir le premier point), nous pouvons supposer que c’est le premier.Alors,

±f(v1, . . . , vn) = ±f

nXk=2

λkvk , v2 , . . . , vn

!= ±

nXk=2

λkf(vk , v2 , . . . , vn) = 0 ,

car chaque terme de cette somme est nul, la fonction ayant pour argument des n-uplets com-portant deux vecteurs égaux.

3) f(v1, . . . , vk−1, vk+Xj 6=k

λjvj , vk+1, . . . , vn) = f(v1, . . . , vk−1, vk , vk+1, . . . , vn)

+f(v1, . . . , vk−1,Xj 6=k

λjvj , vk+1, . . . , vn).

Le dernier terme est nul car les vecteurs sont liés.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Déterminant d’une matrice

... La formule polynomiale du déterminant

Nous prenons pour E l’espace Kn et nous identifions En = (Kn)n avec l’espace Mn(K) desmatrices carrées ; nous écrivons une matrice carrée comme n-uplet de ses colonnes.

Proposition .. Pour toute matrice A = (aℓk) ∈ Mn(K), on appelle déterminant de A le scalairesuivant :

det(A) =X

σ∈Sn

ε(σ)aσ(1)1 · · · aσ(n)n . (.)

On a les propriétés suivantes.1) L’application det : Mn(K) → K , A 7→ det(A) ; est multilinéaire alternée en les colonnes de A ;2) L’application det est normalisée par la condition det(In) = 1 ;3) Si d : Mn(K) → K est une autre application multilinéaire alternée en les colonnes, alors pour tout

A ∈Mn(K)d(A) = d(In) detA ;

4) Le déterminant est l’unique application de Mn(K) dans K qui est normalisée par la condition 2) etqui est multilinéaire alternée en les colonnes.

Preuve.

1) Nous devons montrer deux propriétés.Multilinéarité. Pour simplifier l’écriture nous démontrons la linéarité seulement en la pre-mière colonne (la démonstration est analogue pour les autres colonnes).

Soit λ ∈ K, soient v1, . . . , vn des vecteurs colonnes et soit u1 =

b11...

bn1

un vecteur quelconque

de Kn. Alors,

det(v1 + λu1, v2, . . . , vn) =X

σ∈Sn

ε(σ)(aσ(1)1 + λbσ(1)1)aσ(2)2 · · · aσ(n)n

=X

σ∈Sn

ε(σ)aσ(1)1aσ(2)2 · · · aσ(n)n

+ λX

σ∈Sn

ε(σ)λbσ(1)1aσ(2)2 · · ·aσ(n)n

= det(v1, . . . , vn) + λdet(u1, v2, . . . , vn).

Alternance. Supposons donc vk = vj pour deux indices distincts k et j. Soit τ la transpositionqui permute j et k. Alors, pour tout σ ∈ Sn, on a

aσ(1),1 · · ·aσ(n),n = aστ(1),1 · · · aστ(n),n et ε(στ) = −ε(σ) .

Ainsi dans la somme (.), on peut regrouper les termes avec σ ∈ An (tels que ε(σ) = 1) etceux avec στ (tels que ε(στ) = 1). Les termes viennent donc en couples dont les membress’annulent mutuellement.

2) On a det(In) =P

σ∈Snε(σ)δσ(1)1 · · · δσ(n)n = 1 , car la seule permutation σ telle que les sym-

boles de Kronecker δσ(1)1 , . . . , δσ(n)n sont tous non nuls est l’identité.

3) Nous procédons comme pour montrer (.) : nous écrivons chaque vecteur colonne de Acomme combinaison linéaire des vecteurs e1, . . . , en de la base canonique de Kn et nous utili-sons la multilinéarité de d.

d(A) = d

nX

k1=1

ak11ek1 , . . . ,nX

kn=1

aknnekn

!=

nXk1,...,kn=1

ak11 · · ·aknn d(ek1 , . . . , ekn) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Pour les indices dans cette somme, il y a deux cas possibles. Le n-uplet (k1, . . . , kn) ∈ 1, . . . , nn possède deux nombres égaux. Donc la matrice

(ek1 , . . . , ekn) a deux vecteurs colonnes identiques et d(ek1 , . . . , ekn) = 0 à cause de l’al-ternance de d.

Le n-uplet (k1, . . . , kn) définit une permutation σ ∈ Sn en posant σ(j) = kj . Donc lamatrice (ek1 , . . . , ekn) résulte de la matrice identité en appliquant la permutation σ−1 à sescolonnes. L’alternance de d et la formule (.) montrent que

d(ek1 , . . . , ekn) = ε(σ) d(e1, . . . , en) = ε(σ)d(In) .

Par conséquent,

d(A) =X

σ∈Sn

ε(σ)aσ(1)1 · · ·aσ(n)n d(In) = det(A) d(In) .

4) résulte immédiatement de 3).

Remarque.. On note souvent |A| = det(A)Ne pas confondre avec la valeur absolue | det(A) | du déterminant.

Expérimentons la formule (.) sur deux cas particuliers.

Pour n = 2. Nous avons 2 permutations : celle qui envoie (1, 2) sur (1, 2), qui est paire, et cellequi l’envoie sur (2, 1), qui est impaire. Donc,a11 a12a21 a22

= a11a22 − a21a12 .

Pour n = 3. Nous avons 6 permutations : les paires envoient (1, 2, 3) sur (1, 2, 3), (3, 1, 2) ou(2, 3, 1) ; les impaires envoient (1, 2, 3) sur (1, 3, 2), (3, 2, 1) ou (2, 1, 3). Donc dans ce mêmeordre, a11 a12 a13a21 a22 a23

a31 a32 a33

= a11a22a33 + a31a12a23 + a21a32a13

− a11a32a23 − a31a22a13 − a21a12a33 .

(.)

Ainsi on retrouve bien les formules déjà établies en dimensions 2 et 3.

Proposition .. Le déterminant est invariant par transposition de la matrice :

∀ A ∈Mn(K) : det(tA) = det(A) .

L’application det : Mn(K) → K est normalisée et multilinéaire alternée en les lignes de A, et c’estl’unique application avec ces propriétés.

Preuve. Il suffit de montrer l’invariance par transposition, le reste de l’énoncé sera ensuite uneconséquence de la proposition ... Soit A = (aℓk) ∈ Mn(K). Nous notons tA = B = (bkℓ) samatrice transposée. Ainsi bkℓ = aℓk. Alors, en utilisant le fait que la signature d’une permutationest la même que celle de son inverse , on trouve

det(tA) =X

σ∈Sn

ε(σ)bσ(1)1 · · · bσ(n)n =X

σ∈Sn

ε(σ)a1σ(1) · · ·anσ(n)

=X

σ∈Sn

ε(σ)aσ−1(1)1 · · · aσ−1(n)n =X

σ′∈Sn

ε(σ′)aσ′(1)1 · · · aσ′(n)n = det(A) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Déterminant d’une matrice

Tests

.. Calculer le déterminant

2 1 43 0 15 1 2

. En déduire

α =

2 1 45 1 2

−3 −0 −1

et β =

5 1 53 0 15 1 2

.

.. Ces formules sont-elles vraies ?

a. det(A + B) = det(A) + det(B) .

b. det(λA) = λdet(A) .

c. det(−A) = − det(A) .

Pour certaines matrices, le déterminant est particulièrement simple à calculer.

Déterminant d’une matrice de permutation

Soit γ ∈ Sn une permutation. Selon la définition page la matrice de permutation Pγ est lamatrice

δℓ,γ(k)

16ℓ,k6n

. Par exemple, le seul coefficient non-nul de la première colonne de Pγ

vaut 1 et se trouve à la γ(1)-ième ligne. Appliquons la formule (.) de la définition .. pourcalculer le déterminant de A = Pγ . Dans cette somme le terme aσ(1),1 est non-nul si set seule-ment si σ(1) = γ(1). En raisonnant de la même manière sur les autres colonnes on trouve quele seul élément qui compte dans la somme est celui corresponant à la permutation σ = γ ; ainsila somme ne possède qu’un seul terme non-nul qui vaut ε(γ). Cela prouve la règle suivante.Règle .. Le déterminant d’une matrice de permutation est la signature de la permutation,

∀σ ∈ Sn : det(Pσ) = ε(σ) .

Une autre manière de prouver cette règle est la suivante. La matrice PσA est obtenue en appli-quant la permutation σ aux lignes de A. En particulier, Pσ est la matrice obtenue en appliquant lapermutation σ aux lignes de In. On conclut alors grâce à la proposition ...

Déterminant d’une matrice triangulaire

Considérons une matrice triangulaire. Tous les termes de la somme (.) sont nuls, sauf celui quicorrespond à la permutation identité.

Règle .. Le déterminant d’une matrice triangulaire est le produit des coefficients diagonaux.a1 ∗ ∗ . . . ∗a2 ∗ . . . ∗a3

. . ....

. . . ∗an

=a1∗ . . ..... . . an−2

∗ . . . ∗ an−1

∗ . . . ∗ ∗ an

= a1a2 · · · an .

Exemple ..On souhaite calculer le déterminant de la matrice

A =

0 1 2 3 4 51 0 1 2 3 42 1 0 1 2 33 2 1 0 1 24 3 2 1 0 15 4 3 2 1 0

.

Si on ajoute à une colonne une combinaison linéaire des autres colonnes, le déterminant ne change pas,et de même pour les lignes. On soustrait successivement la k-ième colonne de la (k − 1)-ième colonne,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

k = 2, . . . , 6. On obtient

detA =

−1 −1 −1 −1 −1 51 −1 −1 −1 −1 41 1 −1 −1 −1 31 1 1 −1 −1 21 1 1 1 −1 11 1 1 1 1 0

.Maintenant on additionne la première ligne à toutes les autres.

detA =

−1 ∗ ∗ ∗ ∗ ∗−2 ∗ ∗ ∗ ∗−2 ∗ ∗ ∗−2 ∗ ∗−2 ∗

5

= (−1)(−2)4 × 5 = −80 .

Pour calculer ce déterminant par la formule (.), on aurait dû effectuer 5× 6! = 3600 multiplications. . .

Tests

.. Calculer det(−In) et det

InIn

.

.. Calculer a =

1

. ..

11

... Calculs de déterminants et conséquences

... Déterminant d’un produit

Déterminons les déterminants des matrices élémentaires (p.). Les matrices de type Uℓk sont desmatrices de permutation, plus précisément d’une transposition, tandis que Uℓ[λ] et Uℓk[µ] sontdes matrices triangulaires, λ ∈ K∗, µ ∈ K. Nous avons donc

det(Uℓk) = −1 , det(Uℓ[λ]) = λ , det(Uℓk[µ]) = 1 . (.)

Nous remarquons que toutes les matrices élémentaires sont de déterminant non nul.Maintenant nous sommes en mesure de prouver un résultat important, à savoir que le déter-minant est compatible avec la multiplication matricielle. Cela est assez surprenant si l’on pensequ’au départ on a défini le déterminant comme un volume !

Proposition .. Soient A,B des matrices dans Mn(K). Alors det(AB) = det(A) det(B) .

Preuve. Pour ce résultat important, nous donnons deux preuves indépendantes.Première preuve. Soit Φ : Mn(K) → K définie par Φ(M) = det(AM). Montrons que Φ est uneapplication multilinéaire alternée en les colonnes de M . On note dans la suite M ∈ Mn(K) encolonne sous la forme M = (M1, . . . ,Mn), avec Mk ∈ Kn pour 1 6 k 6 n. Si M1 = λM ′

1 + µM ′′2 ,

avec λ, µ dans K et M ′1,M

′′2 dans Kn, alors

Φ(M) = det(λAM ′1 + µAM ′′

1 , . . . , AMn) = λdet(AM ′1, . . . , AMn) + µ det(AM ′′

1 , . . . , AMn).

Il en résulte que la fonction Φ est linéaire en la première colonne de M . Bien entendu, la linéaritéde Φ en les autres colonnes se démontre de manière analogue.Si Mj =Mk pour deux indices 1 6 k < j 6 n, alors AMj = AMk et

Φ(M) = det(AM1, . . . , AMk, . . . , AMj , . . . , AMn) = 0.

Ainsi, la fonction Φ est bien multilinéaire alternée en les colonnes de M . D’après le point 3) de laproposition-définition .., on a

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Calculs de déterminants et conséquences

det(AB) = Φ(B) = Φ(In) det(B) = det(A) det(B),

ce qui termine la première preuve.

Seconde preuve. Nous distinguons deux cas.Cas où rg(B) < n. Alors les lignes de B sont liées et d’après la proposition .., on a det(B) = 0.Or, les lignes du produit AB sont des combinaisons linéaires des lignes de B et, par conséquent,les lignes de AB sont également liées, d’où det(AB) = 0.Cas où rg(B) = n, c’est-à-dire B ∈ GL(n,K). Commençons par le cas où B est une matriceélémentaire.

– Si B = Uℓk , alors le produit AUℓk s’obtient en permutant deux colonnes de A. Doncdet(AUℓk) = − det(A).

– Si B = Uℓ[λ], alors le produit AUℓ[λ] s’obtient en multipliant une colonne de A par λ 6= 0.Donc det(AUℓ[λ]) = λ(det A) .

– Si B = Uℓk[µ], alors le produit AUℓk[µ] s’obtient en ajoutant à une colonne de A un multipled’une autre. Donc, d’après la proposition .., on a det(AUℓk[µ]) = det(A) .

Ainsi la formule det(AB) = det(A) det(B) est vrai si B est une matrice élémentaire. Or, d’aprèsla proposition .., toute matriceB ∈ GL(n,K) peut s’écrire comme produit de matrices élémen-taires, et on conclut par une récurrence aisée sur le nombre de facteurs de matrices élémentairesnécessaires pour écrire B.

Corollaire ..1) Une matrice est inversible si et seulement si son déterminant et non-nul :

∀ A ∈Mn(K) : det(A) 6= 0 ⇐⇒ A ∈ GL(n,K) .

2) Le déterminant définit un morphisme de groupes,

GL(n,K) → K∗ , A 7→ det(A) .

En particulier pour tout A ∈ GL(n,K) on a det(A−1) = (det A)−1 .Preuve.1) (⇐) Supposons que A est inversible. Alors il existe A−1 tel que AA−1 = In. Ainsi on a

1 = det(In) = det(AA−1) = detA det(A−1), ce qui montre que det A 6= 0.(⇒) Réciproquement supposons que A n’est pas inversible. D’après la proposition .., lescolonnes de A sont liées, donc det(A) = 0 d’après la proposition ...

2) est une conséquence de 1) et de la proposition ...

Proposition .. (Orientation) Soit E un R-espace vectoriel non-nul de dimension fini.1) On dit que deux bases B et B′ deE ont la même orientation si le déterminant de la matrice de passage

CBB′ est strictement positif. De même on dit qu’elles ont des orientations opposées si det(CBB′ ) <0.

2) Le relation « avoir même orientation » est une relation d’équivalence sur l’ensemble des bases de E ;cette relation possède exactement deux classes d’équivalence. Munir l’espace E d’une orientationsignifie de choisir l’une de ces deux classes comme référence.

Preuve.1) La matrice de passage étant inversible, son déterminant est un réel non-nul, donc strictement

positif ou strictement négatif.2) Le relation est reflexive car det(CBB) = det(In) = 1 > 0. Elle est symétrique car, si

det(CBB′ ) > 0, alors det(CB′B) = det((CBB′ )−1) = (det(CBB′))−1 > 0. Enfin, elle est tran-sitive car, si det(CBB′) > 0 et det(CB′B′′ ) > 0, alors

det(CBB′′ ) = det(CBB′CB′B′′) = det(CBB′ ) det(CB′B′′) > 0.

Il y au plus deux classes d’équivalence car le déterminant est soit positif soit négatif. Et commeon le voit sur l’exemple de B = (b1, . . . , bn) et B′ = (−b1, b2, . . . , bn), il existe des bases d’orien-tations opposées, donc il y a effectivement deux classes d’équivalence.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Tests

.. Montrer que pour toute matrice de la forme B =t AA, avecA ∈ Mn(R), on a det(B) > 0.

.. Montrer directement que si An = 0, avec A ∈ Mn(K),alors det(A) = 0.

Déterminant d’un endomorphisme

La proposition .. a une conséquence importante. Elle permet en effet de définir le détermi-nant d’un endomorphisme, sans que ce déterminant dépende du choix de la base dans lequell’endomorphisme est représenté. Voyons cela de plus près.Si f est un endomorphisme d’un espace vectoriel E de dimension finie n, alors on peut le re-présenter par la matrice MB(f) dans une base B. Pour une autre base, on obtient une matriceconjuguée (théorème ..). Or, des matrices conjuguées ont le même déterminant. En effet,

det(C−1AC) = (det C)−1 det(A) det(C) = det(A) .

Proposition .. Soit E un espace vectoriel de dimension finie. On appelle déterminant de l’en-domorphisme f ∈ L (E) le déterminant

det(f) = detMB(f)

,

où B est une base quelconque de E. Ainsi f est un automorphisme si et seulement si det(f) 6= 0 etl’application det : GL(E)→ K∗ est un morphisme de groupes.

... Développement suivant une ligne ou une colonne

Les développements

Sur la page , nous avons détaillé les formules des déterminants d’ordres 2 et 3. Pour les di-mensions supérieures, les formules deviennent péniblement longues. En dimension 4, il y a déjà4! = 24 termes. Nous allons maintenant voir comment le déterminant d’ordre n peut s’exprimeren fonction de déterminants d’ordre n− 1.

Proposition .. Soit A = (aℓk) ∈Mn(K) une matrice carrée. Pour (ℓ, k) ∈ 1, . . . , n2, on noteAℓk ∈Mn−1(K) la matrice obtenue en supprimant de A la ℓ-ième ligne et la k-ième colonne de A. Alors

1) det(A) =nX

ℓ=1

(−1)ℓ+kaℓk det(Aℓk) (développement suivant la k-ième colonne) ;

2) det(A) =nX

k=1

(−1)ℓ+kaℓk det(Aℓk) (développement suivant la ℓ-ième ligne) .

Ces formules expriment le déterminant d’ordre n comme somme alternée de déterminantsd’ordre n − 1, les coefficients de la somme étant les coefficients d’une colonne ou d’une lignechoisie. En somme, nous avons obtenu des formules permettant de calculer le déterminant parrécurrence sur la taille de la matrice. Évidemment, on aura intérêt à choisir de développer depréférence suivant la ligne ou la colonne comportant le plus de coefficients nuls possible.Preuve.Nous nous bornons à montrer le développement suivant les colonnes. Le développement suivantles lignes s’en déduit en effet aisément par transposition. Commençons par le développementsuivant la première colonne. Notons C1, . . . , Cn les colonnes deA et (e1, . . . , en) la base canoniquede Kn. Puisque C1 = a11e1 + · · ·+ an1en on a par linéarité

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Calculs de déterminants et conséquences

det(A) = det

nX

ℓ=1

aℓ1eℓ, C2, . . . , Cn

!=

nXℓ=1

aℓ1 det (eℓ, C2, . . . , Cn) .

Il s’agit maintenant de calculer le déterminant de la matrice (eℓ, C2, . . . , Cn). Additionner desmultiples de la première colonne aux autres colonnes ne change pas le déterminant, donc(eℓ, C2, . . . , Cn) a le même déterminant que0BBBBBBBBBB

0 a12 . . . a1n...

......

0 aℓ−1,2 . . . aℓ−1,n

1 0 . . . 00 aℓ+1,2 . . . aℓ+1,n

......

...0 an2 . . . ann

1CCCCCCCCCCA .

En utilisant ℓ− 1 transpositions de lignes voisines on transforme cette matrice en1Aℓ1

. Ainsi

det (eℓ, C2, . . . , Cn) = (−1)ℓ−1 det

1Aℓ1

.

Pour calculer ce dernier déterminant on se sert de la définition .. : les seules permutationsdans Sn qui comptent réellement dans la somme sont celles qui admettent 1 comme point fixe.Ces permutations s’identifient alors naturellement à Sn−1 et la signature est conservée sous cette

identification. Cela montre que det

1Aℓ1

= det(Aℓ1) et donc que

det(A) =nX

ℓ=1

(−1)ℓ−1aℓ1 det(Aℓ1).

C’est la formule du développement suivant la première colonne. Les autres se déduisent par unesimple permutation de colonnes.

Tests

.. Calculer 1 4 72 0 83 6 0

. .. Calculer 3 −2 1 4−1 2 3 55 0 1 02 1 2 −3

.Équation d’un hyperplan

Nous allons montrer dans cette partie comment le développement suivant une ligne ou une co-lonne permet d’établir facilement une équation d’un hyperplan dans Kn donné par n−1 vecteurslinéairement indépendants.Soient vℓ = (vℓ1, . . . , vℓn), ℓ = 1, . . . , n − 1, des vecteurs linéairement indépendants de Kn .On se propose de trouver une équation de l’hyperplan F = vect(v1, . . . , vn−1). Un vecteurx = (x1, . . . , xn) ∈ Kn est dans F si, et seulement si, la famille (x, v1, . . . , vn−1) est liée, ou en-core si, et seulement si,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants x1 . . . xnv11 . . . v1n...

...vn−1,1 . . . vn−1,n

= 0 .

Le développement suivant la première ligne donne alors une équation de la forme

a1x1 + · · ·+ anxn = 0 . (.)

Au signe près, le coefficient aj est le déterminant de la matrice V = (vℓk) privée de sa j-ièmecolonne. La matrice V étant de rang n− 1, on peut lui ôter une colonne telle que la sous-matricerestante soit inversible. Cela signifie que les aj ne sont pas tous nuls et l’équation (.) est biencelle d’un hyperplan.

Exemple ..

⋄ Une équation du plan vectoriel dans R3 engendré par les vecteurs (2, 1, 0) et (−1, 3, 2) : x y z2 1 0−1 3 2

= 2x− 4y + 8z = 0 .

⋄ Pour déterminer une équation du plan affine H dans R3 passant par les trois points A(1, 0, 2),B(−2, 2, 2), et A(1, 2, 3), on remarque que le point M(x, y, z) est dans ce plan si et seulement si les vec-teurs

# –

AM,# –

AB,# –

AC sont linéairement dépendants. Ainsi une équation de H est x− 1 y z − 2−3 2 00 2 1

= 2x+ 3y − 6z + 10 = 0 .

Le déterminant de Vandermonde

Nous allons calculer par récurrence sur n le déterminant suivant, « classique » mais fort utile.Règle .. Pour tous x1, . . . , xn ∈ Kn, on a 1 x1 x21 . . . xn−1

1

1 x2 x22 . . . xn−12

......

......

1 xn x2n . . . xn−1n

= Y16k<ℓ6n

(xℓ − xk) . (.)

Preuve. Notons Vn le déterminant ci-dessus. Il est clair que la formule est correcte pour n = 1(un produit vide vaut toujours 1). Supposons maintenant la formule démontrée pour n − 1 etcalculons le déterminant Vn. On a

Vn =

1 x1 x21 . . . xn−11

0 x2 − x1 x22 − x21 . . . xn−12 − xn−1

1...

......

...0 xn − x1 x2n − x21 . . . xn−1

n − xn−11

= x2 − x1 x22 − x21 . . . xn−12 − xn−1

1

x3 − x1 x23 − x21 . . . xn−13 − xn−1

1...

......

xn − x1 x2n − x21 . . . xn−1n − xn−1

1

.La première égalité ci-dessus est obtenue par soustraction de la première ligne de toutes les autres,et la deuxième égalité en est le développement suivant la première colonne. Rappelons que ak −bk = (a− b)(bk−1 + bk−2a+ · · ·+ bak−2 + ak−1) . Nous pouvons donc factoriser chaque ligne par(xℓ − x1). Ainsi

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Calculs de déterminants et conséquences

Vn = DY

1<ℓ6n

(xℓ − x1) ,

où D =

1 x1 + x2 x21 + x1x2 + x22 . . . xn−21 + xn−3

1 x2 + · · ·+ xn−22

1 x1 + x3 x21 + x1x3 + x23 . . . xn−21 + xn−3

1 x3 + · · ·+ xn−23

......

......

1 x1 + xn x21 + x1xn + x2n . . . xn−21 + xn−3

1 xn + · · ·+ xn−2n

.Maintenant, on utilise la première colonne pour « nettoyer » les suivantes. Plus précisément, onadditionne à la k-ième colonne la première multipliée par −xk−1

1 , où k = 2, . . . , n− 1 . Il reste

D =

1 x2 x1x2 + x22 . . . xn−21 x2 + xn−3

1 x22 + · · ·+ xn−22

1 x3 x1x3 + x23 . . . xn−21 x3 + xn−3

1 x22 + · · ·+ xn−23

......

......

1 xn x1xn + x2n . . . xn−21 xn + xn−3

1 x2n + · · ·+ xn−2n

.Ensuite, on utilise la deuxième colonne pour « nettoyer » les suivantes. Plus précisément, on ad-ditionne à la k-ième colonne la deuxième multipliée par −xk−2

1 , où k = 3, . . . , n − 1 . Et ainsi desuite. On obtient finalement une expression fonction de x2, . . . , xn , de la forme

D =

1 x2 x22 . . . xn−22

1 x3 x23 . . . xn−23

......

......

1 xn x2n . . . xn−2n

.Par hypothèse de récurrence,D =

Y26ℓ<k6n

(xℓ − xk) . Finalement,

Vn = DY

1<ℓ6n

(xℓ − x1) =Y

26k<ℓ6n

(xℓ − xk)Y

1<ℓ6n+1

(xℓ − x1) =Y

16k<ℓ6n

(xℓ − xk) .

Exemple ..Soit x1, . . . , xn ∈ K des points distincts deux à deux. Alors pour tous y1, . . . , yn ∈ K il existe un uniquepolynôme P à coefficents dans K et de degré au plus n−1 tel que P (xk) = yk pour tout k ∈ J1, nK. En effet,chercher un tel polynôme P revient à chercher a0, . . . , an−1 ∈ K (les coeffiecients du polynôme) tel que

∀ k ∈ J1, nK : a0 + a1xk + a2x2k + · · ·+ an−1x

n−1k = yk.

Ceci est un système linéaire avec n équations en les n inconnues a0, . . . , an−1 et le déterminant de la matricedu système est exactement le déterminant de Vandermonde. Il est non nul puisque les xk sont tous distincts.Donc le système admet une solution unique.

Règle de Cramer

Nous montrons maintenant comment les déterminants peuvent résoudre des systèmes linéaires.Il faut toutefois noter que cette méthode, bien que tentante, n’est guère pratiquable, sauf peut-êtreen dimension 2 ou 3, du fait du nombre considérable d’opérations qu’elle requiert dans le calculdes déterminants. La méthode du pivot de Gauss est en général beaucoup plus rapide.

Définition ..

Un système de Cramer est un système linéaire de la forme Ax = y où A ∈ GL(n,K).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Autrement dit, un système linéaire est de Cramer si et seulement si le nombre d’équations est égalau nombre d’inconnues et s’il n’y a pas de redondance.

Règle .. (Règle de Cramer.) Tout système de Cramer Ax = y possède une solution uniquequ’on peut calculer comme suit. On remplace la k-ième colonne de A par y et on note Ak la matrice ainsiobtenue, pour k = 1, . . . , n. Alors la k-ième composante de la solution x est donnée par la formule

xk =det(Ak)

det(A), k = 1, . . . , n.

Preuve. La matrice A est inversible, donc le système a pour unique solution

x =

x1

...xn

= A−1y.

Notons C1, . . . , Cn les colonnes de A. On a donc y = x1C1 + · · ·+ xnCn. La k-ième colonne de Ak

est donc égale à x1C1 + · · ·+ xnCn . Par linéarité du déterminant suivant la k-ième colonne, nousobtenons que

det(Ak) = x1 det(Bk1) + · · ·+ xn det(Bkn) ,

où on a noté Bkj la matriceA dans laquelle on a remplacé la k-ième colonne par la j-ième colonneCj . Si j 6= k, la matrice Bkj possède deux colonnes identiques et par conséquent det(Bkj) = 0. Sij = k, alors Bkk = A. On obtient alors

det(Ak) = xk det(A) .

La formule annoncée en résulte car on peut diviser par det(A) 6= 0.

Exemple ..Nous appliquons la règle de Cramer au système§

3x1 + 2x2 = b1 ,4x1 + 3x2 = b2 .

Le déterminant de la matrice du système vaut 3 24 3

= 3× 3− 2× 4 = 1 6= 0 .

On obtient donc la solution x = (x1, x2),

x1 =

b1 2b2 3

3 24 3

= 3b1 − 2b2 , x2 =

3 b14 b2

3 24 3

= 3b2 − 4b1 .

La comatrice

Nous allons démontrer dans cette partie une formule explicite de l’inverse d’une matrice en fonc-tion des coefficients de la matrice inversible.

Définition ..

Soit A ∈Mn(K). On noteAℓk ∈Mn−1(K) la matrice obtenue par suppression de la ℓ-ième ligne et k-ième colonnede A. La comatrice de A, notée com(A), est la matrice dont le coefficient d’indice (ℓ, k) est (−1)ℓ+k det(Aℓk) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Calculs de déterminants et conséquences

Proposition .. Pour tout A ∈Mn(K) on a Atcom(A) = tcom(A)A = det(A) In .

Preuve. Soit A = (aℓk). Nous montrons d’abord l’égalité Atcom(A) = det(A) In . Soient Lℓ la ℓ-ième ligne de A et Cj

la j-ième colonne de tcom(A). Il faut montrer que LℓCj = δℓj det(A).On a Lℓ = (aℓk)16k6n et Cj = ((−1)j+k det(Ajk))16k6n . Ainsi

LℓCj =nX

k=1

(−1)j+kaℓk det(Ajk) . (.)

Si ℓ = j, on retrouve la formule du développement du déterminant de A suivant la ℓ-ième ligneet on a donc prouvé que LℓCℓ = det(A) .Si ℓ 6= j, on considère la matrice A′ obtenue à partir de A en remplaçant la j-ième ligne par Lℓ.Cette matrice possède deux lignes égales, d’où det(A′) = 0. D’autre part, si on développe le dé-terminant deA′ par la j-ième ligne on trouve précisément la somme (.). On a donc prouvé queLℓCj = 0. Pour démontrer l’égalité tcom(A)A = det(A) In , on procède de manière analogue avec desdéveloppements suivant les colonnes.

Nous pouvons maintenant donner la formule annoncée.

Règle .. Si A ∈ GL(n,K), alors A−1 =1

det(A)

t

com(A) .

Exemple ..Soit

A =

0 1 11 0 11 1 0

!.

On a detA = 2, donc A ∈ GL(3,K). Par la règle .., nous obtenons

A−1 =1

2

| 0 11 0 | − | 1 1

1 0 | | 1 10 1 |

− | 1 11 0 | | 0 1

1 0 | − | 0 11 1 |

| 1 01 1 | − | 0 1

1 1 | | 0 11 0 |

!=

−1 1 11 −1 11 1 −1

!.

Pour des matrices de grande taille cette formule de l’inverse est peu utile car elle demande beau-coup trop de déterminants à calculer ; inverser par la méthode du pivot est plus rapide. Néan-moins la formule est utile pour démontrer certains résultats théoriques, comme par exemple unecaractérisation du groupeGL(n,Z) qui est plus belle que notre définition de la page . Rappelonsque nous y avons définiGL(n,Z) comme le sous-ensemble deGL(n,R) constitué des matrices in-versibles à coefficients entiers et dont l’inverse est également à coefficients entiers.

Proposition .. Le groupeGL(n,Z) est constitué de toutes les matrices n×n à coefficients entiersdont le déterminant vaut 1 ou −1.

Preuve. Tout d’abord nous remarquons une chose simple mais importante : le déterminant d’unematrice à coefficients entiers est un entier. Cela se voit directement sur la formule de la définitiondu déterminant. Soit A dans GL(n,Z). Alors A et A−1 sont à coefficients entiers. Donc det(A) et det(A−1) sontdes entiers. Or

det(A) det(A−1) = det(AA−1) = det(In) = 1 ,

c’est-à-dire que det A est inversible dans Z. Par conséquent, det A = ±1 . Réciproquement, soit A une matrice n×n à coefficients entiers et telle que det(A) = ±1. AlorsApossède un inverse A−1 ∈ GL(n,R). La règle .. montre que A−1 = ±tcom(A). Or la comatrice

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

de A est à coefficients entiers. Par conséquent, A ∈ GL(n,Z).

Remarque..De la même manière on montre plus généralement qu’une matrice à coefficients dans un anneaucommutatif est inversible si et seulement si son déterminant est inversible dans cet anneau.

On devine qu’une arithmétique se dessine sur le groupe linéaire. Nous ne pouvons qu’effleu-rer le sujet et nous nous contentons de mentionner l’existence d’un sous-groupe remarquable deGL(n,Z).

Proposition .. On note SL(n,Z) l’ensemble des matrices n× n à coefficients dans Z de détermi-nant 1. SL(n,Z) est un sous-groupe distingué de GL(n,Z).

Preuve. SL(n,Z) est le noyau du morphisme de groupes det : GL(n,Z)→ −1, 1.

Tests

.. Ces assertions sont-elles vraies ou fausses ?

a. tcom(A) = com(tA) .

b. tA com(A) = det(A) In .

.. Soit (ϕ1, ϕ2, ϕ2) le système de coordonnées associée à labase

B = ((2, 0, 1), (−1, 1,−3), (2, 1,−2))

de R3 . Montrez que (ϕ1(v), ϕ2(v), ϕ2(v)) ∈ Z3 pour toutv ∈ Z3.

.. Déterminer tous les sous-groupes de C∗ dont tous lesélements sont des entiers.

.. Combien d’éléments contient GL(n,Z) ?

.. Ces assertions sont-elles vraies ou fausses ?

a. Si tous les coefficients d’une matrice de GL(n,R) sontrationnels, alors tous les coefficients de son inverse le sont aussi.

b. GL(n,Z) = GL(n,R) ∩ Mn(Z) .

.. Les ensembles suivants sont-ils des sous-groupes deGL(n,C) ?

G1 = A ∈ Mn(C) | | det(A) | = 1 ,

G2 = A ∈ Mn(C) | det(A) ∈ R∗ ,

G3 = A ∈ Mn(C) | det(A) ∈ R∗+ ,

G4 = A ∈ Mn(C) | det(A) ∈ R∗− ,

G5 = A ∈ Mn(C) | det(A) ∈ Z\0 ,

G6 = A ∈ Mn(C) | det(A) = ±i ,

G7 = A ∈ Mn(C) | det(A) ∈ ±1,±i .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

.. Exercices

Exercice ..

Soit A ∈Mn(K). Donner le rang de com(A) en fonction de celui de A.

Exercice ..

Soit A ∈ GL(n,K), n > 1. Montrer que com(com(A)) = det(A)n−2A.

Exercice ..

Pour (a, b) ∈ C2, on pose M(a, b) =

a −bb a

et K = M(a, b), (a, b) ∈ C2.

. A quelle condition un élément de K est-il inversible ?

. Montrer que K \ 0muni de la multiplication est un groupe.

Indication :

Exercice ..

Soit A ∈ M3(K) une matrice antisymétrique, c’est-à-dire telle que tA = −A. Prouver que A n’est pasinversible.

Exercice ..

Soit f un endomorphisme d’un K-espace vectoriel de dimension fini tel que f2 = idE .

. Démontrez que det(f) = ±1.

. Démontrez que det(f) = (−1)m où l’on a pos’é m = dim Ker(idE + f).

Exercice ..

Prouver que l’endomorphisme de R3 qui a (x, y, z) associe

(x+ y + z, 2x− z + y, 3y + x+ z)

est un automorphisme.

Exercice ..

Soit A une matrice n× n et D une matrice m×m.

. Soit

M =

A

C D

une matrice « triangulaire par blocs » (où C est un bloc de taille m× n). Montrez que

detM = detA detD .

Comment peut-on généraliser ce résultat à un nombre de blocs plus grand ?

. Calculer

det

C D

A

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

. On suppose maintenant que n = m. Montrer qu’en général

det

A B

C D

6= detA detD − detB det C .

Exercice ..

Considérons un triangle dont les trois côtés sont données par des équations

akx+ bky = ck, k = 1, 2, 3,

écrites dans un repère orthonormé de son plan. Montrer que l’aireA du triangle est donnée par la formule

A =(detM)2

2|µ1µ2µ3|,

M =

a1 b1 c1a2 b2 c2a3 b3 c3

!et où µk désigne le cofacteur de ck dans cette matrice.

Exercice ..

Soient A et B deux matrices de Mn(C). On pose

M =

A −BB A

.

. Prouver quedetM = det(A+ iB) det(A− iB).

. A-t-on detM = det(A2 +B2) ?

Exercice ..

SoitA : C→ GL(n,C) une application polynomiale (tous les coefficients deA sont polynomiales). Montrerque C→ GLn(C) , z 7→ A(z)−1, est également polynomiale.

Exercice ..

Le birapport d’un quadruplet (G1, G2, G3, G4) de quatre droites vectorielles distinctes dans K2 est le nombre

[G1, G2, G3, G4] =

x1 x3

y1 y3

x2 x4

y2 y4

x1 x4

y1 y4

x2 x3

y2 y3

,

où Gj = K(xj , yj), j = 1, . . . , 4.

. Expliquez pourquoi le birapport est bien défini et pourquoi il n’est jamais nul.

. SoientG1, G2, G3 trois droites vectorielles distinctes dans K2 et soit α ∈ K∗. Montrez qu’il existe au plusune droite vectorielle G, distincte des trois autres, telle que

[G1, G2, G3, G] = α .

. Si on a deux quadruplets de droites vectorielles distinctes dans K2 alors montrez qu’il existe un au-tomorphisme de K2 qui envoie le premier quadruplet sur le second si et seulement si les birapports desquadruplets sont égaux. (Indication : utiliser l’exercice ...)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Soient a, b, c, k quatre réels. Calculer

∆ =

cos(a) cos(a+ k) cos(a+ 2k)cos(b) cos(b+ k) cos(b+ 2k)cos(c) cos(c+ k) cos(c+ 2k)

Exercice ..

Soient a, b, c ∈ K. Calculer les déterminants suivants, (on factorisera les expressions obtenues !)

∆1 =

0 a ba 0 cb c 0

∆2 =

1 1 1a b ca2 b2 c2

∆3 =

a+ b b+ c c+ aa2 + b2 b2 + c2 c2 + a2

a3 + b3 b3 + c3 c3 + a3

∆4 =

1 1 1a b c

b+ c a+ c a+ b

∆5 =

a b cc a bb c a

Indications : Developper ∆3 par multilinéarité. Pour ∆5 examiner le produit

a b cc a bb c a

! 1 1 11 j j2

1 j2 j

!.

Exercice ..

Soit f l’endomorphisme de K2[X] défini par

P 7→ P + P ′.

Calculer det(f). Que peut-on déduire ?

Exercice ..

Soient A,B ∈ M2(C). On note A ⊗ B la matrice de M4(C) définie par blocs de la manière suivante :

A⊗B =

a11B a12B

a21B a22B

.

. Soient A,B,C,D ∈ M2(R). Montrer que (A⊗B).(C ⊗D) = (AC)⊗ (BD).

. Calculer det(I2 ⊗B), det(A⊗ I2) et det(A⊗B) en fonction de detA et detB.

. A quelle condition nécessaire et suffisante A⊗B est-elle inversible ? Quel est alors son inverse ?

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Exercice ..

What is the determinant of the transposition map of Mn(K) ?

Exercice ..

Soit R un anneau commutatif et A ∈ Mn(R). Quel est le déterminant de l’application linéaire fA :Mn(R)→Mn(R),X 7→ AX ?Indication :

Exercice ..

Le but de l’exercice est de calculer, pour tout n ∈ N∗, le déterminant de la matrice A = (aℓk) ∈Mn(Z) telleque

aℓk =

8<:2 si ℓ = k,

−1 si |ℓ− k| = 1,

0 sinon.

. Ecrire d’une manière explicite la matrice An.

. On pose Bn = An −E11 où E11 est la matrice n× n ayant 1 à l’emplacement (1, 1) et des zéros partoutailleurs. Exprimer |Bn| en fonction de |An−1| et |An−2|.. Calculer |Bn| d’une autre manière.

. Conclûre.

Indication :

Exercice ..

Soit A ∈Mn(Z) symétrique et de déterminant nul. On note Aj la matrice (n− 1)× (n− 1) obtenue à partirde A en supprimant la j-ième ligne et la j-ième colonne. Prouver que pour tous i, j ∈ 1, ..., n, det(AiAj)est un nombre carré.

Exercice ..

Soient n > 1 et p1, . . . , pn−1 dans C. On pose

P (X) =

X 0 . . . 0 p0

−1 X.. .

... p1

0. . .

. . . 0...

.... . .

. . . X pn−2

0 . . . 0 −1 X + pn−1

.. Exprimer P (X) dans la base canonique de R[X].

. Etablir que, pour tout polynôme P ∈ C[X] unitaire de degré n > 1, il existe A ∈Mn(C) telle que

P (X) = det(XIn − A).

Indication : Faites apparaître des 0 à la place des X en jouant sur les lignes du déterminant.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

On considère l’ensemble des matrices de taille n ∈ N∗ à coefficients dans −1, 1.. Combien de coefficients faut-il changer au plus pour rendre une telle matrice inversible ?

. Combien y a-t-il de telles matrices ? Calculer la moyenne des déterminants au carré de ces matrices.

Indication :

Exercice ..

Soient p et q deux entiers naturels non nuls. Soient

P =

pXk=0

akXk Q =

qXk=0

bkXk

deux polynômes de C[X] avec ap 6= 0 et bq 6= 0. Le résultant des polynômes P etQ est le nombre complexenoté Res(P,Q) défini par le déterminant suivant :

Res(P,Q) =

a0 b0

a1. . . b1

. . ..... . . a0

.... . . b0

ap a1 bq b1. . .

.... . .

...ap bq

C’est un déterminant de taille (q + p) dont les q premières colonnes représentent les coefficients de P et pdernières colonnes représentent les coefficients de Q, les positions non remplies étant des zéros.Par exemple, si P = 1 + 2X + 3X2 et Q = 4 + 5X + 6X2 + 7X3,

Res(P,Q) =

1 0 0 4 02 1 0 5 43 2 1 6 50 3 2 7 60 0 3 0 7

La matrice servant à définir Res(P,Q) pourra être notée MP,Q i.e. Res(P,Q) = detMP,Q.On note E = Cq−1[X]×Cp−1[X] et F = Cp+q−1[X]. Soit u l’application de E vers F définie par u(A,B) =PA+QB.

. .a. Vérifier que u est bien à valeurs dans F et démontrer que u est une application linéaire.

.b. Si on suppose que u est bijective, démontrer que P et Q sont premiers entre eux.

.c. Si on suppose que P et Q sont premiers entre eux, déterminer Ker u et en déduire que u est bijective.

. On note B =(1, 0), (X, 0), . . . , (Xq−1, 0), (0, 1), (0, X), . . . , (0, Xp−1)

une base de E et

(1, X, . . . , Xp+q−1) la base canonique de F .

.a. Déterminer la matrice de u par rapport aux bases B et B′.

.b. Démontrer que Res(P,Q) 6= 0 si et seulement si P et Q sont premiers entre eux (donc Res(P,Q) = 0 siet seulement si P et Q ont une racine complexe commune).

. .a. Démontrer que P ∈ C[X] admet une racine multiple dans C si et seulement si Res(P,P ′) = 0.

.b. Application : déterminer une condition nécessaire et suffisante pour que le polynôme X3 + aX + badmette une racine multiple.

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

.. Réponses aux tests

..

a. D(6,−5) et D′(0,−3).

b. (ABCD) est le parallélogramme formé par# –

AB(−3, 1) et# –

AD(4,−6). Son aire est donc

| − 3 × (−6) − 1 × 4| = 14 .

(CABD′) est le parallélogramme formé par# –

AB(−3, 1) et# –

AC(1,−5). Son aire est donc

| − 3 × (−5) − 1 × 1| = 14 .

Les deux parallélogrammes ont même aire ; on pourra le prouveraussi géométriquement.

.. On développe

0 = d(u+ v, u + v, w)

= d(u,u + v, w) + d(v, u + v, w)

= d(u,u, w) + d(u, v, w)

+ d(v, u, w) + d(v, v, w)

= d(u, v, w) + d(v, u, w).

.. Le volume est 21 car

det(# –

AB,# –

AC,# –

AD) =

1 −2 1−2 2 31 3 −1

= −21 .

.. 2 1 43 0 15 1 2

= 9 = α = β .

En fait, α se déduit en permutant deux lignes et en multipliantl’une par −1. Et β se déduit en ajoutant la deuxième ligne à lapremière.

..

a. Faux, contre-exemple

A = −B = I2.

b. Faux, cardet(λA) = λ

ndet(A) .

c. Faux, car pour toute matrice n × n,

det(−A) = (−1)n det(A) .

.. det(−In) = (−1)n par linéarité applique n fois.

det

In

In

= (−1)n. En fait, on ramène cette matrice à la

matrice identité I2n comme suit. D’abord on fait monter tout enhaut la première ligne du In qui se trouve en bas ; puisqu’elledoit passer les n lignes qui se trouvent au-dessus cela nécessiten transpositions. De même on monte en deuxième ligne ce quiétait la deuxième ligne du In qui se trouvait en bas, etc. En tout

on a utilisé n fois n transpositions. Or (−1)n2= (−1)n

pusique’un entier est pair si, et seulement si, son carré l’est.

.. Notons n le rang de la matrice en question. On ramènecette matrice à la matrice identité In comme suit. D’abord ondescend la première ligne à la dernière. Cela nécessite n − 1transpositions puisqu’elle doit traverser les n − 1 lignes qui setrouvent en-dessous. Sur la matrice ainsi obtenue on descend lepremière ligne à l’avant-dernière place, ce qui se fait avec n − 2transpositions. Et ainsi de suite. Le nombre total detranspositions vaut donc

1 + 2 + · · · + (n − 1) =n(n − 1)

2.

Le déterminant recherché vaut (−1)n(n−1)/2 ou encoren1 si n ≡ 0 ou 1 mod 4

−1 si n ≡ 2 ou 3 mod 4

.. detB = det(tAA) est égal à

dett A detA = (detA)2 > 0 .

.. An = 0 implique que A n’est pas inversible et donc quedet(A) = 0.

.. 132.

..

198.

..

a. Vrai. b. Vrai.

.. On a le système2 −1 20 1 11 −3 −2

ϕ1(v)ϕ2(v)ϕ3(v)

= v ,

donc ϕ1(v)ϕ2(v)ϕ3(v)

=

2 −1 20 1 11 −3 −2

−1

v .

La matrice est à coefficients entiers et elle a déterminant −1,donc son inverse aussi est à coefficients entiers.

.. 1,−1 et 1 .

.. GL(1,Z) contient les deux éléments 1 et −1.Si n > 1 alors GL(n,Z) est un ensemble infini. En effet, pourtout k ∈ Z, la matrice

k k+1

k−1 k

est de déterminant 1. Cela

donne une infinité de matrices dans GL(2,Z) qu’on peut aussiutiliser comme blocs pour montrer que GL(n,Z) est infini sin > 2.

..

a. Vrai, en vertu de la règle ...

b. Faux.

.. Seulement G1, G2, G3 et G7. En fait le déterminantdéfinit un morphisme de groupes GL(n,C) → C∗. Touteimage réciproque d’un sous-groupe de C∗ est un sous-groupede GL(n,C). G1, G2, G3 et G7 sont les images réciproques ducercle d’unité, de R∗ , de R∗

+ et de ±1,±i respectivement.Ces ensembles sont des sous-groupes de C∗.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

Il y a trois cas.

Soit rg(A) = n. Alors A est inversible etcom(A) également. Donc rg(com(A)) = n.

Soit rg(A) < n − 1. Alors toutes les sous-matrices carrées de taille n − 1 de A sont de dé-terminant nul. Par conséquent rg(com(A)) = 0.

Soit rg(A) = n − 1. Alors A possède une sous-matrice carrée inversible de taille n − 1. Ainsi

com(A) 6= 0. Puisque det(A) = 0, on a

com(A) tA = det(A)In = 0.

Autrement dit, toutes les lignes de A sont dans lenoyau de com(A). Or les lignes de A forment unsous-espace vectoriel de dimension n− 1. Avec lethéorème du rang on conclut que

rg(com(A)) = 1.

Solution ..

On a(∗) com(A) = det(A) tA−1,

d’où

det(com(A)) = det(det(A) tA−1)

= det(A)n det(tA−1)

= det(A)n−1.

En appliquant deux fois la formule (∗), on obtient

com(com(A)) = det(com(A)) tcom(A)−1,

puis

com(com(A)) = det(A)n−1 det(A)A−1−1

= det(A)n−1 det(A)−1A

= det(A)n−2A.

Solution ..

. M(a, b) est inversible si et seulement si detM(a, b) 6= 0. Or detM(a, b) = |a|2 + |b|2. Donc M(a, b) estinversible si et seulement si (a, b) 6= (0, 0).

. D’abord, M(1, 0) = I2 et pour a, b, c, d ∈ C,

M(a, b)M(c, d) =M(ac− bd, bc+ ad)

Enfin, pour (a, b) 6= (0, 0)

M(a, b)−1 =1

detM(a, b)=

1

|a|2 + |b|2a b−b a

=M

a

|a|2 + |b|2 ,−b

|a|2 + |b|2

Ceci prouve que K \ 0 est un sous-groupe de GL2(C).

Solution ..

Voici deux démonstrations possibles.

⋄ Première version. Il existe p, q, r ∈ R tels que

A =

0 p q−p 0 r−q −r 0

!.

On calcule det(A) = pqr − pqr = 0 et la matrice An’est pas inversible.

⋄ Deuxième version. Puisque tA = −A, on a

det(A) = det−t A

= (−1)3 det

tA

= − det(A).

Ainsi, det(A) = 0 et A n’est pas inversible.

Remarque – Cette deuxième preuve est valablepour toute matrice antisymétrique d’ordre impair.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Solution ..

. (det(f))2 = det(f2) = det(idE) = 1 .

. On sait que la symétrie f possède une représen-tation matricielle qui est diagonale et n’a que des

1 ou −1 sur la diagonale. Le nombre des −1 est ladimension de l’espace Ker(idE + f) des vecteursque f tranforme en leurs opposés.

Solution ..

La matrice de f dans la base canonique de R3 est 1 1 12 1 −11 3 1

!.

En développant par rapport à la première ligne, ontrouve le déterminant

det(f) = (1 + 3)− (2 + 1) + (6− 1) = 6 6= 0.

f est donc un automorphisme de R3.

Solution ..

. On distingue deux cas.Si rg A < n, alors detA = 0 mais aussi detM = 0car les premières n lignes de M sont liées.Si rg A = n, alors on peut utiliser les premièresn lignes de M pour « nettoyer »en dessous deA : pour cela on utilise seulement des opérationsélémentaires sur les lignes de type « ajout d’unecombinaison linéaire », c’est-à-dire les opérationsélémentaires qui ne changent pas le déterminant.Donc

det

A

C D

= det

A

D

.

On peut décomposer en produitA

D

=

A

Im

InD

.

Il est facile de voir que ces deux facteurs ont pourdéterminants précisément detA resp. detD. Onconclut alors en appliquant la formule du déter-minant d’un produit.Généralisation : on considère des matrices en blocsde la forme

A =

B1

∗ B2

.... . .

. . .

∗ . . . ∗ Bp

.

où lesBj sont des blocs carrés et où les étoiles sontdes blocs de tailles adaptées. On pourra appeller

une telle matrice triangulaire inférieure en blocs. Parrécurrence, on montre alors que

detA = detB1 · · ·detBp .

Par transposition, on trouve un résultat analoguepour une matrice triangulaire inférieure en blocs.

. Par permutation de lignes, on ramène la ma-

triceC D

A

à la matrice M : pour cela, cha-

cune des dernières n lignes « traverse »lesm lignesde (C,D). Au total, nm transpositions d’élémentsvoisins sont donc nécessaires, d’où

det

C D

A

= (−1)nm det

A

C D

= (−1)nm detAdetD.

. Voici un contre-exemple :

M =

A B

C D

=

1 0 1 00 1 0 −11 0 1 00 1 0 1

Ǒ.

La première ligne est égale à la troisième, doncdetM = 0.Mais detA detD − detB detC = 2 .

Solution ..

D’abord on vérifie que l’expression proposée pourl’aire est bien invariante par translation de l’ori-gine du repère : changer O en O′ revient à rem-placer dans les équations x par x+α et y par y+βde sorte que dans le nouveau repère la matrice de-vient

M ′ =

a1 b1 c1 + αa1 + βb1a2 b2 c2 + αa2 + βb2a3 b3 c3 + αa3 + βb3

!.

On constate que det(M ′) = det(M) et que les troiscofacteurs de la dernière colonne de M ′ sont ceuxde M .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

On peut donc supposer que l’origine se trouveà l’intersection des deux premiers droites, autre-ment dit que c1 = c2 = 0. Avec la règle de Crameron calcule les coordonnées des deux autres som-mets A et B du triangle :§a1xA + b1yA = 0a3xA + b3yA = c3

⇐⇒xA

yA

=

1

µ2

−b1c3a1c3

§a2xB + b2yB = 0a3xB + b3yB = c3

⇐⇒xB

yB

=

1

µ1

−b2c3a2c3

Ainsi

A =1

2

det xA xB

yA yB

=

1

2|µ1µ2|

det−b1c3 −b2c3a1c3 a2c3

= c23|µ3|2|µ1µ2|

.

Il ne reste qu’à comparer ce résultat avec la for-mule proposée, la matrice M étant

M =

a1 b1 0a2 b2 0a3 b3 c3

!.

On trouve

(detM)2

2|µ1µ2µ3|=

(c3µ3)2

2|µ1µ2µ3|=

c23|µ3|2|µ1µ2|

= A .

Solution ..

. Effectuons l’opération par blocsL1 ← L1+iL2 ,

detM =

A+ iB −B + iAB A

,puis C2 ← C2 − iC1 ,

detM =

A+ iB 0B A− iB

.Ainsi, par blocs trigonaux,

detM = det(A+ iB) det(A− iB).

. Si n = 1, la formule est manifestement vraie.Considérons donc le cas n > 2.Si AB = BA, la formule est vraie car alors

(A+ iB)(A− iB) = A2 +B2.

Elle est fausse dans le cas général, comme leprouve le contre-exemple suivant :

M =

A −BB A

=

0 1 −1 01 0 0 0

1 0 0 10 0 1 0

Ǒ.

Le développement par rapport à la dernière co-lonne donne

detM = −

0 1 −11 0 00 0 1

= 1 .

D’autre part,

det(A2 +B2) = det

1 00 1

+

1 00 0

= 2 .

Solution ..

Puisque le déterminant d’une matrice est un poly-nôme en les coefficients de la matrice, l’application

C −→ C , z 7−→ det(A(z)) ,

est polynomiale. D’après hypothèse det(A(z)) 6=0 pour tout z ∈ C. D’après le théorème fonda-mental de l’algèbre on sait que det(A(z)) est uneconstante. Or l’inverse A(z)−1, la transposée de la

comatrice multipliée par cette constante, est encorepolynomiale.

Sur R l’énoncé devient faux : l’application

A : R −→ GL(1,R) = R∗ , x 7−→ x2 + 1,

est polynomiale, mais x 7→ A(x)−1 =1

x2 + 1ne

l’est pas.

Solution ..

. La définition ne dépend pas du choix du vec-teur (xj , yj). En effet, si on le remplace par unautre vecteur (x′

j , y′j) tel que Gj = K(x′

j , y′j), alors

on a forcément (x′j , y

′j) = λ(xj , yj). Par linéarité

du déterminant, le coefficient λ apparaît une foisau numérateur et une fois au dénominateur, doncse simplifie.

Les quatre déterminants sont tous non nuls car lesdroites sont distinctes deux à deux. Ainsi, on nedivise pas par zéro et le birapport est non nul.

. Si on cherche la droite sous la forme G =K(x, y), on est amené à résoudre l’équation

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

x2y − y2xx1y − y1x

= β ,

où x1, y1, x2, y2, β sont des constantes. Elle équi-vaut à

(y2 − βy1)x− (x2 − βx1)y = 0 . (.)

Du fait que les droites G1 et G2 sont distinctes, ondéduit qu’au moins un des coefficients y2−βy1 oux2 − βx1 est non nul. Cela prouve que (.) estl’équation d’une droite, à savoir la droite G cher-chée.

. Soient (G1, G2, G3, G4) et (G′1, G

′2, G

′3, G

′4)

deux quadruplets de droites vectorielles distinctesdans K2. Soient (xj , yj) des vecteurs tels queGj =K(xj , yj).(⇒) Soit f un automorphisme de K2 tel quef(Gj) = G′

j pour j = 1, . . . , 4, et soit ( a bc d ) , ad −

bc 6= 0, la matrice de f dans la base naturelle. Onpose (x′

j , y′j) = f(xj , yj) = (axj + byj , cxj + dyj).

Alors

[G′1, G

′2, G

′3, G

′4] =

x′1 x

′3

y1 y3

x′2 x

′4

y2 y4

x′1 x

′4

y1 y4

x′2 x

′3

y2 y3

. (.)

On ax′1 x

′3

y′1 y′3

= a bc dx1 x3

y1 y3

= a bc d x1 x3

y1 y3

,et de même pour les quatre autres facteurs dans lafraction (.). Ainsi il y a simplification et on re-trouve le birapport [G1, G2, G3, G4] .(⇐) Notons α le birapport commun des deux qua-druplets. D’après l’exercice .., il existe un au-tomorphisme f de K2 tel que f(Gj) = G′

j pourj = 1, 2, 3. Il reste à démontrer que f(G4) = G′

4.D’après la direction (⇒) ci-dessus f préserve le bi-rapport, donc

α = [G1, G2, G3, G4] = [f(G1), f(G2), f(G3), f(G4)]

= [G′1, G

′2, G

′3, f(G4)].

D’autre part,

α = [G′1, G

′2, G

′3, G

′4] .

Selon la question 2., on déduit f(G4) = G′4.

Solution ..

Notons Ck, 1 6 k 6 3 les colonnes du détermi-nant. Puisque pour tout x ∈ R,

cos(x) + cos(x+ 2k) = 2 cos(k) cos(x+ k),

les colonnes du déterminant sont liées par la rela-tion

C1 + C3 = 2 cos(k)C2,

d’où ∆ = 0.

Solution ..

⋄ Un simple développement par une ligne aboutità ∆1 = 2abc.

⋄ C’est un déterminant de Vandermonde, on a∆2 = (c− b)(c− a)(b− a).⋄ Notons

A =

aa2

a3

!, B =

bb2

b3

!, C =

cc2

c3

!.

Le déterminant s’écrit en colonnes,

∆3 =A+B,B + C,A+C

.En développant par trilinéarité ce déterminant, onobtient 8 termes dont 6 sont nuls par le caractèrealterné du déterminant. On a

∆3 =A,B,C+ B,C,A.

Or, par antisymétrie,B,C,A = A,B,C,

ainsi

∆3 = 2A,B,C = 2

a b ca2 b2 c2

a3 b3 c3

= 2abc∆2 = 2abc(c− b)(c− a)(b− a).

⋄ On remarque que les lignes du déterminant sontliées par la relation

L3 + L2 = (a+ b+ c)L1.

On a donc ∆4 = 0.

⋄ Posons

M =

a b cc a bb c a

!et Ω =

1 1 11 j j2

1 j2 j

!,

où j 6= 1 est une troisième racine de l’unité. On a

MΩ =

α β γα jβ j2γα j2β jγ

!,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

α = a+ b+ c , β = a+ jb+ j2c , γ = a+ j2b+ jc.

On a donc

det(M) det(Ω) = det(MΩ) = αβγ det(Ω).

On remarque que det(Ω) est un déterminant deVandermonde non nul. Ainsi,

∆5 = det(M) = αβγ.

Solution ..

Soit M =

a bb a

. On a alors par blocs,

∆ =

aM bMbM aM

.Effectuons l’opération par blocs C2 ← C2 + C1,

∆ =

aM (a+ b)MbM (a+ b)M

= (a+ b)2 aM MbM M

.Puis, parL1 ← L1−L2, on obtient (voir aussi exer-cice ..)

∆ = (a+ b)2 (a− b)M 0

bM M

= (a+ b)2 det((a− b)M) det(M)

= (a+ b)2(a− b)2 det(M)2

= (a+ b)2(a− b)2(a2 − b2)2

= (a+ b)4(a− b)4 .

Solution ..

. On a A ⊗ B =

a11B a12B

a21B a22B

et C ⊗ D =

c11D c12D

c21D c22D

. Un calcul par blocs donne

(A⊗B).(C⊗D) =

(a11c11 + a12c21)BD (a11c12 + a12c22)BD

(a21c11 + a22c21)BD (a21c12 + a22c22)BD

=

ac11BD ac12BD

ac21BD ac22BD

= (AC)⊗(BD)

en notant acij le coefficient en position (i, j) de lamatrice AC.

. I2 ⊗ B =

B 02

02 B

donc det(I2 ⊗ B) =

(detB)2.Soit u l’endomorphisme de C4 canoniquement as-

socié à A ⊗ I2. Notons (e1, e2, e3, e4) la base cano-nique de C4. Alors la matrice de u dans la base(e1, e3, e2, e4) est I2 ⊗A. On a donc det(A⊗ I2) =det u = det(I2⊗A) = (detA)2 d’après ce qui pré-cède.D’après la première question, A ⊗ B = (A ⊗I2).(I2⊗B). Ainsi det(A⊗B) = (detA)2(detB)2.

. Puisqu’une matrice est inversible si et seulementsi son déterminant est non nul, d’après la questionprécédente, A×B est inversible si et seulement si Aet B le sont. Dans ce cas, on a d’après la premièrequestion

(A⊗B).(A−1⊗B−1) = (AA−1)⊗(BB−1) = I2⊗I2 = I4

Solution ..

Let

T : Mn(K) −→Mn(K) , A 7−→t A .

We know that T is an involution, i.e.,

T 2 = idMn(K) .

From this we can already deduce that detT = ±1.The determinant of the endomorphism T equalsthe determinant of any matrix representing T . Thebest is to represent T with a basis that makescomputations simple. We take the natural basis ofMn(K) consisting of the matrices

Eℓk = zero matrix except for the entry 1 in (ℓ, k),

where (ℓ, k) ∈ J1, nK2. To make them form a basiswe must fix an order :

• The first n matrices of the basis are the diagonalmatrices (E11, E22, . . . , Enn).

• We remark that the remaining n2 − n matricesEℓk, ℓ 6= k, come in pairs : Eℓk and Ekℓ, onetransposed of the other. We can order them wi-thout splitting those pairs.

Then the matrix representing T in this basis is1n

0 11 0

. . .0 11 0

∈ Mn2(K)

The number of blocks ( 0 11 0 ) is n(n−1)

2. Therefore

det T =

0 11 0

n(n−1)/2

= (−1)n(n−1)/2 .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Solution ..

La réponse est det(fA) = (detA)n.

Preuve : En notant X1, . . . , Xn les colonnes de Xl’application s’écrit fA(X) = (AX1, . . . , AXn). Samatrice est donc diagonale par blocs, avec n blocstous égaux à A.

Preuve alternative : Seulement valable si R est uncorps. SiA est non-inversible c’est évident car dansce cas fA n’est pas bijective et donc son détermi-nant est nul.Considérons donc la cas où A est inversible. Alorspar des opérations élémentaires sur les lignes onpeut transformer A en la matrice unité. On en dé-duit que A est un produit de matrices correspon-

dantes aux trois types d’opérations élémentaires(permutation de lignes, multiplication d’une lignepar un scalaire non-nul, ajout d’une ligne à uneautre). Or il est facile de vérifier l’égalité en ques-tion pour ces trois types de matrices (par exempleen écrivant l’application dans la base canoniquede l’espace des matrices), et comme le détermi-nant conserve la multiplication le tour est joué.

Preuve alternative : Seulement valable si R =R ou C. L’égalité est évidente pour une matricediagonale. Si c’est vrai pour une matrice ce l’estpour celles qui lui sont semblables et on conclûtpar continuité, les matrices diagonalisables étantdenses.

Solution ..

. An =

0BBBBBBBBB2 −1−1 2 −1−1 2 −1

. . .. . .

. . .

. . .. . .

. . .

−1 2 −1−1 2

1CCCCCCCCCA.

. Le développement par la première ligne donne pour tout n > 3 :

|Bn| =

nz | 1 −1−1 2 −1−1 2 −1

. . .. . .

. . .

. . .. . .

. . .

−1 2 −1−1 2

=n−1z |

2 −1−1 2 −1−1 2 −1

. . .. . .

. . .

. . .. . .

. . .

−1 2 −1−1 2

−(−1)n−1z |

−1 −12 −1−1 2 −1

. . .. . .

. . .

. . .. . .

. . .

−1 2 −1−1 2

= |An−1| − |An−2|.

. En faisant sur Bn l’opération L2 ← L1 + L2 on obtient L2 = (0, 1,−1, 0, . . . , 0).On poursuit avec L3 ← L2 + L3, L4 ← L3 + L4, etc. On obtient alors une matrice triangulaire dont tous leséléments diagonaux sont 1. Ces opérations laissent le déterminant invariant, donc |Bn| = 1 pour toutn ∈ N∗.

. On en déduit que la suite|An|

n∈N∗ est arithmétique de raison 1. Son premier terme est |A1| = 2. Donc

|An| = n+ 1 pour tout n ∈ N∗.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

Notons A = (aℓ,k). Puisque det(A) = 0 les lignesde A sont liées dans le Q-espace vectoriel Qn.Nous traitons le cas où la première ligne est com-binaison linéaire des autres (les autres cas sont si-milaires, seulement leur notation est plus lourde).Il existe donc λ2, . . . , λn ∈ Q tels que

a1,k =

nXℓ=2

λℓaℓ,k.

D’où le calcul de déterminant

det(A2) =

a1,1 a1,3 · · · a1,na3,1 a3,3 · · · a3,n...

.... . .

...an,1 an,3 · · · an,n

=

Pn

ℓ=2λℓaℓ,1

Pn

ℓ=2λℓaℓ,3 · · ·

Pn

ℓ=2λℓaℓ,n

a3,1 a3,3 · · · a3,n...

.... . .

...an,1 an,3 · · · an,n

=

λ2a2,1 λ2a2,3 · · · λ2a2,na3,1 a3,3 · · · a3,n...

.... . .

...an,1 an,3 · · · an,n

= λ2

a2,1 a2,3 · · · a2,na3,1 a3,3 · · · a3,n...

.... . .

...an,1 an,3 · · · an,n

Or par symétrie de la matrice A on a également

aℓ,1 =

nXk=2

λkaℓ,k

ce qui permet de continuer le calcul.

det(A2) = λ2

Pn

k=2λka2,k a2,3 · · · a2,nPn

k=2λka3,k a3,3 · · · a3,n...

.... . .

...Pn

k=2λkan,k an,3 · · · an,n

= λ2

λ2a2,2 a2,3 · · · a2,nλ2a3,2 a3,3 · · · a3,n...

.... . .

...λ2an,2 an,3 · · · an,n

= λ22 det(A1).

De la même manière on montre que

∀ j = 2, . . . , n : det(Aj) = λ2j det(A1).

Ainsi

∀ i, j = 2, . . . , n : det(AiAj) = λ2iλ

2j det(A1)

2.

Par conséquence det(AiAj) est un entier qui estle carré d’un nombre rationnel, donc finalementdet(AiAj) est le carré d’un nombre entier.

Solution ..

. Par les opérations Lk ← Lk +XLk+1 pour k variant de n− 1 à 1, on aboutit à :

P (X) =

0 p0 + p1X + · · · + pn−1Xn−1 + Xn

−1 0...

0. . .

. . ....

.... . .

. . . 0 X2 + pn−1X + pn−2

0 . . . 0 −1 X + pn−1

.En développant par rapport à la première ligne, on obtient :

P (X) = (−1)n+1(p0 + p1X + · · ·+ pn−1Xn−1 +Xn)× · · · × det(−In−1)

= p0 + p1X + · · ·+ pn−1Xn−1 +Xn

. SoitP (X) = Xn + pn−1X

n−1 + · · ·+ p1X + p0 ∈ C[X].

D’après la question précédente, on a :P (X) = det(XIn − A)

A =

0BBBBBB 0 −p01 0

...

0. . .

. . ....

.... . .

. . . 0 −pn−2

0 . . . 0 1 −pn−1

1CCCCCCA ∈Mn(C).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Déterminants

Solution ..

Pour une matrice A, on notera Aij le coefficient en position (i, j) et Aij la matrice A privée de la ième ligneet de la jème colonne.

. Notons Un l’ensemble des matrices de taille n ∈ N∗ à coefficients dans −1, 1. Faisons l’hypothèse derécurrence suivante :

HR(n) : étant donné une matrice de Un, on peut rendre cette matrice inversible en changeant n− 1coefficients ou moins.

HR(1) est évidemment vraie puisqu’une matrice de U1 est évidemment inversible.Supposons HR(n) vraie pour un certain n ∈ N∗. Soit A ∈ Un+1. Quitte à changer n− 1 coefficients de lamatrice A11, on peut la rendre inversible. Notons A′ la matrice ainsi obtenue. Si A’ est inversible, alorsHR(n+ 1) est vraie. Sinon, puisque detA′ =

Pn+1

i=1A′

i1 det A′i1 = 0. Notons A′′ la matrice A′ où on a

changé A′11 en son opposé. Alors

det(A′′) =

n+1Xi=1

A′′i1 det A

′′i1

= −A′11 det A

′11 +

n+1Xi=2

A′i1 det A

′i1

= −2A′11 det A

′11 +

n+1Xi=1

A′i1 det A

′i1

= −2A′11 det A

′11 + detA′ = −2A′

11 det A′11

Puisque A′11 = ±1 et A′

11 est inversible, det(A′′) 6= 0 et donc A′′ est inversible, ce qui prouve queHR(n+ 1) est vraie.Par récurrence, HR(n) est vraie pour tout n ∈ N∗.Montrons maintenant qu’il existe des matrices de Un pour lesquelles il faut changer exactement n− 1coefficients afin de les rendre inversibles. Il suffit de considérer une matrice de Un dont toutes les colonnessont égales au signe près. Considérons par exemple la matrice A de Un dont tous les coefficients valent 1. Ilfaut au moins changer 1 coefficient dans n− 1 colonnes sinon deux colonnes sont égales et la matrice n’estpas inversible.

. On a évidemment card Un = 2n2

.XA∈Un

(detA)2 =X

A∈Un

Xσ∈Sn

ε(σ)

nYi=1

Aiσ(i)

!2

=X

A∈Un

266664Xσ∈Sn

ε(σ)

nYi=1

Aiσ(i)

2

+X

(σ, τ ) ∈ S2n

σ 6= τ

nYi=1

Aiσ(i)Aiτ(i)

377775=X

A∈Un

Xσ∈Sn

ε(σ)

nYi=1

Aiσ(i)

2

+X

(σ, τ ) ∈ S2n

σ 6= τ

XA∈Un

nYi=1

Aiσ(i)Aiτ(i)

Comme la signature est à valeurs dans −1, 1 de même que les coefficients d’une matrice A de Un, on aXσ∈Sn

ε(σ)

nYi=1

Aiσ(i)

2

= card Sn = n!

Soient maintenant σ, τ ∈ Sn telles que σ 6= τ . Il existe donc j ∈ J1, nK tel que σ(j) 6= τ (j). L’application deUn dans lui-même changeant le coefficient Ajσ(j) en son opposé est une involution et laisse le coefficient

Ai,τ(i) inchangé de sorte que la sommeX

A∈Un

nYi=1

Aiσ(i)Aiτ(i) est égale à son opposé et est donc nulle.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Finalement la moyenne recherchée, à savoir1

card Un

XA∈Un

(detA)2 vaut n!.

Solution ..

. .a. Soient (A,B) ∈ Cq−1[X]× Cp−1[X]. On adonc deg(PA) 6 p+ q−1 et deg(QB) 6 p+ q−1.Ainsi deg u(A,B) 6 p + q − 1. u est donc bien àvaleurs dans F .Soient (A1, B1) et (A2, B2) des éléments de E.Soient λ, µ ∈ C. On a alors

u(λ(A1, B1) + µ(A2, B2)) = u(λA1 + µA2, λB1 + µB2) = (λA1 + µA2)P + (λB1 + µB2)Q

= λ(PA1 +QB1) + µ(PA2 +QB2) = λu(A1, B1) + µu(A2, B2)

.b. Si u est bijective, alors u est surjective. Enparticulier, 1 admet un antécédent (A,B) par udans E. Le couple de polynômes (A,B) vérifiePA + QB = 1. Le théorème de Bézout nous ditalors que P ∧Q = 1.

.c. Soit (A,B) ∈ Ker u. Ainsi PA = −QB.Comme P et Q sont premiers entre eux, Q diviseA. Or deg Q = q et deg A 6 q − 1. On a doncnécessairement A = 0. De même, P divise B etdeg B < deg Q donc B = 0. Ainsi Ker u = 0E.Ainsi u est injective. Comme E et F sont de mêmedimension pq, u est bijective.

. Pour 0 6 l 6 q − 1, u(Xl, 0) =Pp

k=0akX

l+k

et pour 0 6 l 6 p − 1, u(0, Xl) =Pq

k=0bkX

l+k.On en déduit donc que la matrice de u par rapportaux base B et B′ est MP,Q.D’après la question précédente, Res(P,Q) =det(u). Ainsi u est bijective si et seulement

siRes(P,Q) 6= 0. Or on a vu que u est bijective si etseulement si P ∧Q = 1. Ainsi Res(P,Q) 6= 0 ⇐⇒P ∧Q = 1.

.a. . .a. P admet une racine multiple si etseulement si P et P ′ admettent une racine com-mune i.e. si et seulement si Res(P, P ′) = 0.

.b. Comme P = X3 + aX + b, P ′ = 3X2 + a.Ainsi

Res(P,P ′) =

b 0 a 0 0a b 0 a 00 a 3 0 a1 0 0 3 00 1 0 0 3

En effectuant les opérations L2 ← L2 − a

3L4 et

L3 ← L3 − a3L5, on se ramène à un déterminant

triangulaire par blocs :

Res(P,P ′) =

b 0 a 0 02a3

b 0 0 00 2a

33 0 0

1 0 0 3 00 1 0 0 3

= b 0 a2a3

b 00 2a

33

× 3 00 3

Le premier déterminant se calcule par la règle deSarrus et on obtient Res(P,P ′) = 27b2 + 4a3.Ainsi P admet une racine multiple si et seulementsi 27b2 + 4a3 = 0.

Université Paris Sud agreg 2012 - 2013

Espaces euclidiens et hermitiens

Conique — calcul d’un exemple. Tracerla courbe E d’équation

5x2 + 8xy + 5y2 +√2(y − x) = 8.

Méthode première année de prépa. On a appris(mais peut-être pas compris) qu’on doit effec-ter un changement de repère orthonormé enposant c = cos(ϑ) et s = sin(ϑ) avec ϑ ∈ R et

x = cx′ − sy′ , y = sx′ + cy′.

On trouve que l’équation de E dans le nou-veau repère R′ est :

(5c2 + 5s2 + 8cs)x′2 + (5c2 + 5s2 − 8cs)y′2

+8(c2 − s2)x′y′ +√2(s− c)x′ +

√2(c+ s)y′ = 8

En choisissant ϑ = π4 , on a c = s = 1√

2et

donc :

E : 9x′2 + y′2 + 2y′ = 8,

c’est-à-dire :

E : 9x′2 + (y′ + 1)2 = 9,

En notant Ω(0,−1)R′ et R′′ le repère obtenuen translatant R′ en Ω, on obtient l’équation :

E : x′′2 +y′′2

32= 1.

On reconnaît l’ellipse de centre Ω, d’axe focal(Ωy′′), de demi grand-axe a = 3 et de demipetit-axe b = 1.Pour le deesin voir la solution 9.4.Deuxième année. Cette deuxième méthode estmeilleure car elle se généralise sans peine àdes dimensions plus grande. Elle est basé surle fait que toute matrice symétrique réelle sediagonalise en une base orthonormée.

La courbe E est la ligne de niveau 8 de la fonc-tion polynomiale de second degré

f = 5x2 + 8xy + 5y2 +√2(y − x).

On calcule le gradient et la matrice hes-sienne :

∇f = (10x+ 8y −√2, 8x+ 10y +

√2),

A =

10 88 10

.

Le point critique de f est Ω = ( 1√2,− 1√

2) de

valeur critique c = −1. Ainsi Ω est l’originedu repère adapté recherché. Le polynôme ca-ractéristique de A est

χA = (X − 10)2 − 82 = (X − 2)(X − 18).

Le vecteur e1 = 1√2

11

est un vecteur propre

pour la valeur propre 18 ; donc le vecteurorthogonal e2 = 1√

2

−11

est vecteur propre

pour la valeur propre 2. Le repère ortho-normé direct (Ω, e1, e2) est adapté à notreétude. Notons (ξ, η) les coordonnées asso-ciées à ce repère. Alors la fonction polyno-miale f s’écrit

f = c+1

2(ξ, η)

18 00 2

ξη

= −1 + 9ξ2 + η2.

En fait, c’est le développement de Taylor de fau point critique Ω. La courbe de niveau 8 adonc pour équation

E : ξ2 +η3

2= 1.

Remarque – Où nous amènerait la réductionde Gauss ? D’abord, pour faire disparaître la par-tie linéaire on se place au point critique de f , c’est-à-dire on introduit comme nouvelles coordonnées(x′, y′) = (x− 1√

2, y + 1√

2). Alors

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

f = 5x2 + 8xy + 5y2 +√2(y − x)

= 5x′2 + 8x′y′ + 5y′2 − 1.

= 5

x′2 +

8

5y′+ 5y′2 − 1

= 5

x′ +

4

5y′2

+9

5y′2 − 1

En posant ϕ1 = x′ + 45y

′ et ϕ2 = 3y′ on obtientque la courbe E est la ligne de niveau 9 de la forme

quadratique

Q = 5ϕ21 +

1

5ϕ22.

Mais puisque (ϕ1, ϕ2) est un système de coordon-nées non-orthogonal ça n’est pas très utile pourdessiner la courbe. La seule information qu’onpeut en tirer est le fait qu’il s’agit d’une ellipse carla signature de la forme quadratique Q est (2, 0).

.. Exercices

Exercice ..

Donner la matrice de la projection orthogonale de R4 sur le sous-espace vectoriel F d’équations ,§x1 + x2 + x3 + x4 = 0x1 − x2 + x3 − x4 = 0

Indication : On pourra (par exemple !) orthonormaliser une base de F .

Exercice ..

Dans Mn(R) on note G le groupe linéaire, K le groupe des matrices orthogonales, A le groupe des ma-trices diagonales avec coefficients diagonaux strictement positifs et N le groupe des matrices triangulairessupérieures avec éléments diagonaux égaux à 1.

. Prouver que l’application

Φ : K × A×N −→ G , (X,Y, Z) 7−→ XY Z ,

est bijective.

. Montrer que K est compact. Prouver qu’il existe un homéomorphisme

GL(n,R) ≃ O(n,R)× Rk,

avec un k ∈ N qu’on spécifiéra.

. Trouver des énoncés analogues dans Mn(C).

Remarque – La bijection Φ n’est pas un morhisme de groupes. On écrit G = KAN . C’est la décompositiond’Iwasawa (Kenkichi Iwasawa, 1917-1989, mathématicien japonais).

Indication : Gram-Schmidt.

Exercice ..

Sei A ∈Mmn(R) eine Matrix. Man zeige :

∀ x ∈ Rn ∃ ! (y, z) ∈ Ker(A)× Im(tA) , x = y + z.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Calculer

inf(a,b)∈R2

Z ∞

0

e−x(x2 − ax− b)2dx.

Indication : Il s’agit d’un problème de projection orthogonale.

Exercice ..

Déterminer les polynômes unitaires de degré deux tels queZ 1

−1

P 2(t)dt

soit minimale.Indication : Se ramener à calculer la distance de X4 à R3[X] pour un produit scalaire sur R4[X] bien choisi. . .

Exercice ..

Calculer le minimum de φ : R2 → R(a, b) 7→

R π

0(sin x− ax2 − bx)2dx

.

Indication : Introduire un produire scalaire sur C([a; b],R).

Exercice ..

Soient E un espace euclidien et f un endomorphisme de E tel que Im(f) ⊂ Ker(f). Etablir que

Ker(f + f∗) = Ker(f) ∩Ker(f∗).

Indication : Une des deux inclisions est banale. Remarquer que

f(x) = 0 si et seulement si ‖f(x)‖ = 0.

Exercice ..

Pour tous A et B dans Mn(R), on pose :

〈A|B〉 = tr(tAB).

. Etablir que 〈 · | · 〉 est un produit scalaire sur Mn(R).

. Justifier que, pour tous A et B dans Mn(R), la propriété

∀M ∈Mn(R), tr(AM) = tr(BM)

est équivalente à A = B.

. Trouver une b.o.n. pour 〈 · | · 〉.. On note, pour tous A et M dans Mn(R) ;

gA(M) = AM.

Calculer l’adjoint de gA.

Indication : On trouve g∗A = gtA.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

Exercice ..

Soit (E, 〈., .〉) un espace euclidien et f un endomorphisme auto-adjoint deE. Montrer que les trois proprié-tés suivantes sont équivalentes :

(i) ∀x ∈ E, 〈f(x), x〉 > 0.

(ii) Il existe g ∈ L(E) tel que f = g∗ g.

(iii) Il existe h ∈ L(E) tel que h∗ = h et f = h2.

Indication : Raisonner par implications circulaires.

Exercice ..

Soient n ∈ N∗ et (e1, . . . , en) une base orthogonale de Rn.

. Montrer qu’il existe un vecteur u de Rn non nul tel que les projections orthogonales de e1, . . . , en survect(u) aient la même norme.

. Montrer que cette norme commune est indépendante du vecteur u choisi et l’exprimer en fonction de‖e1‖, . . . , ‖en‖.Indication :

Exercice ..

Soient E un espace euclidien et p une projection de E. Etablir l’équivalence des trois propriétés suivantes :

. p est orthogonale ;

. ∀x, y ∈ E, 〈p(x)|y〉 = 〈x|p(y)〉 ;. ∀x ∈ E, ‖p(x)‖ 6 ‖x‖.Indication : Faire une chaîne de trois implications.

Exercice ..

Soient (E, 〈 · | · 〉) un espace euclidien, F un sev strict de E, v ∈ E \ F et α > 0. Construire un élementu ∈ F et un réel λ tels que

u+ λv ∈ F⊥, 〈u+ λv, v〉 > 0 et ‖u+ λv‖ = α.

Indication : Il faut dessiner !

Exercice ..

Soient v1, . . . , vn des vecteurs d’un espace vectoriel E muni d’un produit scalaire 〈 . , . 〉. On appellematrice de Gram, notée G(v1, . . . , vn), la matrice

〈vℓ, vk〉

∈ Mn(R) . Son déterminant, noté g(v1, . . . , vn),

est appellé déterminant de Gram .

. Montrer qu’il existe une matrice Λ telle que G(v1, . . . , vn) = ΛtΛ.

. Monter que rg G(v1, . . . , vn) = rg(v1, . . . , vn) . En déduire que g(v1, . . . , vn) = 0 si et seulement si lafamille (v1, . . . , vn) est liée.

. Montrer que le déterminant de Gram est positif et donner une interprétation géométrique de sa racinecarrée.

. Pour l’espace euclidien canonique R3 expliciter le déterminant de Gram dans les cas n = 1, 2, 3, 4.

Indication : Ecrire les vℓ dans une base orthonormé de vect(v1, . . . , vn) .

Université Paris Sud agreg 2012 - 2013

www.mathoman.com En trois dimensions

Idée de lien avec l’analyse : en utilisant le déterminant de Gram de la matrice jacobienne, calculerl’aire d’une surface paramétrée dans R3, par exemple d’une sphère.

.. En trois dimensions

Exercice ..

Déterminer les propriétés géométriques des endomorphismes de R3, donnés par leur matrice naturelle.

A =1

9

8 −4 14 7 −41 4 8

!B =

0 1 00 0 11 0 0

!Indication :

Exercice ..

Soient E un espace euclidien orienté de dimension trois muni d’une base orthonormée directe B. Préciserla nature ainsi que les éléments caractéristiques de l’endomorphisme f tel que,

. matB(f) =1

4

3 1

√6

1 3 −√6

−√6√6 2

. matB(f) = −1

9

−7 4 44 8 −1−4 1 −8

!. matB(f) =

1

9

−8 4 14 7 41 4 −8

!Indication : C’est la routine : orthogonale ? déterminant ? etc.

Exercice ..

Soient (O,# –

OA,# –

OB,# –

OC) et (O,# –

OA′,# –

OB′,# –

OC′) deux repères orthonormés directs de l’espace. Montrer queles vecteurs

# –

AA′,# –

BB′ et# –

CC′ sont coplanaires.Indication : Calculer Det(

# –

AA′,# –

BB′,# –

CC′) = 0.

Exercice ..

Soient A,B et C trois points de l’espace. Etablir que

(# –

AC ∧ # –

BC) · # –

AB = 0.

Indication : Chasler ! ! !

Exercice ..

Soient #–u et #–v deux vecteurs de l’espace. Déterminer les vecteurs #–x tels que :

#–x ∧ #–u = #–x ∧ #–v .

Indication : Utiliser la bilinéarité du produit vectoriel.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

Exercice ..

Soit #–u un vecteur unitaire de R3, et soit (#–

i ,#–

j ,#–

k ) une base orthonormée de R3.

. Calculer α = ‖ #–u ∧ #–

i ‖2 + ‖ #–u ∧ #–

j ‖2 + ‖ #–u ∧ #–

k ‖2.

. En déduire que l’une de ces trois normes est supérieure ou égale à

É2

3.

Indication : Raisonner par l’absurde à la question 2.

Exercice ..

Déterminer la distance entre le point M0 et la droite D dans les cas suivants,

. M0(−1, 1, 0)R et

D :

§x+ y = 1

2x+ y + z = 3

. M0(1, 1, 1)R et

D :

§3x− y + z = 1x+ 2y − z = 5

. M0(1, 1, 0)R et

D :

§x+ y + z = 0−x+ 2y = 4

On impose, pour ce dernier calcul, de ne pas utiliser d’équation paramétrique de D .

Indication : Revenir au formulaire.

Exercice ..

SoientA(1, 2, 3),B(2, 3, 1),C(3, 1, 2) etD(1, 0,−1). Déterminer le centre et le rayon de la sphère circonscriteau tétraèdre ABCD.Indication : Penser aux plans médiateurs.

Exercice ..

On dit qu’un objet dans l’espace euclidien de dimension trois est invariant par rapport à un axe si touterotation autour de cet axe transforme l’objet en lui-même ; par exemple un cylindre droit (ou un cônedroit) est invariant par rapport à son axe central.

Que pouvez-vous dire sur un objet convexe, borné et invariant par rapport à deux axes distinctes ?Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

Commençons par établir un plan de bataille. . . Ilnous faut calculer une base orthonormée de F afinde calculer la projection orthogonale p sur F . Oncommence donc par déterminer une base de Fqu’il faudra ensuite orthonormaliser par le pro-cédé de Schmidt.

Détermination d’une base de F . Il est clair que lesystème d’équations définissant F est équivalent à

x1 + x3 = x2 + x4 = 0.

Un vecteur X appartient donc à F si et seulementsi il est de la forme

X = x1(1, 0,−1, 0) + x2(0, 1, 0,−1)où x1, x2 ∈ R. Posons

u = (1, 0,−1, 0) et v = (0, 1, 0,−1).La famille (u, v) est clairement libre et génératricede F , il s’agit d’une base de ce sous-espace de R4.

Détermination d’une base orthonormée de F . Labase (u, v) est clairement orthogonale. Puisquel’on a ‖u‖ = ‖v‖ =

√2, la famille formée par

u′ = (1/√2, 0,−1/

√2, 0) et v′ = (0, 1/

√2, 0,−1/

√2).

est une base orthonormée de F .

Calcul de p. Pour tout vecteur x de E, on a

p(x) = (x|u′)u′ + (x|v′)v′.

Ainsi , en notant B = (e1, e2, e3, e4) la base cano-nique de E, on a

p(e1) = (1/2, 0,−1/2, 0) , p(e2) = (0, 1/2, 0,−1/2),

puis

p(e3) = (−1/2, 0, 1/2, 0) et p(e4) = (0,−1/2, 0, 1/2).

Ainsi

matB(p) =1

2

1 0 −1 00 1 0 −1−1 0 1 00 −1 0 1

Ǒ.

Solution ..

. Nous prouvons d’abord la surjectivité deΦ. Soit M une matrice dans G. Les colonnesv1, . . . , vn de M constituent une base de l’espaceeuclidien canonique Rn. On applique l’algorithmede Gram-Schmidt et on obtient une base orthogo-nale u1, . . . , un :

u1 = v1,

uk = vk −Xj<k

〈uj , vj〉〈uj , uj〉

uj , k ∈ J2, nK.

En écriture matricielle cela s’écrit

(u1, . . . , un) = (v1, . . . , vn)Z′, Z′ ∈ N.

En divisant chaque vecteur uk par sa norme on ob-tient une base orthonormée, colonnes d’une ma-trice orthogonale X . Matriciellement cela s’écrit,

X = (u1, . . . , un)Y, Y ∈ A.

AinsiX = (v1, . . . , vn)ZY =MZY.

On conclût que (X,Y −1, Z−1) est un antécédentde M .

Prouvons maintenant l’injectivité. Soient XY Z =X ′Y ′Z′ deux décompositions. On en déduit queX ′−1X = Y ′Z′Z−1Y −1 est d’une part une matrice

triangulaire supérieure, donc son inverse est aussitriangulaire supérieure ; d’autre part c’est une ma-trice orthogonale, donc son inverse est égale à satransposée. Or la transposée est triangulaire in-férieure, donc il s’agit d’une matrice diagonale.Puisqu’elle est orthogonale, elle est l’identité. Parconséquence,

X ′ = X ′, Y ′Z′ = Y Z.

La matrice Z′Z−1 = Y ′−1Y est triangulaire supé-rieure avec des 1 sur la diagonale et elle est diago-nale. C’est donc l’identité, et on peut conclûre quela décomposition est unique, c’est-à-dire que Φ estinjective.

. Nous remarquons d’abord que la bijection Φest continue. La construction ci-dessus de l’anté-cédent d’un élémentM de G ne fait intervenir quedes opérations continues (produits scalaires, frac-tions, inversions de matrices, etc.), donc Φ−1 estégalement continue. Autrement dit, Φ est un ho-méomorphisme.

Pour prouver que K est compacte il suffit demontrer, d’après le théorème de Heine-Borel, queK est fermé et borné. L’application Mn(R) →Mn(R),M → tMM, est continue puisque poly-nomiale en chaque coefficient. L’image réciproquedu fermé In est K. Cela prouve que K est un

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

fermé. D’autre part K est borné car la conditionque chaque vecteur colonne d’une matrice ortho-gonale est de norme 1 implique que tous les coef-ficients de la matrice sont majorés, en valeur abso-lue, par 1.Enfin, il est évident que A est homéomorphe à Rn

et que N est homéomorphe à Rn(n−1)/2.

Conclusion : G est homéomorphe à K × Rk, oùk = n(n+ 1)/2.

. Dans Mn(C) on note G le groupe linéaire com-plexe, K le groupe compacte des matrices uni-

taires et N le groupe des matrices complexes tri-angulaires supérieures avec éléments diagonauxégaux à 1. Le groupe A est le même que dans lecas réel. On montre de manière analogue au casréel que G = KAN . Puisque A est homéomorpheà Rn, et N homéomorphe à Rn(n−1) on obtient unhoméomorphisme entre G et K × Rk, où k = n2.Autrement dit,

GL(n,R) ≃ U(n,R)×Mn(R).

Solution ..

Die zu zeigende Aussage ist äquivalent mit

Rn = Ker(A)⊕ Im(tA).

Allgemein gilt für jeden Untervektorraum F eineseuklidischen Vektorraumes E,

E = F ⊕ F⊥.

Somit genügt es zu zeigen, dass im kanoni-schen euklidischen Vektorraumes Rn die Glei-

chung Ker(A)⊥ = Im(tA) gilt. Dazu bezeichnenwir mit a1, . . . , am ∈ Rn die Zeilen der Matrix A.Dann gilt für jedes x ∈ Rn,

Ker(A) = x ∈ Rn |Ax = 0= x ∈ Rn | ∀ ℓ = 1, . . . , m : 〈x, aℓ〉 = 0=vect(a1, . . . , am)

⊥= Im(tA)⊥.

Also ist Ker(A)⊥ = Im(tA).

Solution ..

On considère l’espace euclidien R2[X] des polynômes de degré au plus 2 muni du produit scalaire

〈P,Q〉 =Z ∞

0

e−xP (x)Q(x)dx.

Les polynômes unitaires de degré 2 forment un sous-espace affine de E et on cherche dans cet sous-espacele polynôme de norme minimale. Mais le meilleur point de vue est celui-ci : on cherche le polynôme aX + bdans R1[X] tel que la distance entre P = X2 et aX + b soit minimale. Autrement dit, on cherche le projetéorthogonal de f sur R1[X]. Ce projété orthogonal aX + b est caractérisé par le fait que P − (aX + b) estorthogonal à une base de R1[X]. On a donc le système

〈X2 − aX − b, 1〉 = 0

〈X2 − aX − b,X〉 = 0.ou encore

〈X, 1〉a+ 〈1, 1〉b = 〈X2, 1〉〈X,X〉a+ 〈1, X〉b = 〈X2, X〉.

En remarquant queR∞0e−xxndx = n! on trouve a = 4 et b = −2. Ainsi

inf(a,b)∈R2

Z ∞

0

e−x(x2 − ax− b)2dx =

Z ∞

0

e−x(x2 − 4x+ 2)2dx = · · · = 4.

Solution ..

Il s’agit de minimiser l’expressionZ 1

−1

(t2 −Q(t))2dt,

le polynômeQ décrivant R1[X]. Posons, pour tousP,Q ∈ E = R2[X],

〈P |Q〉 =Z 1

−1

P (t)Q(t)dt.

Il est banal que l’on définisse ainsi un produit sca-laire sur E. Il s’agit de minimiser

‖X2 −Q‖2,

Q décrivant F = R1[X]. D’après le cours, la quan-tité

‖X2 −Q‖2

est minimale lorsque Q = πF (X2), où πF désigne

la projection orthogonale sur F . Or, il est clair quela famille

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices1√2,

Xp2/3

est une base orthonormée de F . Ainsi

πF (X2) = 〈X2|1/2〉 + 〈X2|X/

È2/3〉 Xp

2/3

= 1/3 + 0 = 1/3

On a donc, d’après le théorème de Pythagore,

‖X2 − πF (X2)‖2 = ‖X2‖2 − ‖πF (X

2)‖,

d’où X2 − πF (X2)‖2 = 2/5− 2/9 =

8

45.

Solution ..

Soit E = C([0;π],R). On munit E du produitscalaire (f, g) 7→

R π

0f(x)g(x)dx.On pose fa,b :

[0; π] → Rx 7→ ax2 + bx

pour (a, b) ∈ R2 et F =

fa,b|(a, b) ∈ R2. F est un sous-espace vectorielde E et φ(a, b) = ‖ sin−fa,b‖2. Le minimum de φest donc atteint quand fa,b est la projection ortho-gonale de sin sur F .Déterminons une base orthogonale de F . On posef1 : x→ x et on cherche α tel que f2 : x→ x2+αxsoit orthogonale à f1.

〈f1, f2〉 =Z π

0

(x3 + αx2)dx =π4

4+ α

π3

3

Il faut donc prendre α = − 3π4

. On pose alorse1 = f1

‖f1‖ et e2 = f2‖f2‖ . Par conséquent, la pro-

jection orthogonale de sin sur F est :

pF (sin) = 〈sin, e1〉e1 + 〈sin, e2〉e2.

Par le théorème de Pythagore :

‖ sin−pF (sin)‖2 = ‖ sin ‖2 − ‖pF (sin)‖2

= ‖ sin ‖2 − 〈sin, e1〉2 − 〈sin, e2〉2

=

Z π

0

sin2 xdx− 1

‖f1‖2Z π

0

x sin xdx

2

− 1

‖f2‖2Z π

0

x2 − 3π

4xsin xdx

2

Un rapide calcul nous donne ‖f1‖2 = π3

3et

‖f2‖2 = π5

80. Par intégration par parties, on trouve :Z π

0

x sin xdx = π etZ π

0

x2 sin xdx = π2 − 4.

Enfin,R π

0sin2 xdx = π

2. Finalement, on trouve

minφ =π

2− 3

π+

160

π3− 1280

π5.

Solution ..

Il est clair que Ker(f) ∩ Ker(f∗) ⊂ Ker(f + f∗).Réciproquement, soit x ∈ Ker(f + f∗), i.e.

(f + f∗)(x) = 0,

soit encore f(x) = −f∗(x). Comme (f∗)∗ = f , ona :

‖f∗(x)‖2 = 〈f∗(x)|f∗(x)〉 = 〈x|(f f∗)(x)〉

Or,

(f f∗)(x) = f(f∗(x)) = f(−f(x)) = −f2(x) = 0

car Im(f) ⊂ Ker(f). Ainsi

‖f∗(x)‖2 = 0

d’oùf∗(x) = 0

puis f(x) = −f∗(x) = 0 et donc

x ∈ Ker(f) ∩Ker(f∗).

Solution ..

. Prouvons que 〈 · | · 〉 définit un produit scalairesur E.

Soient A,B,C ∈Mn(R) et λ ∈ R. On a

〈A|λB + C〉 = tr(tA(λB + C)) = tr(λtAB +t AC)

(par linéarité de la transposition)

= λ tr(tAB) + tr(tAC)

(par linéarité de la trace)

= λ〈A|B〉+ 〈A|C〉

L’application 〈·|·〉 est donc linéaire à droite.

Soient A,B ∈ E. On a

〈B|A〉 = tr(tBA) = tr(t(tAB)) = tr(tAB) = 〈A|B〉L’application 〈·|·〉 est symétrique donc linéaire àgauche puisqu’elle est linéaire à droite.

Pour tout A = (ai,j)16i,j6n et tout indice 1 6i 6 n,

(tAA)i,i =

nXk=1

a2k,i.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

On a donc

〈A|A〉 =nX

i=1

nXk=1

a2k,i > 0.

La forme bilinéaire 〈·|·〉 est donc positive.

Puisque sur R, une somme de carrés est nullesi et seulement si tous les carrés sont nuls, on a,d’après le calcul précédent, 〈A|A〉 = 0 si et seule-ment si ∀1 6 k, i 6 n, ak,i = 0, ie A = 0. La formebilinéaire 〈 · | · 〉 est donc définie.

. La base canonique de Mn(R) est clairement or-thonormée pour 〈 · | · 〉.. Il est clair que la propriété

∀M ∈Mn(R), tr(AM) = tr(BM)

est équivalente à :

〈t(A−B)|M〉 = 0

et donc à t(A−B) ∈Mn(R)⊥ = 0. Ce qui équi-vaut finalement à t(A − B) = 0, i.e. tA =t B soitencore A = B.

. On remarque que, pour tous M et N dansMn(R) :

〈gA(M)|N〉 = tr(t(AM)N) = tr(tM tAN)

= 〈gtA(N)|M〉

et donc g∗A = gtA.

Solution ..

(i) =⇒ (iii) Comme f est auto-adjoint, il existeune base orthonormée B de E qui diago-nalise f . La condition (i) implique que lesvaleurs propres de f sont positives. Notonse1, . . . , en les éléments de B et λ1, . . . , λn lesvaleurs propres associées. On définit h en po-

sant h(ei) =√λiei pour 1 6 i 6 n. On vérifie

qu’on a bien h = h∗ et f = h2.

(iii) =⇒ (ii) Il suffit de prendre g = h.

(ii) =⇒ (i) Pour tout x ∈ E,

〈f(x), x〉 = 〈g∗ g(x), x〉 = 〈g(x), g(x)〉 > 0

Solution ..

. Pour un vecteur u non nul, on notera pu(x)la projection d’un vecteur x sur vect(u). On a

pu(x) =〈x, u〉‖u‖2 u et donc ‖pu(x)‖ =

| 〈x, u〉 |‖u‖ .

En s’inspirant de la méthode de Gram-Schmidt, onfait l’hypothèse de récurrence suivante :

HR(k) : il existe un vecteur non nul uk ∈vect(e1, . . . , ek) tel que puk(e1), . . . , puk(ek)aient la même norme notée Nk .

HR(1) est vraie puisqu’il suffit de prendre u1 =e1.On suppose HR(k) pour un certain k ∈ J1, n− 1K.Toujours par analogie avec la méthode de Gram-Schmidt, on recherche uk+1 sous la forme v =uk + λek+1. On a alors pour 1 6 i 6 k :

‖pv(ei)‖ =| 〈ei, uk + λek+1〉 |

‖v‖ =| 〈ei, uk〉 |‖v‖ =

‖uk‖Nk

‖v‖

et

‖pv(ek+1)‖ =| 〈ek+1, uk + λek+1〉 |

‖v‖ =|λ|‖ek+1‖2‖v‖

Il suffit donc de choisir λ = ±‖uk‖Nk

‖ek+1‖2. Le vecteur

uk+1 ainsi obtenu est non nul puisque uk est nonnul par hypothèse de récurrence.Par récurrence finie, HR(n) est vraie et le vecteurun répond aux conditions exigées par l’énoncé.

. Soit u un vecteur répondant aux conditions del’énoncé. Notons N la norme commune des vec-

teurs pu(e1), . . . , pu(en). On a donc N =| 〈ei, u〉 |‖u‖

pour 1 6 i 6 n.Comme la base

ei

‖ei‖

16i6n

est orthonormale, ona :

‖u‖2 =

nXi=1

〈ei, u〉2‖ei‖2

=

nXi=1

N2‖u‖2‖ei‖2

Comme u est non nul, on obtient :

N =

nX

i=1

1

‖ei‖2

− 12

Ceci prouve que N est indépendante de u et nousdonne bien une expression de N en fonction de‖e1‖, . . . , ‖en‖.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

Prouvons que 1.⇒ 2.

Lorsque p est une projection orthogonale de E, ona Im(idE − p) = Ker(p) = Im(p)⊥ donc, pour toutx et y dans E, p(x)⊥y − p(y) ie

〈p(x)|y〉 = 〈p(x)|p(y)〉.

Cette expression étant symétrique en (x, y), on a

〈p(x)|y〉 = 〈p(x)|p(y)〉 = 〈p(y)|p(x)〉 = 〈p(y)|x〉= 〈x|p(y)〉

Prouvons que 2.⇒ 3.

Soit x dansE. Appliquons le 2. à x et y = p(x). Ona

‖p(x)‖2 = 〈p(x)|p(x)〉 = 〈x|p(x)〉.ainsi, d’après l’inégalité de Cauchy-Schwarz,

‖p(x)‖2 6 ‖x‖ · ‖p(x)‖.

Si p(x) = 0, l’inégalité 3. est banalement vérifiée.Si p(x) 6= 0, ‖p(x)‖ > 0 et en divisant membre à

membre l’inégalité précédente, on aboutit à

‖p(x)‖ 6 ‖x‖.

Prouvons que 3.⇒ 1.

Soient x ∈ Im p, y ∈ Ker p et λ ∈ R. Si y = 0, alorsx⊥y.Supposons maintenant y 6= 0. D’une part,

‖p(x+ λy)‖2 = ‖x‖2

et d’autre part,

‖x+ λy‖2 = ‖x‖2 + 2λ〈x|y〉+ λ2‖y‖2

D’après 2., 2λ〈x|y〉+ λ2‖y‖2 > 0 pour tout λ ∈ R.Le discriminant de ce trinôme du second degré enλ est donc négatif, ce qui impose 〈x|y〉2 6 0 etdonc 〈x|y〉 = 0. On a donc x⊥y. On en déduit queIm p ⊥ Ker p et donc que p est une projection or-thogonale.

Solution ..

Notons πF la projection orthogonale sur F . Fai-sons d’une pierre deux coups en recherchant usous la forme

u = λπF (v).

On au+ λv = λ(v − πF (v)) ∈ F⊥.

de plus

‖u+ λv‖ = |λ| ‖v − πF (v)‖.Comme v 6∈ F , on sait que v − πF (v) 6= 0. On adonc deux choix posssibles :

λ = ± α

‖v − πF (v)‖.

Comme v − πF (v)⊥πF (v), on a

〈u+ λv, v〉 = 〈λ(v − πF (v)), v〉= 〈λ(v − πF (v)), v − πF (v)〉= λ‖v − πF (v)‖2

et l’on choisit donc

λ =α

‖v − πF (v)‖

afin d’avoir 〈u+ λv, v〉 > 0.

Solution ..

. On poser = rg(v1, . . . , vn) et on fixe une baseorthonormée b1, . . . , br de vect(v1, . . . , vn). Alorson peut écrire vℓ =

Pr

k=1λℓpbp . On trouve alors

〈vℓ, vk〉 =*

rXp=1

λℓpbp,

rXq=1

λkqbq

+=

rXp=1

λℓpλkp .

Cela n’est rien d’autre que le produit de la ℓ-èmeligne et de la k-ème ligne de la matrice Λ =λpq

∈Mnr(R) , autrement dit

〈vℓ, vk〉= ΛtΛ .

. Généralement, les colonnes d’un produitmatriciel AB sont des combinaisons linéaires

des colonnes de A, et les lignes des combinai-sons linéaires des lignes de B, d’où rg(AB) 6min(rg A, rg B). Donc

rg〈vℓ, xk〉

= rg(ΛtΛ) 6 rg(Λ) .

Or la matrice Λ représente la famille (v1, . . . , vn)dans la base b1, . . . , br, donc son rang estégal au rang de cette famille. On conclût querg G(v1, . . . , vn) 6 rg(v1, . . . , vn).

Montrons inégalité dans l’autre sens. Quitteà rénuméroter nous pouvons supposer quev1, . . . , vr sont linéairement indépendants. Nousallons montrer que les premières r lignes de la ma-trice de Gram sont linéairement indépendantes.Soient donc λ1, . . . , λr ∈ R tels que

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

rXℓ=1

λℓ (〈vℓ, v1〉, . . . , 〈vℓ, vn〉) = 0 .

Cela signifie que ∀ k ∈ J1, nK ,Pr

ℓ=1λℓvℓ, vk

=

0 . Alors le vecteurPr

ℓ=1λℓvℓ est orthogonal à

chacun des vecteurs v1, . . . , vn et donc aussi àtoute combinaison linéaire de ces vecteurs. Enparticulier il est orthogonal à soi-même et doncPr

ℓ=1λℓvℓ = 0, ce qui entraîne que tous les λℓ sont

nuls.

Si (v1, . . . , vn) est liée, alors la matrice de Gramest une matrice n×n de rang au plus n, et donc sondéterminant est nul. En revanche, si (v1, . . . , vn)est libre, alors r = n et la matrice Λ est de détermi-nant non-nul, et

g(v1, . . . , vn) = det(ΛtΛ) = detΛ dettΛ = (det Λ)2 > 0 .

. D’après ce qui précède le déterminant de Gramest strictement positif si les vecteurs sont linéaire-ment indépendants, et nul sinon. Dans le premiercas nous pouvons donner l’interprétation géomé-trique suivante. Nous savons du cours que la va-leur absolue du déterminant de Λ est le volumedu parallélépipède formé par v1, . . . , vn. Ainsipg(v1, . . . , vn) est le volume n-dimensionnel du

parallélépipède formé par v1, . . . , vn.La dimension de E peut être plus grande que n,même infinie.

. Dans R3 la situation se présente comme suit.

Si m = 1, alors le déterminant de Gram d’unseul vecteur u = (u1, u2, u3) est

g(u) = u21 + u2

2 + u23 .

Ainsipg(u) est la longueur (volume 1-

dimensionnel) du segment [0, 1] u.

Si m = 3, alors le déterminant de Gram detrois vecteurs u = (u1, u2, u3), v = (v1, v2, v3),w = (w1, w2, w3), est u1 u2 u3

v1 v2 v3w1 w2 w3

! u1 v1 w1

u2 v2 v2u3 v3 w3

! = u1 u2 u3

v1 v2 v3w1 w2 w3

2 .

Doncpg(u, v, x) est le volume (3-dimensionnel)

du parallélépipède

[0, 1]u + [0, 1]v + [0, 1]w .

Si m = 2, alors deux vecteurs (linéairement in-dépendants) u = (u1, u2, u3) et v = (v1, v2, v3)forment le parallélogramme [0, 1]u+ [0, 1]v et sonaire (volume 2-dimensionnel) est

pg(u, v) .

En effet on pose w =u ∧ v‖u ∧ v‖ . Ainsi

g(u, v) =

〈u, u〉 〈u, v〉〈v, u〉 〈v, v〉

= 〈u, u〉 〈u, v〉 0〈v, u〉 〈v, v〉 00 0 1

=

〈u, u〉 〈u, v〉 〈u,w〉〈v, u〉 〈v, v〉 〈v, w〉〈w, u〉 〈w, v〉 〈w,w〉

,Donc

pg(u, v) est le volume (3-dimensionnel) du

parallélépipède formé par u, v, w. Or ce volumeest l’aire du parallélogramme formé par u, v mul-tipliée par la “hauteur” w qui est de longueur 1.

u

v

w

Si n > 4, alors le déterminant de Gram de nvecteurs est nul, car ces vecteurs sont forcément li-néairement dépendants dans R3.

Remarque – Le volume d’un parallélépipède aveclongueurs a1, . . . , am devient maximal s’il est rec-tangle ; le volume est alors a1 · · · an. On déduit alorsl’inégalité

g(x1, . . . , xn) 6

nYℓ=1

‖xℓ‖2 .

Solution ..

On vérifie dans peine que les colonnes de Aforment une base orthonormale de R3 et quedetA = 1. Donc A est la matrice d’une rota-tion. Pour trouver son axe on résoud le systèmeAv = v ; on obtient que l’axe orienté est donné parv = (1, 0, 1). Pour déterminer l’angle de rotation αon prend un vecteur orthogonal à v, par exempleu = (0, 1, 0). Alors Au = 1

9(−4, 7, 4). On a alors

〈u,Au〉 = ‖u‖ ‖Au‖ cosα .

En remplaçant on obtient cosα = 79

, c’est-à-direα = ± arccos 7

9, où le signe est + si et seulement

si (v, u,Au) est une base directe. On calcule doncle signe du déterminant 1 0 1

0 1 0−4 7 4

= 1 1−4 4

> 0 .

Ainsi l’angle de rotation est arccos 79

.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Notons (e1, e2, e3) la base canonique de R3.Alors la matrice B induit la permutation e1 7→e3 7→ e2 7→ e1. On voit donc immédiatement qu’ils’agit d’une rotation dont l’axe orienté est donnépar e1 + e2 + e3 et d’angle −2π/3.

e1

e3

e2

Le cube est tourné atour de la diagonale.

Solution ..

. Les colonnes de la matrice M étant normées etdeux à deux orthogonales, la matrice étudié estorthogonale. Une simple application de la règlede Sarrus permet de conclure que le déterminantde f vaut 1 : f est donc une rotation. Détermi-nons son axe en résolvant le système S suivant,MX = X . . .

S ∼

−1 1

√6

1 −1 −√6

−√6√6 −1

.

Effectuons L2 ←− L2 + L1, L3 ←− L3 −√6L1

S ∼

−1 1

√6

0 0 00 0 −7

,

les solutions sont donc les vecteurs colinéaires auvecteur unitaire

#–a =e1 + e2√

2.

Le vecteur e3 est orthogonal à #–a et

f( #–e3) =

√3

2√2e1 −

√3

2√2e2 +

1

2e3

= cos(π/3)x+ sin(π/3) #–a ∧ #–x

f est donc la rotation d’axe #–a et d’angle π/3.

. Les colonnes de la matrice M étant normées etdeux à deux orthogonales, la matrice étudié est or-thogonale. Une simple application de la règle deSarrus permet de conclure que le déterminant def vaut −1 : −f est donc une rotation. Détermi-nons son axe en résolvant le système S suivant,−MX = X . . .

S ∼

−16 4 44 −1 −1−4 1 −17

!ainsi

S ∼

−4 1 14 −1 −1−4 1 −17

!Effectuons L2 ←− L2 + L1, L3 ←− L3 − L1

S ∼

−4 1 10 0 00 0 −18

!,

les solutions sont donc les vecteurs colinéaires auvecteur unitaire

#–a =e1 + 4e2√

17.

Le vecteur #–x = 9e3 est orthogonal à #–a et en notantθ l’angle de la rotation −f ,

−f( #–x ) = cos(θ) #–x + sin(θ) #–a ∧ #–x

D’où

cos(θ) =〈−f( #–x )| #–x 〉‖ #–x‖2 = −8

9

et

sin(θ) =〈−f( #–x )| #–a ∧ #–x 〉

‖ #–x‖2 =

√17

9> 0

−f est donc la rotation d’axe vect( #–a ) et d’angleθ = arccos(−8/9) et f est la composée de la ro-tation d’axe D = vect( #–a ) d’angle θ + π et de laréflexion par rapport au plan D⊥.

. Les colonnes de la matrice M étant normées etdeux à deux orthogonales, la matrice étudié est or-thogonale. Une simple application de la règle deSarrus permet de conclure que le déterminant de fvaut 1 : f est donc une rotation. PuisqueM est sy-métrique, f est de plus une symétrie orthogonale :f est donc un retournement. Déterminons l’axe def en résolvant le système S suivant, MX = X . . .

S ∼

−17 4 14 −2 41 4 −17

!.

Effectuons L1 ⇐⇒ L3,

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

S ∼

1 4 −174 −2 4−17 4 1

!,

puis L2 ⇐⇒ (L2 − 4L1)/18, L3 ←− L3 + 17L1

S ∼

1 4 −170 −1 40 72 18× 16

!,

et par L3 ⇐⇒ L3 + 72L1

S ∼

1 4 −170 −1 40 0 0

!,

les solutions sont donc les vecteurs colinéaires auvecteur unitaire

#–a =e1 + 4e2 + e3

3√2

.

f est donc le retournement d’axe #–a .

Solution ..

Les vecteurs# –

AA′,# –

BB′,# –

CC′ sont coplanaires si et seulement si

Det(# –

AA′,# –

BB′,# –

CC′) = 0.

Or,Det(

# –

AA′,# –

BB′,# –

CC′) = Det(# –

AO +# –

OA′,# –

BO +# –

OB′,# –

CO +# –

OC′),

et en développant ce déterminant par 3-linérarité, on obtient une somme de 8 déterminants parmi lesquels,

Det(# –

AO,# –

BO,# –

CO) = −Det(# –

OA,# –

OB,# –

OC) = −1, par antisymétrie et puisque (O,# –

OA,# –

OB,# –

OC) est unebase othonormée directe.

Det(# –

OA′,# –

OB′,# –

OC′) = 1, pour les mêmes raisons.

Les six autres termes du développement s’annulent deux à deux, par exemple :

Det(# –

AO,# –

BO,# –

OC′) = (# –

OA∧ # –

OB) ·# –

OC′ =# –

OC ·# –

OC′,

terme s’annulant avec le déterminant

Det(# –

OA′,# –

OB′,# –

CO) =# –

OC′ · # –

CO = −# –

OC′ · # –

OC.

AinsiDet(

# –

AA′,# –

BB′,# –

CC′) = 0

et les vecteurs# –

AA′,# –

BB′,# –

CC′ sont coplanaires.

Solution ..

On a

# –

AC ∧ # –

BC = (# –

AB +# –

BC)∧ # –

BC =# –

AB ∧ # –

BC

car #–∧ #– =#–

0 . Comme# –

AB⊥( # –

AB ∧ # –

BC), on endéduit que

(# –

AC ∧ # –

BC) · # –

AB = 0.

Solution ..

L’égalité#–x ∧ #–u = #–x ∧ #–v

est équivalente à#–x ∧( #–u − #–v ) =

#–

0 ,

i.e. #–x et #–u − #–v sont colinéaires. Il faut alors envi-sager deux cas.

Si #–u = #–v . Tous les vecteurs sont solutions.

Si #–u 6= #–v . L’ensemble des solutions est

vect( #–u − #–v ).

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. On note #–u = (x, y, z). On a #–u ∧ #–

i =(0, z,−y), #–u ∧ #–

j = (−z, 0, x), et #–u ∧ #–

k =(y,−x, 0), d’oùα = z2+y2+z2+x2+y2+x2 =2‖ #–u‖2 = 2.

. Si les trois normes étaient strictement infé-

rieures à

É2

3, alors α serait strictement infé-

rieur à 3.2

3= 2, ce qui contredit le résultat

précédent.

Solution ..

. On a §x+ y = 1

2x+ y + z = 3⇐⇒

§x+ y = 12x+ y = 3− z

⇐⇒ x =1

−1

1 13− z 1

et y =1

−1

1 12 3− z

⇐⇒

§x = 2− zy = −1 + z

⇐⇒ ∃λ ∈ R

(x = 2− λy = −1 + λz = λ

Donc, D est une droite et D = A+ vect( #–u ) où

A(2,−1, 0)R et #–u (−1, 1, 1)R.

Ensuite, le vecteur# –

AM0 a pour coordonnées (−3, 2, 0), et donc le vecteur# –

AM0 ∧ #–u a pour coordonnées2 10 1

,− −3 −10 1

, −3 −12 1

ou encore (2, 3,−1). Par suite,

d(M0,D) =

p22 + 32 + (−1)2p(−1)1 + 12 + 12

=

É14

3.

. puisque 3.1 + (−1).2 + 1.(−1) = 0, D est bien l’intersection de deux plans perpendiculaires et si M0 estle point de coordonnées (1, 1, 1),

d(M0,D) =

Ê3− 1 + 1− 1√

11

2

+

1 + 2− 1− 5√

6

2

=

É41

22.

. Soient P et P′ les plans d’équations respectives x+ y + z = 0 et −x+ 2y = 4 et

#–n(1, 1, 1)R et #–n ′(−1, 2, 0)R.

Puisque #–n et #–n ′ ne sont pas colinéaires, D est bien une droite, mais puisque #–n · #–n ′ = 1, P et P′ ne sont

pas perpendiculaires. On sait qu’un plan distinct de P et contenant D a une équation de la forme

(x+ y + z) + λ(−x+ 2y − 4) = 0,

ou encore(1− λ)x+ (1 + 2λ)y + z − 4λ = 0, λ ∈ R.

Ce plan est perpendiculaire à P si et seulement si

1.(1− λ) + 1.(1 + 2λ) + 1.(1) = 0,

ou encore λ = −3. On obtient ainsi le plan

P1 : 4x− 5y + z + 12 = 0.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Espaces euclidiens et hermitiens

Comme D = P ∩P1 et que P⊥P1,

d(M0,D) =

Ê1 + 1 + 0√

3

2

+

−1 + 2− 4√

5

2

=

É47

15.

Remarque – Il est nettement plus efficace de chercher des équations paramétriques de D ...

Solution ..

Le plan médiateur de [AB] a pour équation x+y−2z = 0.Le plan médiateur de [AC] a pour équation 2x −y − z = 0.Le plan médiateur de [AD] a pour équation y +2z = 3.

La résolution su système

8<:x+ y − 2z = 0

2x− y − z = 0

y + 2z = 3

conduit à la seule solution

8<:x = 1

y = 1

z = 1

. Le centre

de la sphère est donc Ω(1, 1, 1). Le rayon est, parexemple, ΩA =

√5.

Solution ..

Réponse : Il s’agit d’une boule (ouverte ou fermée).

Soit C un sous-ensemble de l’espace euclidien.Lemme : Si C est invariant par rapport à L et L′ etsi r est une rotation d’axe L alors C est aussi inva-riant par rapport à r(L′).Preuve : simple vérification laissée au lecteur.

Maintenant supposons C borné non-vide et inva-riant par rapport à deux axes distinctes D et D′.

Montrons que D et D′ sont concourantes. Sup-posons par l’absurde que la distance entre D et D′

est strictement positive. Alors il existe deux pointsdistincts P ∈ D,P ′ ∈ D′ tels que la droite (PP ′)est perpendiculaire à D et D′. Notons D′′ l’imagede D par la rotation d’angle π et d’axe D′. AlorsD′′ est perpendiculaire à (PP ′) et passe par le

point P ′ +−−→PP ′. Par une récurrence et à l’aide du

lemme on déduit que pour tout k ∈ Z il existe unaxe de symétrie de C perpendiculaire à (PP ′) et

passant par le point P ′ + k−−→PP ′. En particulier tout

point deC possède un symétrique aussi loin qu’onveut – contradiction avec le fait queC est borné.

Notons O le point d’intersection de D et D′, S2

la sphère unité de centre O, et N l’un des pointsd’intersection de S2 avec D. Par rotation autourde D′ le point N décrit un cercle K sur la sphèreS2. D’après le lemme on sait que (OT ) est un axede symétrie de C pour tout T dans K. Par rotationautour de D le cercle K décrit une calotte sur S2.D’après le lemme on sait que pour tout point T decette calotte la droite (OT ) est axe de symétrie deC.En continuant ainsi, on peut aggrandir cette ca-lotte pour finalement couvrir toute la sphère.

Par conséquence toute droite passant par O estaxe de symétrie de C. On en déduit que si P estdans C, alors C contient toute la sphère de centreO et de rayon OP . Cela montre que C est uneunion de sphères concentriques. Et si, en plus, Cest supposé convexe alors c’est une boule (ouverteou fermée).

Université Paris Sud agreg 2012 - 2013

Coniques

.. Exercices

Exercice ..

Le plan P est muni d’un repère orthonormé quel’on note R = (O, #–u , #–v ). Soit H l’hyperboleéquilatère d’équation xy = 1. Prouver que si H

contient trois points A,B et C, elle contient aussil’orthocentre du triangle ABC. (Le fait que lestrois hauteurs ont un point d’intersection com-mun, l’orthocentre, est admis).

H

A

BCH

Indication : Ecrire les équations de HA et HB , hau-teurs de ABC respectivement issues de A et B. Cal-culer les coordonnées deH en fonction de a, b et c puisétablir qu’elles vérifient l’équation de H .

Exercice ..

Soient des points A,B et P d’une hyperbole H .La parallèle à (AP ) menée par B coupe H en Q.La parallèle à (BP ) menée par Q coupe H en C.La parallèle à (AP ) menée par C coupe H en R.Enfin, la parallèle à (BP ) menée par R coupe H

en D.

Montrer que les points C etD sont indépendantsde P et que (AD) est parallèle à (BC).Indication : Ecrire des équations dans un repèreadapté.

Exercice ..

Soit H la courbe d’équationx2 − 4xy + y2 + x+ y + 1 = 0

dans un repère orthonormé direct R.

. Déterminer la nature et les caractérisitiques de H .

. Tracer H avec soin.

. Déterminer les tangente à H aux points d’intersection de H avec la première bissectrice de R.

www.mathoman.com Chapitre : Coniques

Indication : RAS.

Exercice ..

SoitE : 5x2 + 8xy + 5y2 +

√2(y − x) = 8.

. Déterminer la nature et les éléments caractéristiques de l’ellipse E .

. Tracer E avec soin.

. Déterminer l’équation de la tangente à E au point M0(2/3, 2/3)R.

. Quelle est l’aire du disque elliptique de frontière E ?

Indication : RAS.

Exercice ..

Soit P un polynôme réel de degré trois. Déterminer la nature de l’ensemble Γ d’équation cartésienne

P (x) = P (y).

Indication : On se ramène à P (x) = x3 + ax2 + bx. On trouve une droite, la réunion d’une droite et d’un point oula réunion d’une droite et d’une ellipse (selon les valeurs de a et b).

Exercice ..

On considère la parabole P d’équation y2 = 2px dans un repère orthonormé direct R = (O,#–

i ,#–

j ), et

un point A = (a2

2p, a)R de cette parabole. On considère deux points de la parabole M = (

m2

2p,m)R et

N = (n2

2p, n)R. On note α = m+ n et β = mn.

. Donner une condition nécessaire et suffisante sur α et β pour que les droites (AM) et (AN) soientorthogonales.

. Montrer que lorsque M et N varient sur la parabole (avec la condition d’orthogonalité précédente), ladroite (MN) passe par un point fixe Q à déterminer.

. A chaque point A de la parabole, on peut donc associer le point Q. Déterminer le lieu décrit par Qlorsque A varie sur la parabole.

Indication : Le point Q a pour coordonnéesa2 + 4p2

2p,−a

. Le lieu décrit par Q est la parabole d’équation y2 =

2p(x− 2p).

Exercice ..

On considère un plan Pθ incliné de θ ∈ [0, π/2[ par rapport à plan P . Déterminer la nature de la projectionorthogonale d’un cercle C de rayon R > 0 du plan Pθ sur le plan P .Indication : On trouve une ellipse.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

Exercice ..

Soit E , une ellipse de grand axe (AA′), de petit axe (BB′) et de centre O. Démontrer que la somme descarrés des aires des triangles OMA et OMB est constante lorsque M parcourt E .Indication : Travailler avec une équation réduite de l’ellipse.

Exercice ..

Soit H une hyperbole. Pour un point M ∈ H , on note H et H ′ ses projetés orthogonaux sur les deuxasymptotes de l’hyperbole. Montrer que le produit ‖ # –

MH‖ ‖# –

MH ′‖ est indépendant du point M .

Indication : Se placer dans le repère où l’hyperbole a pour équation réduitex2

a2− y2

b2= 1.

Exercice ..

Soit P une parabole de directrice D . Montrer que l’ensemble des points M du plan par lesquels passentdeux tangentes à P orthogonales entre elles est exactement la droite D .Indication : Se placer dans le repère R où la parabole a pour équation réduite y2 = 2px.

Exercice ..

Soit P la conique d’équation x2 = 2y dans un repère orthonormé direct (O,#–

i ,#–

j ) du plan.

. Préciser la nature de P , son ou ses foyers, sa ou ses directrices.

. Soit t ∈ R et Mt = (t, t2

2). Déterminer une équation de la tangente Tt à P en Mt ; préciser un vecteur

directeur de cette droite. Déterminer une équation de la droite Nt passant par Mt et perpendiculaire à Tt.

. Soit t ∈ R et la droite Dt = (t, u), u ∈ R. Déterminer la droite ∆t obtenue par symétrie orthogonalede Dt par rapport à Nt, et déterminer l’intersection de ∆t avec la droite δ = (0, u), u ∈ R (c’est-à-direl’axe (Oy)). Comment interpréter ce résultat ?

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Coniques

.. Solutions des exercices

Solution ..

Soient A,B et C trois points deux à deux distinctsappartenant à H , d’abscisses respectives a, b et c.Soit H l’orthocentre de ABC.

H

A

BCH

Les coordonnées du vecteur# –

BC sont

c− b, 1

c− 1

b

=c− bbc

(bc,−1) .

La droite (AH) étant orthogonale à ce vecteur, onen déduit (via le produit scalaire) une équation de(AH) :

(AH) : bc(x− a)− y + 1

a= 0.

En permutant circulairement a, b et c, on obtient :

(BH) : ac(x− b)− y + 1

b= 0.

Un calcul sans difficulté aboutit aux coordonnéesdu point d’intersection H entre (AH) et (BH) :

− 1

abc,−abc

.

Ces coordonnées vérifient l’équation xy = 1, doncH ∈ H car.

Solution ..

Voici une autre illustration de cette propriété.Cette fois, A et B sont sur la même branche del’hyperbole.

Puisque les transformations affines du plan en-voient des hyperboles sur des hyperboles et desdroites parallèles sur des droites parallèles on peutsupposer que l’hyperbole en question a pour équa-tion xy = 1 dans le système de coordonnées cano-niques de R2.

Notons les points sur l’hyperbole avec des ma-juscules et leurs abscisses, toutes non-nulles,avec la minuscule correspondante, de sorte queA = (a, 1/a), B = (b, 1/b), etc.

La condition de parallélisme (AP ) ‖ (BQ) se tra-duit en l’équation

(a− p)1

b− 1

q

= (b− q)

1

a− 1

p

,

qui devient, après simplification,

ap = bq.

De même les conditions (BP ) ‖ (QC) et (AP ) ‖(CR) et (BP ) ‖ (RD) sont équivalentes à

bp = qc, ap = cr, bp = rd.

Ainsi (ad)(pr) = (ap)(rd) = (cr)(bp) = (bc)(pr),d’où ad = bc ce qui signifie que (AD) ‖ (BC).Enfin, 1/q = b/(ap) et c = bp/q = b2/a. De mêmeon trouve d = bc/a. Autrement dit, les points C etD ne dépendent que de la position des points A etB.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. Le discriminant de P valant −3, H est du typehyperbole. Effectuons un changement de repèreorthonormé en posant : c = cos(θ) et s = sin(θ)avec θ ∈ R et

x = cx′ − sy′ , y = sx′ + cy′.

On trouve que l’équation de E dans le nouveau re-père R

′ est :

(c2 + s2 − 4cs)x′2 + (c2 + s2 + 4cs)y′2

−4(c2 − s2)x′y′ + (c+ s)x′ + (c− s)y′ + 1 = 0

En choisissant θ = π4

, on a c = s = 1√2

et donc :

E : −x′2 + 3y′2 +√2x′ + 1 = 0,

c’est-à-dire :

E :(x′ − 1/

√2)2

(p

3/2)2− y′2

(1/√2)2

= 1,

En notant Ω(1/√2, 0)R′ et R

′′ le repère obtenu entranslatant R

′ en Ω, on obtient l’équation :

E :x′′2

(p

3/2)2− y′′2

(1/√2)2

= 1.

On reconnaît l’hyperbolee de centre Ω, d’axe focal(Ωx′′), avec a =

p3/2 et b = 1/

√2.

. Voici :

. On trouve sans peine qu’un pointM(x, y)R ap-partient à la première bissectrice de R et à H si etseulement si

y = x et x2 − x− 1

2= 0.

On trouve donc deux points d’intersection :

M1(α, α)R et M2(β, β)R

α =1−√3

2, β =

1 +√3

2.

On trouve alors sans peine l’équation des tan-gentes T1 et T2 à H en M1 et M2 :

T1 : x+ y = 1−√3, T2 : x+ y = 1 +

√3.

Solution ..

. Le discrimant associé à l’équation de E vaut

δ = 52 − 42 = 9 > 0,

donc E est une conique du type ellipse : il s’agitdonc d’une ellipse, d’un cercle, d’un point ou del’ensemble vide. Effectuons un changement de re-père orthonormé en posant : c = cos(θ) et s =sin(θ) avec θ ∈ R et

x = cx′ − sy′ , y = sx′ + cy′.

On trouve que l’équation de E dans le nouveau re-père R

′ est :

(5c2 + 5s2 + 8cs)x′2 + (5c2 + 5s2 − 8cs)y′2

+8(c2 − s2)x′y′ +√2(s− c)x′ +

√2(c+ s)y′ = 8

En choisissant θ = π4

, on a c = s = 1√2

et donc :

E : 9x′2 + y′2 + 2y′ = 8,

c’est-à-dire :

E : 9x′2 + (y′ + 1)2 = 9,

En notant Ω(0,−1)R′ et R′′ le repère obtenu en

translatant R′ en Ω, on obtient l’équation :

E : x′′2 +y′′2

32= 1.

On reconnaît l’ellipse de centre Ω, d’axe focal(Ωy′′), de demi grand-axe a = 3 et de demi petit-axe b = 1.

. Voici :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Coniques

. En appliquant la règle du dédoublement destermes, on trouve que la tangente à E en M0 estla droite d’équation :

6−√2

2

x+

6 +

√2

2

y = 8.

dans R.

. On a A = π × 3× 1 = 3π unités d’aire.

Solution ..

Quitte à diviser par le coefficient dominant de P ,on peut supposer P unitaire, i.e. de la forme

P (x) = x3 + ax2 + bx+ c, avec a et b réels.

Un point M(x, y)R appartient à Γ si et seulementsi P (x) = P (y), soit encore :

x3 + ax2 + bx = y3 + ay2 + by,

i.e.

(x− y)(x2 + xy + y2 + a(x+ y) + b) = 0

c’est-à-dire

x = y ou x2 + xy + y2 + a(x+ y) + b = 0.

La solution x = y correspond géométrique-ment à la première bissectrice ∆ du repère R.

Etudions la courbe d’équation

E : x2 + xy + y2 + a(x+ y) + b = 0.

Effectuons un changement de repère orthonorméen posant : c = cos(θ) et s = sin(θ) avec θ ∈ R et

x = cx′ − sy′ , y = sx′ + cy′.

On trouve que l’équation de E dans le nouveau re-père R

′ est :

(c2 + s2 + cs)x′2 + (c2 + s2 − cs)y′2 + (c2 − s2)x′y′

+a(c+ s)x′ + a(c− s)y′ + b = 0

En choisissant θ = π4

, on a c = s = 1√2

et donc :

E :3

2x′2 +

1

2y′2 + a

√2x′ + b = 0.

En notant Ω(−α√2/3, 0)R′ et R

′′ le repère obtenuen translatant R

′ en Ω, on obtient l’équation :

3

2x′′2 +

1

2y′′2 =

a2 − 3b

3.

Conclusion :

Si a2 < 3b, E = ∅ et Γ = ∆.

Si a2 = 3b, E = Ω et Γ = ∆ ∪ Ω.

Si a2 > 3b, E est une ellipse et Γ = ∆ ∪ E .

Solution ..

. En développant le produit scalaire# –

AM.# –

AN , onobtient la CNS suivante :

# –

AM.# –

AN = 0⇔ β+αa+a2 + 4p2 = 0.

. On montre sans peine que (MN) admet pouréquation cartésienne 2px−αy+ β = 0. Puisque lacondition d’orthogonalité précédente est vérifiée,cette équation équivaut à

2px− α(y + a) = a2 + 4p2.

On remarque alors que le point Q =

(a2 + 4p2

2p,−a)R vérifie cette équation pour tout

α ∈ R. Ainsi, lorsque la condition (AM) ⊥ (AN)est vérifiée, la droite (MN) passe toujours par cepoint Q.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

. Si on note x et y les coordonnées du point Qprécédent, on voit que y2 = a2 = 2px − 4p2 =2p(x − 2p). Ainsi Q appartient à l’ensemble P

d’équation cartésienne y2 = 2p(x − 2p). Cet en-semble est une parabole de paramètre p (plus pré-cisément c’est la parabole image de P par la trans-lation de vecteur 2p

#–

i ).Réciproquement, pour tout pointM = (x, y)R ap-

partenant à P′ on pose a = −y de sorte que x =

y2 + 4p2

2p=a2 + 4p2

2p, ainsiM = (

a2 + 4p2

2p,−a)R

est le point Q correspondant à A = (a2

2p, a)R.

En conclusion le lieu cherché est la parabole P′

d’équation y2 = 2p(x − 2p) (image de P par latranslation de vecteur 2p

#–

i ).

Solution ..

Soit Rθ = (O, #–u , #–v ) un repère orthnormé de Pθ

d’origine le centre O du cercle C dont l’axe desabscisses est parallèle à la droite P ∩Pθ . On noteO′ la projection orthogonale deO sur P . On consi-dère R

′θ un repère orthonormé de P d’origine O′

et dont l’axe des abscisses est parallèle à celui deRθ. On note M ′ le projeté orthogonal de M ∈ Pθ

sur P . Si M(x, y)Rθ, on a M ′(x′, y′)R′

θavec :

x′ = ±x et y′ = ± cos(θ)y.

On a donc M ∈ C si et seulement si

x2 + y2 = R2,

i.e.x′2

R2+

y′2

R2 cos2(θ)= 1.

La projection orthogonale de C sur Pθ est doncl’ellipse de centre O′, de demi grand-axe a = R,de demi petit-axe b = R cos(θ) et d’axe focal l’axedes abscisses de R

′θ .

Solution ..

Soit R un repère de centre O du plan dans lequelR admet une équation de la forme

x2

a2+y2

b2= 1, avec 0 < b < a.

On aA(a, 0)R etB(0, b)R. SoitM(x, y)R un pointde E . Les aires A1 et A2, respectivement de OMAet OMB, valent clairement

a|y|2

etb|x|2,

ainsi, la somme

A21 + A

22 =

a2y2 + b2yx2

4=a2b2

4

est bien indépendante du point M .

Solution ..

On sait que dans un repère orthonormé direct R

convenable (de base B), H admet une équation

de la forme :x2

a2− y2

b2= 1, et que les asymp-

totes sont les droites D et D′ d’équations respec-

tives y =b

ax et y = − b

ax.

Fixons un point M = (x, y)R appartenant à H .

Le vecteur# –

MH est orthogonal à D , donc coli-néaire au vecteur (−b, a)B (qui est normal à D) :il existe λ ∈ R tel que

# –

MH = λ(−b, a)B. Parailleurs le point H ∈ D , ce qui se traduit par

(y + λa) =b

a(x − λb). De cette condition on dé-

duit λ =bx− aya2 + b2

.

On raisonne de même pour le point H ′ : ilexiste λ′ ∈ R tel que

# –

MH ′ = λ(b, a)B, et comme

H ′ ∈ D′, on a la condition (y+λa) = − b

a(x+λb),

dont on déduit λ′ =−bx− aya2 + b2

.

Puisque ‖ # –

MH‖2 = λ2(b2 + a2) et ‖# –

MH ′‖2=

λ′2(b2 + a2), on déduit des valeurs trouvées pourλ et λ′ que :

‖ # –

MH‖2‖# –

MH ′‖2=

(bx− ay)2(a2 + b2)2

(−bx− ay)2(a2 + b2)2

(a2 + b2)2

=(b2x2 − a2y2)2

(a2 + b2)2

Or par hypothèse M ∈ H donc b2x2 − a2y2 =a2b2. En conclusion, pour tout point M de H , onobtient :

‖ # –

MH‖‖# –

MH ′‖ = a2b2

a2 + b2

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Coniques

Solution ..

On sait qu’il existe un repère orthonormé direct R

(de base B) dans lequel P admet une équation dela forme : y2 = 2px, et que la directrice D admetpour équation x = −p/2 dans ce repère. Notons El’ensemble des points cherché.

Vérifions dans un premier temps que E ⊂ D .Soit M = (x, y)R un point de E. Notons T0 etT1 les deux tangentes à P passant par M . Si onnote M0 = (x0, y0)R (resp. M1 = (x1, y1)R) lepoint d’intersection de T0 (resp. T1) avec P , onsait que T0 (resp. T1) admet pour équation y0y =p(x0 + x) (resp. y1y = p(x1 + x)). Un vecteur nor-mal de T0 (resp.T1) est donc # –n0 = (p,−y0)B (resp.# –n1 = (p,−y1)B), ainsi la condition d’orthogona-lité se traduit par la relation suivante :

T0 ⊥ T1 ⇐⇒ # –n0 · # –n1 = 0 ⇐⇒ y0y1 = −p2(.)

Il s’agit de vérifier que M ∈ D , donc que x = −p2

.

M étant défini comme T0 ∩ T1, il suffit de vérifierque le système composé par les deux équations deT0 et T1 est compatible avec x = −p

2, c’est-à-dire

que y0y = p(x0 − p2) et y1y = p(x1 − p

2) sont com-

patibles. En utilisant que x0 =y202p

et x1 =y212p

(puisque M0 et M1 appartiennent à P) ainsi quela condition (.), ceci équivaut à :

p

y0(y202p− p

2) =

p

y1(y212p− p

2) ⇐⇒ p

2(y1 − y0) = y0y1

2p(y0 − y1)

⇐⇒ y1 − y0 = y1 − y0

d’où le résultat.

Réciproquement soit M = (x, y)R un pointde la directrice D , c’est-à-dire tel que x = −p

2.

Nous allons montrer qu’il existe deux pointsM0 =

(y20

2p, y0)R etM1 = (

y21

2p, y1)R de P tels que les tan-

gentes T0 et T1 à P en ces points se coupent ortho-gonalement enM . Nous avons vu que la conditiond’orthogonalité équivaut à y0y1 = −p2. Il s’agitdonc de montrer qu’il existe y0 vérifiant les deuxconditions suivantes :8><>: yy0 = p(

y202p− p

2) =

y202− p2

2

−y p2

y0= p(

y212p− p

2) =

p4

2y20− p2

2

On remarque qu’en multipliant la seconde équa-

tion pary0

2

p2, on obtient −yy0 =

p2

2− y20

2, c’est-

à-dire la première équation. Le système est doncéquivalent à l’unique équation du second degrésuivante :

y20 − 2yy0 − p2 = 0 . (.)

Le discriminant est ∆ = y2 + p2 > 0, il existe doncdeux solutions réelles.Remarque – Lorsque y = 0, c’est-à-dire lorsqueM

est le point H projeté orthogonal de F sur D , les solu-tions de (.) sont y0 = p et y1 = −p, correspondant àx0 = x1 =

p

2: on retrouve un cas particulier connu, à

savoir que les tangentes aux points de P de même abs-cisse que le foyer se coupent à angle droit au point Hdéfini ci-dessus.

Solution ..

. On sait que P est la parabole d’axe focal (Oy),de foyer F = (0, 1

2) et de directrice D d’équation

y = − 12

.

. On sait par la règle de dédoublement destermes que Tt admet pour équation : tx = y + t2

2,

i.e. tx− y − t2

2= 0. Ainsi un vecteur directeur de

Tt est #–ut = (1, t).La droite Nt admet #–ut comme vecteur normal etpasse par Mt, donc admet l’équation suivante :

(x− t)+ t(y− t2

2) = 0 ⇐⇒ x+ ty− t(1+ t2

2) = 0

Un vecteur directeur de Nt est #–vt = (t,−1).. Puisque Dt et Nt passent par Mt, la droite ∆t

passe aussi par Mt. De plus la droiteDt étant diri-gée par

#–

j , un vecteur directeur de ∆t est s(#–

j ) oùs est la symétrie orthogonale (vectorielle) par rap-port à la droite de vecteur directeur #–vt.Puisqu’on a #–ut =

#–

i + t#–

j et #–vt = t#–

i − #–

j , on ob-

tient facilement#–

j =1

t2 + 1(− #–vt + t #–ut). Si on pose

#–

j′ = − #–vt + t #–ut, on voit que s(#–

j′) = − #–vt − t #–ut =(−t, 1)− t(1, t) = (−2t, 1− t2).Ainsi la droite ∆t est dirigée par (−2t, 1 − t2) etpasse par Mt, donc admet pour équation :

(1−t2)(x−t)+2t(y− t2

2) = 0 ⇐⇒ (1−t2)x+2ty−t = 0

Si t = 0, on obtient l’équation x = 0, donc ∆0

est confondue avec l’axe des ordonnées δ.

Sinon, ∆t coupe δ en l’unique point de coor-données (0, t

2t) = (0, 1

2), c’est-à-dire le foyer F de

P .

Interprétation

On retrouve une propriété connue en optique :pour un miroir parabolique, tout rayon lumineuxissu d’une d’une droite parallèle à l’axe focal se ré-fléchit vers le foyer de la parabole.

Université Paris Sud agreg 2012 - 2013

Algorithmess

.. Exercices

Exercice ..

Ecrire un procédure qui donne le quotient et le reste de la division euclidienne de n ∈ N par m ∈ N∗.Indication :

Exercice ..

Une méthode efficace pour évaluer un polynôme a été proposée par William George Horner (1786-1837). Elle consiste à écrire le polynôme par une succéssion de termes linéaires imbriqués. Par exemple,

P = 1− 2X + 32X2 +X3 + 5X4 −X5

= 1 +X(−2 +X(32 +X(1 +X(5−X)))).

. Calculer de tête P (6) dans l’exemple ci-dessus.

. Charger le package > with(PolynomialTools):

Pour un polynôme P en X la commande degree(P,X) donne son degré et CoefficientList(P,X) la listede ses coefficients.Tester ces commandes sur l’exemple ci-dessus.

. Ecrire une procédure Horner qui à un couple (P, a) formé d’un polynôme et d’un nombre associe lavaleur P (a) suivant la méthode de Horner.

Exercice ..

Soient x1, . . . , xn des réels distincts deux à deux et y1, . . . , yn des réels quelconques. On rappelle qu’il existeun unique polynôme P (« polynôme d’interpolation ») tel que

deg(P ) < n et ∀ j ∈ J1, nK : P (xj) = yj .

Lagrange proposa la formule suivante pour ce polynôme d’interpolation.

P =

nXj=1

yjQj où Qj :=Y

k∈J1,nK\j

X − xk

xj − xk.

. Question sans Maple : Que vaut Qj(xi) ? En déduire la formule de Lagrange.

. Ecrire une procédure ProdQ qui donne le polynômeQj . Cette procédure prendra comme arguments uneliste et un nombre entier. Testez

> ProdQ([a,b,c],1); ProdQ([a,b,c],3);

www.mathoman.com Chapitre : Algorithmess

. Ecrire une procédure Lagrange qui donne le polynôme d’interpolation P . Cette procédure prendracomme arguments deux listes (celle des xj et celle des yj ). Testez

> Lagrange([0,1,2,3],[0,3,1,3]);

Le résultat devrait être le même qu’avec la commande Maple PolynomialInterpolation.

Indication :

Exercice ..

Soient x1, . . . , xn des réels distincts deux à deux et y1, . . . , yn des réels quelconques. On rappelle qu’il existeun unique polynôme P (« polynôme d’interpolation ») tel que

deg(P ) < n et ∀ j ∈ J1, nK : P (xj) = yj .

Newton proposa la forme suivante pour ce polynôme d’interpolation,

(∗) P = λ1+λ2(X − x1)

+λ3(X − x1)(X − x2) + · · ·+λn(X − x1)(X − x2) · · · (X − xn−1)

ou encore

P =

nXj=1

λjPj où Pj :=

j−1Yk=1

(X − xk).

. Question sans Maple. On détermine les coefficients λ1, . . . , λn en évaluant (∗) successivement enx1, . . . , xn. Trouver ainsi le polynôme d’interpolation P de degré au plus 2 tel que

P (1) = 2, P (2) = 0, P (4) = 2.

. Ecrire une procédure récursive ProdP qui donne le polynôme Pj . Cette procédure prendra comme ar-guments une liste et un nombre entier. Testez

> ProdP([a,b,c],1); ProdP([a,b,c],2);

ProdP([a,b,c],3);

. Ecrire une procédure Newton qui donne le polynôme d’interpolationP . Cette procédure prendra commearguments deux listes (celle des xj et celle des yj). Testez

> Newton([0,1,2,3],[0,3,1,3]);

Le résultat devrait être le même qu’avec la commande Maple PolynomialInterpolation.

Indication :

Exercice ..

Soit b > 1 un nombre entier. Tout n ∈ N se laisse représenter en base b :

n =

mXk=0

qkbk , qk ∈ J0, b− 1K , qm 6= 0.

Cette écriture est unique et on utilise la notation n = [bm, . . . , b1, b0]b. Par exemple 32 = [1, 0, 1, 2]3 =[3, 2]10.

. Calculs sur papier (sans Maple) :

.a. Calculer [2, 1, 0, 1, 2]3.

.b. Ecrire 100 en base 3, puis en base 4.

. Ecrire une procédure Maxi qui prend comme argument un couple d’entiers (n, b) avec n > 0 et b > 1 etrenvoie l’unique m ∈ N vérifiant bm 6 n < bm+1.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Exercices

. Ecrire une procédure BaseEntier rendant, en forme de liste, la représentation d’un entier n > 0 en baseb > 1.(Indication : vous pouvez utiliser les commandes irem et iquo ainsi que la procédure Maxi.)

Exercice ..

On peut calculer une valeur approchée de π par la méthode Monte-Carlo.

(0, 0) (1, 0)

(0, 1) (1, 1)

. Question sans Maple : On choisit au hasard un point (x, y) dans le carré [0, 1]2 et on note p la probabilitéqu’il se trouve à l’intérieur du quart de cercle donné par x2 + y2 < 1. Combien vaut p ?

L’idée de la méthode Monte-Carlo est la suivante : Lorsqu’on fait n fois l’expérience ci-dessus, la proportiondes points qui tombent à l’intérieur du quart de cercle tend vers p quand n→∞.

. Chercher des renseignements sur la commande rand. Puis écrire une procédure ApproxPi qui prendcomme argument un nombre naturel n et qui calcule une approximation de π par la méthode Monte-Carlo.Tester pour n = 10000.

Exercice ..

Revisitons la multiplication !

. Algorithme classique du bon élève.3 6 × 5 4

1 4 4+ 1 8 0

= 1 9 4 4

Combien de multiplications élémentaires (c’est-à-dire entre nombres à 1 chiffre) sont nécessaires pour cal-culer le produit de deux nombres à n chiffres ?

. Méthode du cancre.3 6 × 5 41 8 1 0 89 2 1 64 4 3 22 8 6 4

+ 1 1 7 2 8

= 1 9 4 4

Dans la colonne gauche on prend toujours la moitié en arrondissant, si nécessaire, vers le bas ; à droite onprend toujours le double. Puis on supprime les lignes dont le nombre dans la colonne de gauche est pair eton additionne ce qui reste à droite (en grisé).

.a. Pourquoi la méthode fonctionne-t-elle ?

.b. La multiplication est commutative, mais les deux colonnes jouent des rôles différents. Quel facteurmettriez-vous à gauche ?

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Algorithmess

Exercice ..

Suite à l’exercice précédent nous poursuivons avec une méthode de multiplication découverte en 1962 parle mathématicien russe Anatolii Alexevich Karatsuba (1937-2008).Toujours sur l’exemple 36× 54 on sépare chaque facteur en deux blocs (en grisé et en noir) : 36× 54 ; puison effectue les multiplications suivantes :

A = 3× 5 = 15

B = 6× 4 = 24

C = (3 + 6) × (5 + 4) − A−B = 81− 15− 24 = 42 .

Le résultat est ensuite

36× 54 = A× 102 + C × 10 +B

= 1500 + 420 + 24 = 1944 .

. Utilisez la méthode de Karatsuba pour calculer 3116× 1014 . (Indication : A× 10? + C × 10? +B.)

. Pourquoi la méthode fonctionne-t-elle en général ? Vous pouvez supposer que les deux facteurs ont lemême nombre n de chiffres et que n est pair.

. En réitérant la méthode de Karatsuba on obtient un algorithme. Par exemple, pour calculer le produitde deux nombres à huit chiffres on multiplie les blocs à quatre chiffres, qu’on décompose à leur tour enblocs à deux chiffres, etc.Prouver que, pour calculer ainsi le produit de deux nombres à n chiffres, environ n1,58 multiplicationsélémentaires sont nécessaires. L’algorithme de Karatsuba est-il alors plus rapide ou plus lent que la multi-plication classique (cf. exercice précédent) ?

(Indication : Pour obtenir des blocs de même taille on peut ajouter des 0 devant, en écrivant par exemple

23402 × 245 = 023402 × 000245 .

Ainsi on peut toujours se ramener au cas où le nombre des chiffres est une puissance de 2.)

Indication :

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

.. Solutions des exercices

Solution ..

Solution ..

. On trouve P (6) = 61.

. > P:=1-2*X+32*X^2+X^3+5*X^4-X^5:

degree(P,X); CoefficientList(P,X);

5

1,−2, 32, 1, 5,−1. Le polynôme de coefficients c1, c2, . . . , cn+1

s’écrit

P = c1+X(c2+· · ·+X(cn−1+X(cn+Xcn+1)) · · · ).

Pour calculer P (a) on a donc la récurrence sui-vante :• on multiplie cn+1 par a et on ajoute cn ;• on multiplie le résultat par a et on ajoute cn−1 ;

• on multiplie le résultat par a et on ajoute cn−2 ;etc.

On écrit donc un programme en forme de boucle.

> Horner:=proc(P,a) local C, y, k, n:

C:=CoefficientList(P,X):

n:=degree(P,X):

y:=C[n+1]:

for k from 1 to n

do y:=C[n+1-k]+a*y

od:

end proc:

> Horner(1-2*X+32*X^2+X^3+5*X^4-X^5,6);

61

Solution ..

. On a Qj(xi) = δij . Comme deg(Qj) = n − 1le polynôme P =

Pn

j=1yjQj est de degré au plus

n− 1 ; il vérifie pour tout i ∈ J1, nK

P (xi) =

nXj=1

yjQj(xi) =

nXj=1

yjδij = yi.

Cela prouve la formule de Lagrange.

.

> ProdQ:=proc(L,j) local Q,k,F:

Q:=1:

for k from 1 to nops(L)

do

if k<>j then Q:=Q*(X-L[k])/(L[j]-L[k])

fi: Q:

od: end:

> ProdQ([a,b,c],1); ProdQ([a,b,c],3);

(X − b)(X − c)(a− b)(a− c) ,

(X − a)(X − b)(c− a)(c− b)

.

> Lagrange:=proc(L,K) local P,j:

P:=0: for j from 1 to nops(L)

do P:=P+K[j]*ProdQ(L,j)

od: expand(P): end:

> Lagrange([0,1,2,3],[0,3,1,3]);

17

2X − 7X2 +

3

2X3

> with(CurveFitting):

PolynomialInterpolation([0,1,2,3],[0,3,1,3],X);

17

2X − 7X2 +

3

2X3

Solution ..

. On cherche P sous la forme

P = λ1 + λ2(X − 1) + λ3(X − 1)(X − 2).

On évalue cette égalité succéssivement en 1, 2, 4 eton trouve

λ1 = P (1) = 2,

λ2 = P (2)− λ1 = −2,λ3 = (P (4)− λ1 − 3λ2)/6 = 1.

Ainsi

P = 2−2(X−1)+(X−1)(X−2) = X2−5X+6.

.

> ProdP:=proc(L,k) :

if k=1 then RETURN(1)

else RETURN(ProdP(L,k-1)*(X-L[k-1])) fi:

end proc:

> ProdP([a,b,c],1); ProdP([a,b,c],2);

ProdP([a,b,c],3);

1, X − a, (X − a)(X − b)

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Algorithmess

. On a λ1 = y1. Supposons λ1, . . . , λm−1 connus.Alors λm est l’unique solution de l’équation d’in-connu λ,

ym =

m−1Xj=1

λjPj(xm) + λPm(xm),

qu’on peut résoudre car Pm(xm) 6= 0.

> Newton:=proc(L,K) local P,j,a:

P:=0:

for j from 1 to nops(L)

do

a:=solve(subs(X=L[j],P+b*ProdP(L,j)=K[j]),b):

P:=P+a*ProdP(L,j):

od: expand(P): end proc:

> Newton([0,1,2,3],[0,3,1,3]);

3

2X3 − 7X2 +

17

2X

> with(CurveFitting):

PolynomialInterpolation([0,1,2,3],[0,3,1,3],X);

17

2X − 7X2 +

3

2X3

Solution ..

. On trouve [2, 1, 0, 1, 2]3 = 194 et

100 = 1× 34 + 2× 32 + 1× 30 = [1, 0, 2, 0, 1]3

= 1× 43 + 2× 42 + 1× 41 = [1, 2, 1, 0]4 .

. On commence une boucle sur m puis on l’aug-mente tant qu’on n’a pas bm 6 n < bm+1. On peutdonc utiliser

while not(b^m<=n and n<b^(m+1))

Vu que A ∩ B = A ∪B cela est équivalent à

while b^m>n or n>=b^(m+1)

Enfin, la seule condition n>=b^(m+1) suffira :

> Maxi:=proc(n,b) local m:

m:=0: while n>=b^(m+1) do m:=m+1 od: m:

end proc:

> Maxi(26,3); Maxi(27,3); Maxi(2,3);

2, 3, 0

C’est pour assurer que le programme sort quelquechose aussi dans le cas n < b (boucle vide) qu’on afait suivre la boucle par l’affichage de la valeur dem.

.

> BaseEntier:=proc(n,b) local r,m,k,L:

r:=n: m:=Maxi(n,b): L:=NULL:

for k from 0 to m do

L:=L,iquo(r,b^(m-k)): r:=irem(r,b^(m-k)):

od: [L]:

end proc:

> BaseEntier(194,3); BaseEntier(194,10);

[2, 1, 0, 1, 2], [1, 9, 4]

Solution ..

. Evidemment p =π

4.

. On fait une boucle où n est le nombre de essais de points et chaque fois qu’un point tombe dans le quartde cercle on incrémente le nombre s de succès par 1.

> ApproxPi:=proc(n) local k,s,x,y;

s:=0:

for k from 1 to n

do

x:=rand()/10^12: y:=rand()/10^12:

if x^2+y^2<1 then s:=s+1 fi:

od: evalf(4*s/n):

end proc:

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Solutions des exercices

Solution ..

. Avec l’algorithme classique il faut effectuer n2

multiplications élémentaires.

. .a. Nous formons le produit u × v des deuxnombres dans une ligne u v et le comparons auproduit dans la ligne suivant.• Si u est pair, les deux lignes consécutifs sont

u vu/2 v × 2

On voit donc que le produit ne change pas d’uneligne à l’autre.

• Si u est impair, il faut arrondir u/2, donc lesdeux lignes consécutifs sont

u vu/2− 1/2 v × 2

Ici le produit n’est plus le même dans les deuxlignes. Mais si on additionne v au produit dansla seconde on obtient le produit dans la pre-mière.

Supposons pour un instant que le premier facteurdu produit à calculer est une puissance de deux.Dans ce cas on peut toujours diviser par 2 sans ar-rondir, donc le produit reste le même pour toutesles lignes. En particulier il est égal au nombre quise trouve à coté du 1 de la dernière ligne.Et dans le cas général, s’il fallait arrondir quelquepart, on comprense, d’après ce qu’on vient de voir,en ajoutant tous les nombres à droite d’un nombregauche impair.

.b. Pour minimiser le nombre d’étapes on écrit àgauche le facteur plus petit.

Solution ..

. On obtient

A = 31× 10 = 310

B = 16× 14 = 224

C = (31 + 16)× (10 + 14)− A−B= 1128 − 310 − 224 = 594

et ensuite

3116× 1014 = A× 104 + C × 102 +B

= 3100000 + 59400 + 224 = 3159624 .

. Quitte à ajouter des zéros devant les facteurs aet b on peut supposer qu’ils ont le même nombre nde chiffres, et que ce nombre est pair, n = 2k. Onpeut alors écrire, avec α, α′, β, β′ ∈ J0, 10k − 1K ,

ab = (α× 10k + α′)(β × 10k + β′)

= αβ × 102k + (αβ′ + α′β)× 10k + α′β′ .

Pour conclûre il suffit de de remarquer que

A = αβ

B = α′β′

C = αβ′ + α′β = (α+ α′)(β + β′)− αβ − α′β′ .

. Quitte à ajouter des zéros devant les facteurs aet b on peut supposer que n est une puissance de2, c’est-à-dire n = 2k.• Dans la première étape de l’algorithme on fait

3 multiplications d’entiers dont le nombres dechiffres est n/2 = 2k−1.

• Dans la seconde étape de l’algorithme on fait32 multiplications d’entiers dont le nombres dechiffres est n/4 = 2k−2.

• En fin de compte on effectue 3k multiplicationsélémentaires.

Puisque n = 2k on a k = ℓn n/ ℓn 2, d’où

3k =3ℓn n

1ℓn 2

=nℓn 3

1ℓn 2

= nℓn 3ℓn 2 ≈ n1,58 .

L’algorithme de Karatsuba présente une grandeéconomie de calcul par rapport à l’algorithme clas-sique. En effet si n est très grand, n1,58 est beau-coup plus petit que n2.

Remarque –Et qu’en est-il des additions, elles necomptent pas ? Si ! Dans le cas de l’algorithme clas-sique on voit que le nombre d’additions élémentaires estde l’ordre n2. Le nombre total d’opérations élémentairesest donc toujours de l’ordre n2. L’algorithme de Karat-suba est mieux, car le nombre d’additions élémentairesest d’ordre n, ce qui est négligeable devant n1,58.

Université Paris Sud agreg 2012 - 2013

Corrigé agrégation interne 2002 épreuve 1

Préambule. La valence est bien définie car toute partienon-vide de N possède un plus petit élément.

. Notons A le première affirmation et B laseconde.

Pour prouver ¬A =⇒ B, supposonsqu’il n’existe pas d’élement de A qui divisetous les éléments de A. Il existe b ∈ A, b 6= 0,tel que val(A) = st(b). D’après hypothèse bne divise pas tous les éléments de A. Il existedonc a ∈ A tel que b ne divise pas a. Pourle reste r de cette division euclidienne on ast(r) < st(a). Ainsi val(A ∪ r) < val(A).

Pour prouver A ∧ B est impossible, sup-posons qu’il existe r1 dans A qui divise tousles éléments de A et qu’il existe r ∈ E quiest le reste de la division euclidienne d’una ∈ A \ 0 par un b ∈ A \ 0 et tel queval(A∪r) < val(A). Puisque r1 divise a et bil divise aussi r. En particulier st(r1) 6 st(r).C’est une contradiction avec

st(r1) > val(A) > val(A ∪ r) = st(r).

On conclût que A est le contraire de B.

Remarque – Ne pas oublier de prouver qu’ils’agit d’un « ou » exclusif !

. En appliquant des opérations élémen-taires succéssives on arrive une suite d’en-sembles

A,

A ∪ r1,A ∪ r1, r2,A ∪ r1, r2, r3,

...

de valences strictement décroissantes.Puisque les valences sont dans N cette suitedoit forcément s’arrêter avec un ensemble dela forme

B = A ∪ r1, . . . , rn.D’après l’alternative de la question précé-dente il existe donc un élément de B qui di-vise tous les éléments de B. C’est élément estforcément rn car sinon, encore d’après l’alter-native, la suite des ensembles se serait arrêtéedéjà au rang précédent.

. A une unité de E près l’élément rn est égalà e. Pour prouver cela nous allons montrerque rn|e et que e|rn.

Puisque rn divise tous les éléments de Bet comme A ⊂ B, c’est en particulier un di-viseur commun des éléments de A. Donc pardéfinition du pgcd on a rn|e.

Le pgcd e divise tous les éléments de A.Par combinaison il divise donc aussi toutreste de la division euclidienne d’un élémentde A par un élément non-nul de A. Par ré-itération il divise donc tous les éléments deB ; en particulier e|rn.

. On peut faire

A =6, 10, 15 15 = 2 · 6 + 3

6, 10, 15 ∪ 3 10 = 3 · 3 + 1

B =6, 10, 15 ∪ 3, 1.L’ensemble final B n’est pas unique car on aaussi la suite suivante

A =6, 10, 15 10 = 1 · 6 + 4

6, 10, 15 ∪ 4 6 = 1 · 4 + 2

6, 10, 15 ∪ 4, 2 15 = 7 · 2 + 1

B =6, 10, 15 ∪ 4, 2, 1.

www.mathoman.com Chapitre : Corrigé agrégation interne 2002 épreuve 1

Première partie. C’est une proposition classique traitéedans le polycopié (cf. chapitre sur les déter-minants).Supposons que P est inversible dansMp,p(E). Alors il existe une matrice Q dansMp,p(E) telle que PQ = Ip. Alors

1 = det(Ip) = det(PQ) = det(P ) det(Q).

Puisque det(P ) et det(Q) sont des élementsde E cette équation prouve que ce sont desunités.Réciproquement supposons que det(P ) estune unité de E. Notons C la comatrice de P ;chaque coefficient deC se calcule, en tant quedéterminant, comme somme alternée de pro-duits de coefficients de P . Par conséquence Cest dans Mp,p(E). On a l’égalité

PC = CP = det(P ) Ip.

Autrement dit, det(P )−1C est l’inverse de Pet c’est une matrice dans Mp,p(E).

. On utilise les notations de l’énoncé.

Réflexivité : Il suffit de prendre pour P etQ les matrices identités.

Symétrie : si M ′ E≃M ′′ alors M ′′ = PM ′Q,

donc M ′ = P−1M ′′Q−1, d’où M ′′ E≃M ′.

Transitivité : si ME≃ M ′ et M ′ E≃ M ′′

alors M ′ = RMS et M ′′ = PM ′Q où R etP (resp. S et Q) sont des matrices inversiblesdans Mp,p(E) (resp. Mq,q(E)). Il est facile devoir, par exemple avec le critère de la ques-tion précédente, que RP (resp. SQ) est inver-sible dans Mp,p(E) (resp. Mq,q(E)). Puisque

M ′′ = PRMSQ cela prouve ME≃M ′′.

. i) Avec les notations habituelles :

A 7→ T pij(b)A Li ← Li + bLj

A 7→ AT qij(b) Cj ← Cj + bCi

A 7→ SpijA Lj ↔ Li

A 7→ ASqij Cj ↔ Ci

A 7→ D(u1, . . . , uq)A Lk ← ukLk, k ∈ J1, pKA 7→ AD(u1, . . . , uq) Ck ← ukCk, k ∈ J1, qK

Remarque – Ne pas rédiger des longues« preuves » de ces faits ! Ce sont des conséquencesévidentes et bien connues de la définition du pro-duit matriciel.

ii) Lorsqu’on prend dans la première lignedu tableau ci-dessous A = T p

ij(−b) on trouveque calculer le produit T p

ij(b)Tpij(−b) revient à

ajouter à la i-ème ligne de T pij(−b) sa j-ème

ligne multipliée par −b ; ainsi,

T pij(b)T

pij(−b) = Ip.

Donc T pij(b) est inversible d’inverse T p

ij(−b).De même on voit que Sp

ij est inversibleet est son propre inverse (involution) etque D(u1, . . . , uq) est inversible d’inverseD(u−1

1 , . . . , u−1q ).

iii) Pour les matrices des derniers quatretypes du tableau ci-dessus l’affirmation estévidente car ces opérations changent seule-ment les emplacement des termes deA ou lesmultiplient par des unités de E ; ces manipu-lations n’affectent évidemment pas le pgcd.Considérons une opération du permier type.Notons A′ = T p

ij(b)A. Puisque chaque termedeA′ est une combinaison linéaire des termesde A chaque diviseur commun des termes deA est aussi un diviseur commun des termesde A′ ; réciproquement on a A = T p

ij(−b)A′

et donc chaque diviseur commun des termesdes termes de A′ est un diviseur communde A. L’ensemble de diviseurs communs destermes de A est donc le même que celui destermes de A′. En particulier, les deux pgcdcoïncident. (Voir 4.v) pour une preuve plusdétaillé.)

. i) Plaçons-nous dans le cas où A ne vé-rifie pas la première condition de l’énoncé.Quitte à permuter des lignes ou des colonnesde A, opérations qui donnent une matriceE-équivalente à A, on peut supposer queval(A) = st(a). Par hypothèse a ne divise pasau moins l’un des trois autres éléments de lamatrice. Nous distinguons diverses possibili-tés.

a ∤ b. Alors b = qa + r avec st(r) < st(a).Dans ce cas on arrive par une seule opéra-tion élémentaire à une matrice B telle queval(B) < val(A) :

A =

?y×(−q) +

a b

c d

B =

a r

c d− qc

a ∤ c. Se traite comme le cas précedent.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Corrigé agrégation interne 2002 épreuve 1

a | b et a | c ; par conséquence a ∤ d.Alors b = qa et c = sa et d = ta + r avecst(r) < st(a). Dans ce cas on arrive par deuxopérations élémentaires à une matrice B telleque val(B) < val(A) :

A =

?y×(1−q) +

a qa

sa ta+ r

a a

sa (s− qs+ t)a+ r

←−

×(qs−s−t)

+

B =

a a

(qs− t)a r

Donc si A ne vérifie pas la première conditionde l’énoncé alors A vérifie la seconde. Pourvoir que ces deux conditions sont contrairesl’une de l’autre il faut montrer que A nepeut pas vérifier toutes les deux simultané-ment. Cela se montre comme dans le préam-bule : supposons que l’un des termes de A,par exemple a divise les trois autres. Doncson stathme minore les stathmes des troisautres, d’où val(A) = st(a), et a est le pgcd dea, b, c, d. Supposons en plus qu’il existe unematrice B comme dans la deuxième condi-tion. D’après la question précedente a estaussi le pcgc des termes de B. Or B contientun terme r non-nul dont le stathme est stricte-ment inférieur à a. Contradiction au fait quea|r.ii) Comme dans le préambule on montre quepar l’utilisation ré-itérée de l’alternative ontransforme A en une matrice E-équivalentedont l’un des termes divise les autres. Quitteà multiplier la ligne contenant ce terme parune unité, on peut dire que ce terme est lepgcd e1 des quatre termes. Quitte à permu-ter des lignes et les colonnes on peut sup-poser qu’il est à l’emplacement en haut àgauche comme indiquée dans la matrice Cdans l’énoncé. D’après la question 3.iii) l’élé-ment e1 est également le pgcd des termes deA.Puisque e1 divise ses deux voisins à droite eten dessous on transforme sans peine C, paropérations élémentaires, en la matrice D del’énoncé. Enfin, si e2 6= 0 il suffit de le « nor-maliser », par une opération de type D(1, u)avec une unité u de E.

Remarque – Ici je me suis permis d’aller plusvite. Si vous avez bien traité le point i) le correc-teur voit que vous avez compris la technique et

acceptera que vous ne donnez pas tous les détailsdu point ii) qui est similaire et plus simple.

iii) D’après 3.iii) le pgcd des termes de la ma-trice A et C et D est chaque fois le même ;il est donc égal à e1. En particulier e1 di-vise e2. Puisque A et D sont E-équivalentesil existe P,Q inversibles tels que D = PAQ.Par conséquence

e1e2 = det(D) = det(PAQ)

= det(P ) det(A) det(Q) = u det(A)

où u = det(P ) det(Q) est une unité de Ed’après la question 1.iii) L’élément e1 est déterminé de façonunique par la matrice A car c’est le pgcd deses termes. Pour montrer l’unicité de e2 soite′2 un élément vérifiant les mêmes proprié-tés. En particulier e1e2 = u det(A) et e1e′2 =u′ det(A)avec des unités u, u′. Il y a deux pos-sibilités.

e2 = 0. Donc det(A) = 0, et par consé-quence e1e′2 = 0. Puisque e1 6= 0 et que l’an-neau E est intègre on a e′2 = 0.

e2 6= 0. Alors det(A) 6= 0 et on a dans lecorps des fractions F

e′2e2

=e1e

′2

e1e2=u′

u= v ∈ U(E).

Ainsi e′2 = ve2. Dans le cas E = Z les élé-ments e2 et e′2 ont donc même valeurs ab-solue et d’après la condition supplémentaireimposée en ii) on déduit que e′2 = e2. Dans lecas E = K[X] les éléments e2 et e′2 diffèrentpar un facteur constant-non nul et d’après lacondition supplémentaire imposée en ii) ondéduit que e′2 = e2.

iv) Si A et A′ ont les mêmes facteurs in-variants alors elles sont toutes les deux E-équivalentes à la matrice diagonale

e1 00 e2

et

donc A et A′ sont E-équivalentes.v) Nous allons prouver l’indication del’énoncé. Soit P =

α βγ δ

une matrice inver-

sible de M2,2(E). Notons u = αδ−βγ ∈ U(E).Alors

det(PA) = det(AP ) = u det(A).

En calculant le produit

AP =

a bc d

α βγ δ

=

αa+ γb βa+ δbαc+ γd βc+ δd

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Corrigé agrégation interne 2002 épreuve 1

on voit que si g est un diviseur commun destermes deA alors g est également un diviseurcommun des termes de AP . Puisque la ma-trice P est inversible avec une inverse donttous les termes sont dans E on peut obtenirpar le même raisonnement : si g est un divi-seur commun des termes de AP alors g estégalement un diviseur commun des termesde A. Ainsi les termes de A et les termesde AP possèdent le même ensemble de di-viseurs communs, et en particulier le mêmepgcd.Pour la multiplication à gauche c’est ana-logue. Ainsi l’indication dans l’énoncé est dé-montrée.

Soient maintenant A etA′ deux matrices non-nulles dans M2,2(E) et E-équivalentes. Enparticulier elles ont le même rang. D’aprèsce qu’on vient de voir le pgcd e1 des termesde A est également celui des termes de A′.Si rg(A) = 1 alors e1 est leur facteur inva-riant. Supposons désormais que rg(A) = 2.Alors A resp. A′ possède les facteurs inva-riants (e1, e2) resp. (e1, e′2). On montre main-tenant exactement comme au iii) que e2 = e′2.

. Les facteurs invariants de ( 6 1010 15 ) sont

(1, 10) car

A =

?y×(−2) +

6 10

10 15

6 −210 − 5

←−

×(−3)

+6 −2− 8 1

←−

×2

+ ?y ×8+

−10 0

− 8 1

−10 0

0 1

| × (−1)

10 0

0 1

←−←−

D =

1 0

0 10

.

Les facteurs invariants de ( 6 1212 15 ) sont (3, 18)

car

A =

?y×(−1) +

6 12

12 15

?y ×(−4)+

6 6

12 3

−18 6

0 3

←−

×(−2)

+−18 0

0 3

| × (−1)

18 0

0 3

←−←−

D =

3 0

0 18

.

Les deux matrices, n’ayant pas les mêmes fac-teurs invariants, ne sont pas E-équivalentes.

Deuxième partieNous remarquons que le pgcd des termesd’une matrice ne dépend que de sa classe deE-équivalence ; autrement dit, le pgcd est unenotion qui passe au quotient par cette relationd’équivalence.De même nous observons que deux matricesE-équivalentes ont le même déterminant, àune unité de E près.Les démonstrations sont les mêmes que cellesexplicitées en haut dans le cas 2× 2.

. i) En s’inspirant du cas 2 × 2 nous allonsprouver qu’on a l’alternative• ou bien, un terme de la matrice divise tous

les autres,• ou bien, il existe une suite d’opérations élé-

mentaires qui transforme A en une ma-trice E-équivalente A1 telle que val(A1) <val(A).

La preuve que les deux conditions s’excluentmutuellement est la même que celle du cas2× 2.Quitte à passer par permutations de lignes oucolonnes à une autre matrice on peut suppo-ser que la valence de A est prise en l’élémenta11. Supposons que la première condition del’alternative en question n’est pas satisfaite.Alors il existe un élément de A qui n’est pasun multiple de a11. Quitte à encore permuterles lignes ou colonnes et sans bouger a11 onpeut encore supposer que cet élément est a12

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Corrigé agrégation interne 2002 épreuve 1

ou a21 ou a22. Maintenant, en se concentrantsur la sous-matrice 2 × 2 en haut à gauche,on prouve exactement comme dans la pre-mière partie de l’épreuve, qu’on est dans ladeuxième condition de l’alternative.Nous avons montré qu’il s’agit bien d’une al-ternative.

Ainsi on construit une suite de matricesA,A1, A2, . . ., toutes obtenues de A par opé-rations élémentaires, telles que val(A) >val(A1) > val(A2) > · · · > 0 ; cette suites’arrête forcément. Lorsque elle s’arrete avecla matrice An il existe, à cause de l’alterna-tice, un terme de An qui divise tous les autrestermes de An ; par une opération élémentairede troisième type on se ramène au cas oùe1 est le pgcd des éléments de An (et doncaussi de A). Par permutations de lignes oucolonnes on peut placer e1 en haut à gauche.Ensuite on « nettoye » grâce au pivot e1 tousles autres termes dans la première ligne et lapremière colonne.On vient de transformerA par opérations élé-mentaires en la matrice B de la forme del’énoncé.

Le rang d’une matrice diagonale en blocs estla somme des rangs des blocs diagonaux.Puisque e1 6= 0 on obtient rg(B) = 1+rg(A′).Et comme rg(B) = rg(A) = r on trouverg(A′) = r − 1.

ii) Il suffit d’itérer le processus entamé au i).

iii) On sait que P se transforme, par opéra-tions élémentaires, en une matrice C commedans le point ii). Autrement dit, il existe desmatrices L1, . . . , Ln et R1, . . . , Rm qui sontdes trois types élémentaires T p

ij(b) ou Spij ou

D(u1, . . . , up) avec uk ∈ U(E) et telles que

Ln · · ·L2L1 P R1R2 . . . Rm = C.

Puisque P est inversible on a rg(C) = p,d’où C = D(e1, . . . , ep). Il existe une unitéu ∈ U(E) telle que det(P ) = u det(C) =ue1 · · · ep. Puisque det(P ) ∈ U(E) on ae1 . . . ep ∈ U(E). Grâce au stathme il est im-médiat que si le produit de deux éléments deE est une unité, alors chacun des facteurs estune unité. Ainsi on prouve que e1 · · · ep−1 etep sont des unités et puis, par itération, quechaque ek est une unité. Cela montre que Cest du type D(u1, . . . , up). Au final

P = L−11 · · ·L−1

n C R−1m · · ·R−1

1 .

Puisque les inverses de L1, . . . , Ln etR1, . . . , Rm sont encore des matrices desmêmes trois types élémentaires, la preuveest achevée.

iv) C’est une conséquence immédiate des dé-finitions et du point précédent.

Remarque – On montre de la même manièreque le groupeGL(R) est engendré par les matricesdes trois types élémentaires (cf. polycopié).

. Même si ça n’est pas demandé, démon-trons la propriété admise concernant le pgcddes mineurs. Pour tout a ∈ E notons [a] laclasse de a modulo la relation d’équivalence« deux éléments sont équivalents si l’un estle multiple de l’autre par une unité ». NotonsNm(A) l’ensemble des classes des mineursd’ordre m de la matrice A.

Lemme. Soient A et B deux matrices E-équivalentes. Alors on aNm(A) = Nm(B). Enparticulier le pgcd des mineurs d’ordre m deA est le même que pour B.Preuve. D’après 2.iii) on peut transformer Aen B par des opérations élémentaires sur leslignes ou colonnes. Les opérations de typeLi ← Li+bLj ne changent pas le déterminantou mineur. Les opérations de type Lj ↔ Li

ou Lk ← ukLk, avec uk une unité, multiplientle déterminant ou mineur par une unité. Lamême propriété est vraie concernant les opé-rations sur les colonnes.

i) La matrice C étant la matrice diagonalediag(e1, . . . , er, 0, . . . , 0), tout mineur d’ordrem de C est soit nul soit de la forme±ei1ei2 · · · eim où 1 6 i1 < i2 < . . . < eim 6 r.En particulier e1e2 · · · er est l’un des mineursd’ordre m de C, et comme ei|ei+1, il divisetous les mineurs d’ordre m de C ; par consé-quent il est leur pgcd.

ii) Supposons que deux matrices

diag(e1, . . . , er, 0, . . . , 0),

diag(ε1, . . . , εr′ , 0, . . . , 0)

vérifient les conditions de l’énoncé. Alors r =rg(A) = r′. D’après la question précédentee1 et ε1 sont des pgcd des mineurs d’ordre1 de A, donc par normalisation e1 = ε1. En-suite e1e2 et ε1ε2 sont des pgcd des mineursd’ordre 2 de A, et par normalisation e1e2 =ε1ε2 ; puisque e1 = ε1 on en déduit e2 = ε2.Ainsi on montre successivement que ek = εkpour tout k ∈ J1, rK.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Chapitre : Corrigé agrégation interne 2002 épreuve 1

iii) Supposons que A et A′ sont E-équivalentes. Notons (e1, . . . , er) et(ε1, . . . , εr), où r = rg(A) = rg(A′), leursfacteurs invariants. D’après le lemme, pourtout k ∈ J1, rK, le pgcd des mineurs d’ordremdeA est le même que pour A′.Maintenant onmontre exactement comme dans la questionprécédente que ek = εk pour tout k ∈ J1, rK.Réciproquement supposons que A et A′ ontles mêmes facteurs invariants. Cela signifiequeA etA′ peuvent être transformées par desopérations élémentaires en la même matrice

C. En particulier AE≃ C et A′ E≃ C. Donc par

transitivité AE≃ A′.

iv)

A =

?y ?y ??y?yα−X 1 0

0 α−X 1

0 0 α−X

Ǒ ?y×(X−α) +

1 0 α−Xα−X 1 0

0 α−X 0

Ǒ

1 0 0

α−X 1 − (α−X)2

0 α−X 0

Ǒ←−

×(X−α)

+1 0 0

0 1 − (α−X)2

0 α−X 0

Ǒ←−

×(X−α)

+ ?y×(α−X)2 +

1 0 0

0 1 − (α−X)2

0 0 (α −X)3

Ǒ| × (−1)

1 0 0

0 1 0

0 0 (X − α)3

Ǒ

B =

?y ?yα−X 0 0

0 α−X 1

0 0 α−X

Ǒ←−←− ?y×(X−α) +

1 α−X 0

0 0 α−Xα−X 0 0

Ǒ

1 0 0

0 0 α−Xα−X − (α−X)2 0

Ǒ←−

×(X−α)

+ ?y ?y1 0 0

0 0 α−X0 − (α−X)2 0

Ǒ| × (−1)| × (−1)

1 0 0

0 X − α 0

0 0 (X − α)2

ǑLes matrices A et B ne sont pas K[X ]-équivalentes car leurs facteurs invariantes(1, 1, (X−α)3) respectivement (1, X−α, (X−α)2) ne sont pas les mêmes.

Université Paris Sud agreg 2012 - 2013

www.mathoman.com Corrigé agrégation interne 2002 épreuve 1

Lettres grecsen majuscules et minuscules

Alpha A α Nu N νBêta B β Xi Ξ ξGamma Γ γ Omicron O oDelta ∆ δ Pi Π πEpsilon E ǫ, ε Rhô P ρ, Dzêta Z ζ Sigma Σ σ, ςHêta H η Tau T τThêta Θ θ, ϑ Upsilon Υ υIota I ι Phi Φ φ, ϕKappa K κ Chi X χLambda Λ λ Psi Ψ ψMu M µ Omega Ω ω

Si vous ne voulez pas être ridicule le jour d’un oral apprenez-le ! Surprise : la lettre dite « i grec »ne fait pas partie de l’alphabet grec. . . c’est l’upsilon.

Université Paris Sud agreg 2012 - 2013