L'essentiel du cours de Mathématiques de Math SUP
Nombres complexe et Trigonométrie
modifier
On définit l'exponentielle d'un nombre complexe
z
=
x
+
i
y
{\displaystyle z=x+iy}
par :
e
z
=
e
x
e
i
y
=
e
x
(
cos
(
y
)
+
i
sin
(
y
)
)
{\displaystyle e^{z}=e^{x}e^{iy}=e^{x}(\cos(y)+i\sin(y))}
Si
z
{\displaystyle z}
est un nombre complexe non nul de module
r
{\displaystyle r}
et d'argument
θ
{\displaystyle \theta }
, on peut écrire
z
=
r
e
i
θ
=
r
(
cos
θ
+
i
sin
θ
)
{\displaystyle z=re^{i\theta }=r(\cos \theta +i\sin \theta )}
z
¯
=
r
e
−
i
θ
=
r
(
cos
θ
−
i
sin
θ
)
{\displaystyle {\bar {z}}=re^{-i\theta }=r(\cos \theta -i\sin \theta )}
L'intérêt de cette notation produit des propriétés de l'exponentielle complexe.
∀
(
a
,
b
)
∈
R
2
,
e
a
+
i
b
=
e
a
e
i
b
{\displaystyle \forall (a,b)\in \mathbb {R} ^{2},e^{a+ib}=e^{a}e^{ib}}
∀
(
a
,
b
)
∈
R
2
,
e
i
a
e
i
b
=
e
(
a
+
b
)
i
{\displaystyle \forall (a,b)\in \mathbb {R} ^{2},e^{ia}e^{ib}=e^{(a+b)i}}
∀
(
z
,
z
′
)
∈
C
,
e
z
+
z
′
=
e
z
e
z
′
{\displaystyle \forall (z,z')\in \mathbb {C} ,e^{z+z'}=e^{z}e^{z'}}
∀
z
∈
C
,
|
e
z
|
=
e
ℜ
(
z
)
{\displaystyle \forall z\in \mathbb {C} ,|e^{z}|=e^{\Re (z)}}
Propriétés usuelles du module et de l'argument
modifier
Déf : Conjugué
Module
|
z
|
=
ℜ
(
z
)
2
+
ℑ
(
z
)
2
{\displaystyle |z|={\sqrt {\Re (z)^{2}+\Im (z)^{2}}}}
z
z
¯
=
|
z
|
2
=
ℜ
(
z
)
2
+
ℑ
(
z
)
2
{\displaystyle z{\bar {z}}=|z|^{2}=\Re (z)^{2}+\Im (z)^{2}}
|
z
|
=
0
⇔
z
=
0
{\displaystyle |z|=0\Leftrightarrow z=0}
|
z
¯
|
=
|
z
|
{\displaystyle |{\bar {z}}|=|z|}
,
|
−
z
|
=
|
z
|
{\displaystyle |-z|=|z|}
.
.
.
{\displaystyle ...}
|
z
|
≥
|
ℜ
(
z
)
|
{\displaystyle |z|\geq |\Re (z)|}
et
|
z
|
≥
|
ℑ
(
z
)
|
{\displaystyle |z|\geq |\Im (z)|}
|
z
|
≥
|
ℜ
(
z
)
|
+
|
ℑ
(
z
)
|
{\displaystyle |z|\geq |\Re (z)|+|\Im (z)|}
|
z
z
′
|
=
|
z
|
|
z
′
|
{\displaystyle |zz'|=|z||z'|}
1
z
=
z
¯
|
z
|
2
{\displaystyle {\frac {1}{z}}={\frac {\bar {z}}{|z|^{2}}}}
∀
n
∈
N
,
|
z
n
|
=
|
z
|
n
{\displaystyle \forall n\in \mathbb {N} ,|z^{n}|=|z|^{n}}
|
z
z
′
|
=
|
z
|
|
z
′
|
{\displaystyle |{\frac {z}{z'}}|={\frac {|z|}{|z'|}}}
L'inégalité triangulaire :
|
|
z
|
−
|
z
′
|
|
≤
|
z
±
z
′
|
≤
|
z
|
+
|
z
′
|
{\displaystyle ||z|-|z'||\leq |z\pm z'|\leq |z|+|z'|}
(pas comme dans ...)
Racines
n
{\displaystyle n}
ièmes de l'unité
modifier
Limites, continuité et comparaison des fonctions
modifier
Soit
f
{\displaystyle f}
une fonction définie sur un ensemble
D
{\displaystyle D}
, à valeurs réelles.
f
{\displaystyle f}
tend vers
l
{\displaystyle l}
quand
x
{\displaystyle x}
tend vers
x
0
∈
R
{\displaystyle x_{0}\in \mathbb {R} }
(que l’on note
lim
x
→
x
0
f
(
x
)
=
l
{\displaystyle \lim _{x\to x_{0}}f(x)=l}
ou bien
lim
x
0
f
=
l
{\displaystyle \lim _{x_{0}}f=l}
ou encore
f
(
x
)
→
x
→
x
0
l
{\displaystyle f(x)\to _{x\to x_{0}}l}
) signifie :
∀
ϵ
>
0
,
∃
η
>
0
,
∀
x
∈
D
,
|
x
−
x
0
|
≤
ϵ
⇒
|
f
(
x
)
−
l
|
≤
η
{\displaystyle \forall \epsilon >0,\exists \eta >0,\forall x\in D,|x-x_{0}|\leq \epsilon \Rightarrow |f(x)-l|\leq \eta }
si
l
∈
R
{\displaystyle l\in \mathbb {R} }
∀
A
>
0
,
∃
α
>
0
,
∀
x
∈
D
,
|
x
−
x
0
|
≤
α
⇒
f
(
x
)
≥
A
{\displaystyle \forall A>0,\exists \alpha >0,\forall x\in D,|x-x_{0}|\leq \alpha \Rightarrow f(x)\geq A}
si
l
=
+
∞
{\displaystyle l=+\infty }
∀
A
>
0
,
∃
α
>
0
,
∀
x
∈
D
,
|
x
−
x
0
|
≤
α
⇒
f
(
x
)
≤
−
A
{\displaystyle \forall A>0,\exists \alpha >0,\forall x\in D,|x-x_{0}|\leq \alpha \Rightarrow f(x)\leq -A}
si
l
=
+
∞
{\displaystyle l=+\infty }
En fr,
quel que soit
ϵ
>
0
{\displaystyle \epsilon >0}
(fixée, aussi petit que l’on veut) il existe
α
>
0
{\displaystyle \alpha >0}
(qui dépend de
ϵ
{\displaystyle \epsilon }
) tel que pour tout réel
x
{\displaystyle x}
, si
x
{\displaystyle x}
est assez proche de
x
0
{\displaystyle x_{0}}
alors
f
(
x
)
{\displaystyle f(x)}
est à une distance inférieure à
l
{\displaystyle l}
de
ϵ
{\displaystyle \epsilon }
.
Remarque :
|
x
−
x
0
|
≤
α
⇔
x
∈
[
α
−
x
0
,
α
+
x
0
]
{\displaystyle |x-x_{0}|\leq \alpha \Leftrightarrow x\in [\alpha -x_{0},\alpha +x_{0}]}
Ces règles ont été formulées par Charles Bioche lorsqu’il était professeur en mathématiques spéciales au lycée Louis-le-Grand. Dans la suite,
f
(
t
)
{\displaystyle f(t)}
est une expression rationnelle en
sin
(
t
)
{\displaystyle \sin(t)}
et
cos
(
t
)
{\displaystyle \cos(t)}
, c'est-à-dire une expression obtenue à l'aide de
sin
(
t
)
{\displaystyle \sin(t)}
,
cos
(
t
)
{\displaystyle \cos(t)}
, des nombres réels et les quatre opérations
+
,
−
,
×
,
/
{\displaystyle +,-,\times ,/}
; on peut encore écrire
f
(
t
)
=
P
(
sin
t
,
cos
t
)
Q
(
sin
t
,
cos
t
)
{\displaystyle f(t)={\frac {P(\sin t,\cos t)}{Q(\sin t,\cos t)}}}
, où
P
{\displaystyle P}
et
Q
{\displaystyle Q}
sont des polynômes à deux variables, à coefficients réels.
Ainsi, pour calculer
∫
f
(
t
)
d
t
{\displaystyle \int f(t)\mathrm {d} t}
,
on forme l'intégrande :
ω
(
t
)
=
f
(
t
)
d
t
{\displaystyle \omega (t)=f(t)\mathrm {d} t}
. Ensuite,
Si
ω
(
−
t
)
=
ω
(
t
)
{\displaystyle \omega (-t)=\omega (t)}
, un changement de variable judicieux est
u
(
t
)
=
cos
(
t
)
{\displaystyle u(t)=\cos(t)}
.
Si
ω
(
π
−
t
)
=
ω
(
t
)
{\displaystyle \omega (\pi -t)=\omega (t)}
, un changement de variable judicieux est
u
(
t
)
=
sin
(
t
)
{\displaystyle u(t)=\sin(t)}
.
Si
ω
(
π
+
t
)
=
ω
(
t
)
{\displaystyle \omega (\pi +t)=\omega (t)}
, un changement de variable judicieux est
u
(
t
)
=
tan
(
t
)
{\displaystyle u(t)=\tan(t)}
.
Si 2 des 3 relations précédentes sont vraies (dans ce cas les 3 relations sont vraies), un changement de variable judicieux est
u
(
t
)
=
cos
(
2
t
)
{\displaystyle u(t)=\cos(2t)}
.
Dans les autres cas, le changement de variable
u
(
t
)
=
tan
(
t
/
2
)
{\displaystyle u(t)=\tan(t/2)}
s'avère souvent judicieux. On se réferera à ce sujet à l’article sur les formules trigonométriques impliquant la tangente de l'arc moitié
Ces règles ne constituent pas un véritable théorème, mais elles conduisent souvent au bon résultat et permettent le cas échéant de simplifier les calculs. Elles ne sont utilisables dans la plupart des cas que lorsque
f
(
t
)
{\displaystyle f(t)}
comporte des fonctions trigonométriques. Dans le cas où
f
{\displaystyle f}
est une fraction rationnelle en sinus et cosinus les règles de Bioche permettent toujours de se ramener à une primitive de fraction rationnelle qui se calcule aisément par décomposition en éléments simples.
Comment établir des inégalités (et des égalités) ?
Majorations/minorations grossières
modifier
On a le théorème suivant :
Pour majorer (respectivement minorer)
a
+
b
{\displaystyle a+b}
, on majore (respectivement minore)
a
{\displaystyle a}
et on majore (respectivement minore)
b
{\displaystyle b}
.
Pour majorer (respectivement minorer)
a
−
b
{\displaystyle a-b}
, on majore (respectivement minore)
a
{\displaystyle a}
et on minore (respectivement majore)
b
{\displaystyle b}
.
Pour majorer (respectivement minorer)
a
b
{\displaystyle {\frac {a}{b}}}
, on majore
a
{\displaystyle a}
et on minore
b
{\displaystyle b}
.
Ainsi, si on a un encadrement de
x
{\displaystyle x}
, on peut en déduire un encadrement d'une expression en fonction de
x
{\displaystyle x}
.
Si on a des valeurs absolues, on s'en débarrasse pour pouvoir appliquer les règles énoncées ci-dessus.
|
◻
|
=
◻
2
=
{
+
◻
si
◻
≥
0
−
◻
si
◻
≤
0
≠
◻
2
=
◻
{\displaystyle |\square |={\sqrt {\square ^{2}}}=\left\{{\begin{array}{l}+\square \quad {\text{si }}\square \geq 0\\-\square \quad {\text{si }}\square \leq 0\end{array}}\right.\quad \not ={\sqrt {\square }}^{2}=\square }
Méthode de la quantité conjuguée
◻
−
△
=
(
◻
−
△
)
(
◻
+
△
)
◻
+
△
=
◻
2
−
△
2
◻
+
△
{\displaystyle \square -\triangle ={\frac {(\square -\triangle )(\square +\triangle )}{\square +\triangle }}={\frac {\square ^{2}-\triangle ^{2}}{\square +\triangle }}}
On veut montrer
A
≤
B
{\displaystyle A\leq B}
. On fait :
A
=
⋯
≤
⋯
≤
B
{\displaystyle A=\cdots \leq \cdots \leq B}
si on peut faire des calculs sur
A
{\displaystyle A}
,
B
=
⋯
≥
⋯
≥
A
{\displaystyle B=\cdots \geq \cdots \geq A}
si on peut faire des calculs sur
B
{\displaystyle B}
,
B
−
A
=
⋯
≥
⋯
≥
0
{\displaystyle B-A=\cdots \geq \cdots \geq 0}
.
Le mixte ne peut pas se faire de façon directe !
Les inégalités autour des monômes se font généralement directement.
La méthode transmission nécessite d’utiliser une autre question (généralement la précédente).
On part (exceptionnellement) de l'hypothèse .
On fait des calculs pour aboutir à la conclusion avec des implications
⇒
{\displaystyle \Rightarrow }
en les justifiant (car les équivalences
⇔
{\displaystyle \Leftrightarrow }
sont inutiles ici et difficiles à justifier).
On applique l'inégalité (ou l'encadrement) précédent(e) avec ..., ainsi
On écrit
f
(
b
)
−
f
(
a
)
=
∫
a
b
f
′
(
t
)
d
t
{\displaystyle f(b)-f(a)=\int _{a}^{b}f'(t)dt}
(ou bien parfois
|
f
(
b
)
−
f
(
a
)
|
=
|
∫
a
b
f
′
(
t
)
d
t
|
≤
|
∫
a
b
|
f
′
(
t
)
|
d
t
|
{\displaystyle |f(b)-f(a)|=\left|\int _{a}^{b}f'(t)dt\right|\leq \left|\int _{a}^{b}|f'(t)|dt\right|}
).
On se débarrasse sur
[
a
,
b
]
{\displaystyle [a,b]}
, par majoration grossièrement mais pas débile de
f
′
(
t
)
{\displaystyle f'(t)}
.
On intègre l'inégalité (ou l'encadrement) sur
[
a
,
b
]
{\displaystyle [a,b]}
.
Si on voit des différences , notamment de mixtes simples .
Les inégalités strictes ne peuvent pas se faire avec cette méthode (à moins de justifier) car en intégrant elles deviennent larges.
On introduit la fonction différence
[
ϕ
:
x
⟼
A
−
B
]
{\displaystyle [\phi :x\longmapsto A-B]}
On établit le CV de
ϕ
{\displaystyle \phi }
On étudie ses variations.
On conclue sur le signe de
ϕ
{\displaystyle \phi }
.
C'est une méthode refuge (à éviter), mais quand c’est du mixte (sans différence et non simple), on ne peut pas faire autrement.
Une subdivision du segment
[
a
,
b
]
{\displaystyle [a,b]}
est une famille
(
a
0
,
⋯
,
a
N
)
{\displaystyle (a_{0},\cdots ,a_{N})}
de réels vérifiant
a
=
a
0
<
a
1
<
⋯
<
a
N
=
b
{\displaystyle a=a_{0}<a_{1}<\cdots <a_{N}=b}
avec
n
∈
N
∗
{\displaystyle n\in \mathbb {N} ^{*}}
.
Une fonction réele
f
{\displaystyle f}
est diteen escalier sur
[
a
,
b
]
{\displaystyle [a,b]}
s'il existe une subdivision
(
a
0
,
⋯
,
a
N
)
{\displaystyle (a_{0},\cdots ,a_{N})}
du segment
[
a
,
b
]
{\displaystyle [a,b]}
et des réels
(
λ
0
,
⋯
,
λ
N
−
1
)
{\displaystyle (\lambda _{0},\cdots ,\lambda _{N-1})}
tels que, pour tout
k
∈
[
[
0
,
N
−
1
]
]
{\displaystyle k\in [[0,N-1]]}
, pour tout
x
∈
]
a
k
,
a
k
+
1
[
{\displaystyle x\in ]a_{k},a_{k+1}[}
,
f
(
x
)
=
λ
k
{\displaystyle f(x)=\lambda _{k}}
Intégrale d'une fonction en escalier
modifier
Soit
(
a
0
,
⋯
,
a
N
)
{\displaystyle (a_{0},\cdots ,a_{N})}
une subdivision de
[
a
,
b
]
{\displaystyle [a,b]}
(où ...) et
f
{\displaystyle f}
une fonction en escalier sur
[
a
,
b
]
{\displaystyle [a,b]}
telle que
∀
k
∈
[
[
0
,
N
−
1
]
]
,
∀
x
∈
]
a
k
,
a
k
+
1
[
,
f
(
x
)
=
λ
k
{\displaystyle \forall k\in [[0,N-1]],\forall x\in ]a_{k},a_{k+1}[,f(x)=\lambda _{k}}
alors:
∫
a
b
f
=
∑
k
=
0
N
−
1
(
a
k
+
1
−
a
k
)
λ
k
{\displaystyle \int _{a}^{b}f=\sum _{k=0}^{N-1}(a_{k+1}-a_{k})\lambda _{k}}
.
Intégrale d'une fonction à valeurs complexes
modifier
Si
f
{\displaystyle f}
est une fonction continue par morceaux sur
[
a
,
b
]
{\displaystyle [a,b]}
à valeurs complexe, alors
∫
a
b
f
=
∫
a
b
ℜ
(
f
)
+
i
∫
a
b
ℑ
(
f
)
{\displaystyle \int _{a}^{b}f=\int _{a}^{b}\Re (f)+i\int _{a}^{b}\Im (f)}
∫
a
b
ℜ
(
f
)
=
ℜ
(
∫
a
b
f
)
{\displaystyle \int _{a}^{b}\Re (f)=\Re \left(\int _{a}^{b}f\right)}
∫
a
b
ℑ
(
f
)
=
ℑ
(
∫
a
b
f
)
{\displaystyle \int _{a}^{b}\Im (f)=\Im \left(\int _{a}^{b}f\right)}
∫
a
b
f
¯
=
∫
a
b
f
¯
{\displaystyle \int _{a}^{b}{\overline {f}}={\overline {\int _{a}^{b}f}}}
Soient
f
{\displaystyle f}
et
g
{\displaystyle g}
sont deux fonctions continues par morceaux sur
[
a
,
b
]
{\displaystyle [a,b]}
.
Linéarité :
∫
a
b
(
λ
f
+
μ
g
)
=
λ
∫
a
b
f
+
μ
∫
a
b
g
{\displaystyle \int _{a}^{b}(\lambda f+\mu g)=\lambda \int _{a}^{b}f+\mu \int _{a}^{b}g}
(pour tout couple de réels
(
λ
,
μ
)
{\displaystyle (\lambda ,\mu )}
)
Positivité : si f est une fonction positive sur
[
a
,
b
]
{\displaystyle [a,b]}
, alors
∫
a
b
f
≥
0
{\displaystyle \int _{a}^{b}f\geq 0}
(
a
<
b
{\displaystyle a<b}
)
Croissance : si
f
≤
g
{\displaystyle f\leq g}
, alors
∫
a
b
f
≤
∫
a
b
g
{\displaystyle \int _{a}^{b}f\leq \int _{a}^{b}g}
Relation de Chasles :
∫
a
b
f
=
∫
a
c
f
+
∫
c
b
f
{\displaystyle \int _{a}^{b}f=\int _{a}^{c}f+\int _{c}^{b}f}
et en particulier
∫
a
b
f
=
−
∫
b
a
f
{\displaystyle \int _{a}^{b}f=-\int _{b}^{a}f}
Intégration par parties : si f et g sont C^1 sur
[
a
,
b
]
{\displaystyle [a,b]}
∫
a
b
f
g
′
=
[
f
g
]
a
b
−
∫
a
b
g
f
′
{\displaystyle \int _{a}^{b}fg'=\left[fg\right]_{a}^{b}-\int _{a}^{b}gf'}
Soient
f
{\displaystyle f}
et
g
{\displaystyle g}
C
0
{\displaystyle C^{0}}
par morceaux sur
[
a
,
b
]
{\displaystyle [a,b]}
.
Le réel
1
b
−
a
∫
a
b
f
{\displaystyle {\frac {1}{b-a}}\int _{a}^{b}f}
est appelé valeur moyenne de
f
{\displaystyle f}
sur
[
a
,
b
]
{\displaystyle [a,b]}
.
Si
m
≤
f
≤
M
{\displaystyle m\leq f\leq M}
et
g
≥
0
{\displaystyle g\geq 0}
sur [a,b] alors
m
∫
a
b
g
≤
∫
a
b
f
g
≤
M
∫
a
b
g
{\displaystyle m\int _{a}^{b}g\leq \int _{a}^{b}fg\leq M\int _{a}^{b}g}
.
En particulier
m
(
b
−
a
)
≤
∫
a
b
f
≤
M
(
b
−
a
)
{\displaystyle m(b-a)\leq \int _{a}^{b}f\leq M(b-a)}
L'application qui a
(
f
,
g
)
∈
(
C
0
(
[
a
,
b
]
,
R
)
)
2
{\displaystyle (f,g)\in ({\mathcal {C}}^{0}([a,b],\mathbb {R} ))^{2}}
associe
⟨
f
|
g
⟩
=
∫
a
b
f
g
{\displaystyle \langle f|g\rangle =\int _{a}^{b}fg}
définie un produit scalire sur
C
0
(
[
a
,
b
]
,
R
)
{\displaystyle {\mathcal {C}}^{0}([a,b],\mathbb {R} )}
Ainsi :
|
∫
a
b
f
g
|
≤
∫
a
b
f
2
∫
a
b
g
2
{\displaystyle \left|\int _{a}^{b}fg\right|\leq {\sqrt {\int _{a}^{b}f^{2}}}{\sqrt {\int _{a}^{b}g^{2}}}}
ou encore
(
∫
a
b
f
g
)
2
≤
(
∫
a
b
f
2
)
(
∫
a
b
g
2
)
{\displaystyle \left(\int _{a}^{b}fg\right)^{2}\leq \left(\int _{a}^{b}f^{2}\right)\left(\int _{a}^{b}g^{2}\right)}
Soit
f
{\displaystyle f}
une fonction
C
0
{\displaystyle C^{0}}
par morceaux sur
[
a
,
b
]
{\displaystyle [a,b]}
.
Alors :
|
∫
a
b
f
|
≤
|
∫
a
b
|
f
|
|
{\displaystyle \left|\int _{a}^{b}f\right|\leq \left|\int _{a}^{b}|f|\right|}
.
En particulier si
a
<
b
{\displaystyle a<b}
, alors
|
∫
a
b
f
|
≤
∫
a
b
|
f
|
{\displaystyle \left|\int _{a}^{b}f\right|\leq \int _{a}^{b}|f|}
.
∫
0
1
t
n
d
t
=
1
n
+
1
{\displaystyle \int _{0}^{1}t^{n}dt={\frac {1}{n+1}}}
Fonction continue, positive dont l'intégrale est nulle
modifier
Si f est continue et positive sur [a,b], alors:
∫
a
b
f
=
0
⇔
∀
x
∈
[
a
,
b
]
,
f
(
x
)
=
0
{\displaystyle \int _{a}^{b}f=0\Leftrightarrow \forall x\in [a,b],f(x)=0}
Conséquences :
Si
f
{\displaystyle f}
est continue et n’est pas la fonction nulle, alors
∫
a
b
f
>
0
{\displaystyle \int _{a}^{b}f>0}
.
Si
f
{\displaystyle f}
est à valeurs réelles, continue sur
[
a
,
b
]
{\displaystyle [a,b]}
, et si
∫
a
b
f
=
0
{\displaystyle \int _{a}^{b}f=0}
, alors il existe
c
∈
]
a
,
b
[
{\displaystyle c\in ]a,b[}
tel que
f
(
c
)
=
0
{\displaystyle f(c)=0}
.
Si
f
{\displaystyle f}
est positive, continue par morceaux sur
[
a
,
b
]
{\displaystyle [a,b]}
et si
∫
a
b
f
=
0
{\displaystyle \int _{a}^{b}f=0}
, alors
f
{\displaystyle f}
est nulle en tout point où elle est continue.
Si f est une fonction C^0 parmorceaux sur [a,b], la suite des sommes de Riemann associée à f est donnée par :
R
n
=
b
−
a
n
∑
k
=
0
n
−
1
f
(
a
k
)
=
∑
k
=
0
n
−
1
f
(
a
+
k
b
−
a
n
)
{\displaystyle R_{n}={\frac {b-a}{n}}\sum _{k=0}^{n-1}f(a_{k})=\sum _{k=0}^{n-1}f\left(a+k{\frac {b-a}{n}}\right)}
ou bien
R
n
′
=
b
−
a
n
∑
k
=
1
n
f
(
a
k
)
{\displaystyle R_{n}'={\frac {b-a}{n}}\sum _{k=1}^{n}f(a_{k})}
R
n
{\displaystyle R_{n}}
correspond à l'intégrale de la fonction en escalier qui prend la valeur
f
(
a
k
)
{\displaystyle f(a_{k})}
sur
[
a
k
,
a
k
+
1
[
{\displaystyle [a_{k},a_{k+1}[}
(où
k
∈
[
[
0
,
n
−
1
]
]
{\displaystyle k\in [[0,n-1]]}
).
Si f est continue sur [a,b], alors
l
i
m
n
→
+
∞
b
−
a
n
∑
k
=
0
n
−
1
f
(
a
k
)
=
l
i
m
n
→
+
∞
b
−
a
n
∑
k
=
1
n
f
(
a
k
)
=
∫
a
b
f
{\displaystyle lim_{n\to +\infty }{\frac {b-a}{n}}\sum _{k=0}^{n-1}f(a_{k})=lim_{n\to +\infty }{\frac {b-a}{n}}\sum _{k=1}^{n}f(a_{k})=\int _{a}^{b}f}
Pour faire apparaître une somme de Riemann dans une suite
(
U
n
)
{\displaystyle (U_{n})}
, on essaye d'écrire
U
n
{\displaystyle U_{n}}
sous la forme
1
n
∑
k
=
1
n
f
(
k
n
)
{\displaystyle {\frac {1}{n}}\sum _{k=1}^{n}f\left({\frac {k}{n}}\right)}
ou
1
n
∑
k
=
0
n
−
1
f
(
k
n
)
{\displaystyle {\frac {1}{n}}\sum _{k=0}^{n-1}f\left({\frac {k}{n}}\right)}
.
On en déduit
lim
n
→
+
∞
U
n
=
∫
0
1
f
{\displaystyle \lim _{n\to +\infty }U_{n}=\int _{0}^{1}f}
Primitives de fonctions simples
modifier
À une constante près !!!
∫
f
′
(
x
)
f
(
a
x
+
b
)
d
x
=
1
a
F
(
a
x
+
b
)
{\displaystyle \int f'(x)f(ax+b)dx={\frac {1}{a}}F(ax+b)}
Primitives de fonctions rationnelles
modifier
∫
x
n
d
x
=
x
n
+
1
n
+
1
{\displaystyle \int x^{n}dx={\frac {x^{n+1}}{n+1}}}
si
n
≠
−
1
{\displaystyle n\neq -1}
∫
d
x
x
=
ln
|
x
|
{\displaystyle \int {\frac {dx}{x}}=\ln |x|}
∫
d
x
1
+
x
2
=
Arctan
(
x
)
{\displaystyle \int {\frac {dx}{1+x^{2}}}=\operatorname {Arctan} (x)}
∫
d
x
1
−
x
2
=
1
2
ln
|
x
+
1
x
−
1
|
=
Argth
(
x
)
{\displaystyle \int {\frac {dx}{1-x^{2}}}={\frac {1}{2}}\ln {\left|{\frac {x+1}{x-1}}\right|}=\operatorname {Argth} (x)}
Primitives de fonctions logarithmes
modifier
∫
ln
(
x
)
d
x
=
x
ln
(
x
)
−
x
{\displaystyle \int \ln(x)dx=x\ln(x)-x}
Primitives de fonctions exponentielles
modifier
∫
e
x
d
x
=
e
x
{\displaystyle \int e^{x}dx=e^{x}}
Primitives de fonctions irrationnelles
modifier
∫
d
x
1
−
x
2
d
x
=
Arcsin
(
x
)
{\displaystyle \int {\frac {dx}{\sqrt {1-x^{2}}}}dx=\operatorname {Arcsin} (x)}
∫
−
d
x
1
−
x
2
d
x
=
Arccos
(
x
)
{\displaystyle \int {\frac {-dx}{\sqrt {1-x^{2}}}}dx=\operatorname {Arccos} (x)}
Primitives de fonctions trigonométriques
modifier
∫
cos
(
x
)
d
x
=
sin
(
x
)
{\displaystyle \int \cos(x)dx=\sin(x)}
∫
sin
(
x
)
d
x
=
−
cos
(
x
)
{\displaystyle \int \sin(x)dx=-\cos(x)}
Primitives de fonctions hyperboliques
modifier
∫
sinh
(
x
)
d
x
=
cosh
(
x
)
{\displaystyle \int \operatorname {sinh} (x)dx=\operatorname {cosh} (x)}
∫
cosh
(
x
)
d
x
=
sinh
(
x
)
{\displaystyle \int \operatorname {cosh} (x)dx=\operatorname {sinh} (x)}
Primitives de fonctions circulaires réciproques
modifier
Elles s'obtiennent dans la plupart des cas par intégration par parties. On suppose
a
≠
0
{\displaystyle a\neq 0}
.
∫
Arcsin
(
(
x
)
a
)
d
x
=
x
Arcsin
(
(
x
)
a
)
+
a
2
−
x
2
+
C
{\displaystyle \int \operatorname {Arcsin} \,\left({\frac {(}{x}}){a}\right)dx=x\operatorname {Arcsin} \,\left({\frac {(}{x}}){a}\right)+{\sqrt {a^{2}-x^{2}}}+C}
∫
Arccos
(
(
x
)
a
)
d
x
=
x
Arccos
(
(
x
)
a
)
−
a
2
−
x
2
+
C
{\displaystyle \int \operatorname {Arccos} \,\left({\frac {(}{x}}){a}\right)dx=x\operatorname {Arccos} \,\left({\frac {(}{x}}){a}\right)-{\sqrt {a^{2}-x^{2}}}+C}
∫
Arctan
(
(
x
)
a
)
d
x
=
x
Arctan
(
(
x
)
a
)
−
a
2
ln
(
a
2
+
x
2
)
+
C
{\displaystyle \int \operatorname {Arctan} \,\left({\frac {(}{x}}){a}\right)dx=x\operatorname {Arctan} \,\left({\frac {(}{x}}){a}\right)-{\frac {a}{2}}\ln(a^{2}+x^{2})+C}
∫
Arccotan
(
(
x
)
a
)
d
x
=
x
Arccotan
(
(
x
)
a
)
+
a
2
ln
(
a
2
+
x
2
)
+
C
{\displaystyle \int \operatorname {Arccotan} \,\left({\frac {(}{x}}){a}\right)dx=x\operatorname {Arccotan} \,\left({\frac {(}{x}}){a}\right)+{\frac {a}{2}}\ln(a^{2}+x^{2})+C}
∫
Arcsec
(
(
x
)
a
)
d
x
=
x
Arcsec
(
(
x
)
a
)
−
a
ln
[
(
x
)
a
(
1
+
1
−
a
2
x
2
)
]
{\displaystyle \int \operatorname {Arcsec} \left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {Arcsec} \left({\frac {(}{x}}){a}\right)-a\,\ln {\left[{\frac {(}{x}}){a}\,\left(1+{\sqrt {1-{a^{2} \over x^{2}}}}\right)\right]}}
∫
Arccosec
(
(
x
)
a
)
d
x
=
x
Arccosec
(
(
x
)
a
)
+
a
ln
[
(
x
)
a
(
1
+
1
−
a
2
x
2
)
]
{\displaystyle \int \operatorname {Arccosec} \left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {Arccosec} \left({\frac {(}{x}}){a}\right)+a\,\ln {\left[{\frac {(}{x}}){a}\,\left(1+{\sqrt {1-{a^{2} \over x^{2}}}}\right)\right]}}
Primitives de fonctions hyperboliques réciproques
modifier
On suppose
a
≠
0
{\displaystyle a\neq 0}
.
∫
argsh
(
(
x
)
a
)
d
x
=
x
argsh
(
(
x
)
a
)
−
x
2
+
a
2
+
C
{\displaystyle \int \operatorname {argsh} \,\left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argsh} \,\left({\frac {(}{x}}){a}\right)-{\sqrt {x^{2}+a^{2}}}+C}
∫
argch
(
(
x
)
a
)
d
x
=
x
argch
(
(
x
)
a
)
−
x
2
−
a
2
+
C
{\displaystyle \int \operatorname {argch} \,\left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argch} \,\left({\frac {(}{x}}){a}\right)-{\sqrt {x^{2}-a^{2}}}+C}
∫
argth
(
(
x
)
a
)
d
x
=
x
argth
(
(
x
)
a
)
+
a
2
ln
(
a
2
−
x
2
)
+
C
{\displaystyle \int \operatorname {argth} \,\left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argth} \,\left({\frac {(}{x}}){a}\right)+{\frac {a}{2}}\ln(a^{2}-x^{2})+C}
∫
argcoth
(
(
x
)
a
)
d
x
=
x
argcoth
(
(
x
)
a
)
+
a
2
ln
(
x
2
−
a
2
)
+
C
{\displaystyle \int \operatorname {argcoth} \,\left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argcoth} \,\left({\frac {(}{x}}){a}\right)+{\frac {a}{2}}\ln(x^{2}-a^{2})+C}
∫
argsech
(
(
x
)
a
)
d
x
=
x
argsech
(
(
x
)
a
)
−
a
arctan
(
a
2
x
2
−
1
)
+
C
{\displaystyle \int \operatorname {argsech} \left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argsech} \left({\frac {(}{x}}){a}\right)-a\,\operatorname {arctan} \left({\sqrt {{a^{2} \over x^{2}}-1}}\right)+C}
∫
argcosech
(
(
x
)
a
)
d
x
=
x
argcosech
(
(
x
)
a
)
+
a
ln
[
(
x
)
a
(
1
+
1
+
a
2
x
2
)
]
+
C
{\displaystyle \int \operatorname {argcosech} \left({\frac {(}{x}}){a}\right)dx=x\,\operatorname {argcosech} \left({\frac {(}{x}}){a}\right)+a\,\ln {\left[{\frac {(}{x}}){a}\left(1+{\sqrt {1+{a^{2} \over x^{2}}}}\right)\right]}+C}
(
∑
k
λ
k
f
k
)
=
∑
k
λ
k
f
k
′
{\displaystyle \left(\sum _{k}\lambda _{k}f_{k}\right)=\sum _{k}\lambda _{k}f_{k}'}
(
∏
k
f
k
)
=
∑
k
f
k
′
∏
j
≠
k
f
j
{\displaystyle \left(\prod _{k}f_{k}\right)=\sum _{k}f_{k}'\prod _{j\neq k}f_{j}}
Fonction
Ensembles
Propriétés
Dérivée
Logarithme (népérien)
R
+
∗
→
R
{\displaystyle \mathbb {R} _{+}^{*}\to \mathbb {R} }
C
∞
{\displaystyle C^{\infty }}
, strictement croissante, bijective
1
x
{\displaystyle {\frac {1}{x}}}
Exponentielle
R
→
R
+
∗
{\displaystyle \mathbb {R} \to \mathbb {R} _{+}^{*}}
C
∞
{\displaystyle C^{\infty }}
, strictement croissante, bijection réciproque du logarithme (népérien)
exp
(
x
)
=
e
x
{\displaystyle \exp(x)=e^{x}}
Sinus
R
→
[
−
1
,
1
]
{\displaystyle \mathbb {R} \to [-1,1]}
C
∞
{\displaystyle C^{\infty }}
,
2
π
{\displaystyle 2\pi }
-périodique
cos
(
x
)
{\displaystyle \cos(x)}
Cosinus
R
→
[
−
1
,
1
]
{\displaystyle \mathbb {R} \to [-1,1]}
C
∞
{\displaystyle C^{\infty }}
,
2
π
{\displaystyle 2\pi }
-périodique
−
sin
(
x
)
{\displaystyle -\sin(x)}
Tangente
R
−
{
π
2
+
k
π
,
k
∈
Z
}
→
R
{\displaystyle \mathbb {R} -\left\{{\frac {\pi }{2}}+k\pi ,k\in \mathbb {Z} \right\}\to \mathbb {R} }
C
∞
{\displaystyle C^{\infty }}
,
π
{\displaystyle \pi }
-périodique, strictement croissante par intervalles
1
+
tan
2
(
x
)
=
1
cos
2
(
x
)
{\displaystyle 1+\tan ^{2}(x)={\frac {1}{\cos ^{2}(x)}}}
Arcsinus
[
−
1
,
1
]
→
[
−
π
2
,
π
2
]
{\displaystyle [-1,1]\to \left[-{\frac {\pi }{2}},{\frac {\pi }{2}}\right]}
Continue sur
[
−
1
,
1
]
{\displaystyle [-1,1]}
et
C
∞
{\displaystyle C^{\infty }}
sur
]
−
1
,
1
[
{\displaystyle ]-1,1[}
, bijection réciproque de sinus restreint, strictement croissante
1
1
−
x
2
{\displaystyle {\frac {1}{\sqrt {1-x^{2}}}}}
Arccosinus
[
−
1
,
1
]
→
[
0
,
π
]
{\displaystyle [-1,1]\to [0,\pi ]}
Continue sur
[
−
1
,
1
]
{\displaystyle [-1,1]}
et
C
∞
{\displaystyle C^{\infty }}
sur
]
−
1
,
1
[
{\displaystyle ]-1,1[}
, bijection réciproque de cosinus restreint, strictement décroissante
−
1
1
−
x
2
{\displaystyle {\frac {-1}{\sqrt {1-x^{2}}}}}
Arctangente
R
→
[
−
π
2
,
π
2
]
{\displaystyle \mathbb {R} \to \left[-{\frac {\pi }{2}},{\frac {\pi }{2}}\right]}
C
∞
{\displaystyle C^{\infty }}
, bijection réciproque de tangente restreint, strictement croissante
1
1
+
x
2
{\displaystyle {\frac {1}{1+x^{2}}}}