Als charakteristische Funktion bezeichnet man in der Wahrscheinlichkeitstheorie eine spezielle komplexwertige Funktion , die einem endlichen Maß oder spezieller einem Wahrscheinlichkeitsmaß auf den reellen Zahlen beziehungsweise der Verteilung einer Zufallsvariable zugeordnet wird. Dabei wird das endliche Maß eindeutig durch seine charakteristische Funktion bestimmt und umgekehrt, die Zuordnung ist also bijektiv .
Wesentlicher Nutzen von charakteristischen Funktionen liegt darin, dass viele schwerer greifbare Eigenschaften des endlichen Maßes sich als Eigenschaft der charakteristischen Funktion wiederfinden und dort als Eigenschaft einer Funktion leichter zugänglich sind. So reduziert sich beispielsweise die Faltung von Wahrscheinlichkeitsmaßen auf die Multiplikation der entsprechenden charakteristischen Funktionen.
Definition
Gegeben sei ein endliches Maß
μ
{\displaystyle \mu }
auf
(
R
,
B
(
R
)
)
{\displaystyle (\mathbb {R} ,{\mathcal {B}(\mathbb {R} ))}
. Dann heißt die komplexwertige Funktion
φ
μ
:
R
→
C
{\displaystyle \varphi _{\mu }\colon \mathbb {R} \to \mathbb {C} }
definiert durch
φ
μ
(
t
)
:=
∫
R
exp
(
i
t
x
)
μ
(
d
x
)
{\displaystyle \varphi _{\mu }(t):=\int _{\mathbb {R} }\exp(\mathrm {i} tx)\,\mu (\mathrm {d} x)}
die charakteristische Funktion von
μ
{\displaystyle \mu }
. Ist
μ
=
P
{\displaystyle \mu =P}
ein Wahrscheinlichkeitsmaß , so folgt die Definition analog. Ist speziell eine Zufallsvariable
X
{\displaystyle X}
mit Verteilung
P
X
{\displaystyle P_{X}
gegeben, so ist die charakteristische Funktion gegeben durch
φ
X
(
t
)
=
E
(
exp
(
i
t
X
)
)
{\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } (\exp(\mathrm {i} tX))}
mit dem Erwartungswert
E
{\displaystyle \mathbb {E} }
.
Damit ergeben sich als wichtige Sonderfälle:
Besitzt
P
X
{\displaystyle P_{X}
eine Wahrscheinlichkeitsdichtefunktion (bezüglich des Riemann-Integrals)
f
X
(
x
)
{\displaystyle f_{X}(x)}
, so ist die charakteristische Funktion gegeben als
φ
X
(
t
)
=
∫
−
∞
∞
f
X
(
x
)
exp
(
i
t
x
)
d
x
{\displaystyle \varphi _{X}(t)=\int _{-\infty }^{\infty }f_{X}(x)\exp(\mathrm {i} tx)\,\mathrm {d} x}
.
Besitzt
P
X
{\displaystyle P_{X}
eine Wahrscheinlichkeitsfunktion
p
X
{\displaystyle p_{X}
, so ist die charakteristische Funktion gegeben als
φ
X
(
t
)
=
∑
k
=
1
∞
exp
(
i
t
x
k
)
p
X
(
x
k
)
{\displaystyle \varphi _{X}(t)=\sum _{k=1}^{\infty }\exp(\mathrm {i} tx_{k})p_{X}(x_{k})}
.
In beiden Fällen ist die charakteristische Funktion die (stetige bzw. diskrete) Fourier-Transformierte der Dichte bzw. Wahrscheinlichkeitsfunktion.
Als Schätzfunktion der charakteristische Funktion auf einer Stichprobe
{
x
1
,
…
x
N
}
{\displaystyle \{x_{1},\dots x_{N}\}
dient die empirische charakteristische Funktion:
φ
^
X
(
t
)
=
1
N
∑
i
=
1
N
exp
(
i
t
x
i
)
{\displaystyle {\hat {\varphi }_{X}(t)={\frac {1}{N}\sum _{i=1}^{N}\exp(\mathrm {i} tx_{i})}
Elementare Beispiele
Ist
X
{\displaystyle X}
Poisson-verteilt , so besitzt
P
X
{\displaystyle P_{X}
die Wahrscheinlichkeitsfunktion
p
λ
(
k
)
=
λ
k
k
!
e
−
λ
für
k
∈
N
{\displaystyle p_{\lambda }(k)={\frac {\lambda ^{k}{k!}\,\mathrm {e} ^{-\lambda }\quad {\text{für}\quad k\in \mathbb {N} }
.
Mit der oben aufgeführten Darstellung für die charakteristische Funktion mittels Wahrscheinlichkeitsfunktionen ergibt sich dann
φ
X
(
t
)
=
∑
k
=
0
∞
exp
(
i
t
k
)
λ
k
k
!
e
−
λ
=
e
−
λ
∑
k
=
0
∞
(
λ
e
i
t
)
k
k
!
=
e
λ
(
e
i
t
−
1
)
{\displaystyle \varphi _{X}(t)=\sum _{k=0}^{\infty }\exp(\mathrm {i} tk){\frac {\lambda ^{k}{k!}\,\mathrm {e} ^{-\lambda }=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\left(\lambda e^{it}\right)^{k}{k!}=\mathrm {e} ^{\lambda (e^{it}-1)}
Ist
Y
{\displaystyle Y}
exponentialverteilt zum Parameter
λ
{\displaystyle \lambda }
, so besitzt
P
Y
{\displaystyle P_{Y}
die Wahrscheinlichkeitsdichtefunktion
f
λ
(
x
)
=
{
λ
e
−
λ
x
x
≥
0
0
x
<
0
{\displaystyle f_{\lambda }(x)={\begin{cases}\displaystyle \lambda \mathrm {e} ^{-\lambda x}&x\geq 0\\0&x<0\end{cases}
Damit ergibt sich
φ
Y
(
t
)
=
∫
0
∞
e
i
t
x
λ
e
−
λ
x
d
x
=
λ
∫
0
∞
e
x
(
i
t
−
λ
)
d
x
=
λ
λ
−
i
t
{\displaystyle \varphi _{Y}(t)=\int _{0}^{\infty }e^{\mathrm {i} tx}\lambda \mathrm {e} ^{-\lambda x}\mathrm {d} x=\lambda \int _{0}^{\infty }e^{x(\mathrm {i} t-\lambda )}\mathrm {d} x={\frac {\lambda }{\lambda -\mathrm {i} t}
Weitere Beispiele für charakteristische Funktionen sind weiter unten im Artikel tabelliert oder befinden sich direkt im Artikel über die entsprechenden Wahrscheinlichkeitsverteilungen.
Eigenschaften als Funktion
Die charakteristische Funktion einer Zufallsvariablen, die auf (−1,1) stetig gleichverteilt ist. Im Allgemeinen sind charakteristische Funktionen jedoch nicht reell-wertig.
Existenz
Die charakteristische Funktion existiert für beliebige endliche Maße und somit auch Wahrscheinlichkeitsmaße bzw. Verteilungen von Zufallsvariablen, da wegen
|
e
i
t
x
|
=
1
{\displaystyle \left|e^{\mathrm {i} tx}\right|=1}
das Integral stets existiert.
Beschränktheit
Jede charakteristische Funktion ist immer beschränkt, es gilt für eine Zufallsvariable
X
{\displaystyle X}
, dass
|
φ
X
(
t
)
|
≤
φ
X
(
0
)
=
1
{\displaystyle \left|\varphi _{X}(t)\right|\leq \varphi _{X}(0)=1}
.
Im allgemeinen Fall eines endlichen Maßes
μ
{\displaystyle \mu }
auf
(
R
,
B
(
R
)
)
{\displaystyle (\mathbb {R} ,{\mathcal {B}(\mathbb {R} ))}
gilt
|
φ
μ
(
t
)
|
≤
φ
μ
(
0
)
=
μ
(
R
)
{\displaystyle \left|\varphi _{\mu }(t)\right|\leq \varphi _{\mu }(0)=\mu (\mathbb {R} )}
.
Symmetrie
Die charakteristische Funktion
φ
X
{\displaystyle \varphi _{X}
ist genau dann reellwertig , wenn die Zufallsvariable
X
{\displaystyle X}
symmetrisch ist.
Des Weiteren ist
φ
X
{\displaystyle \varphi _{X}
stets hermitesch, das heißt, es gilt
φ
X
(
−
t
)
=
φ
X
(
t
)
¯
{\displaystyle \varphi _{X}(-t)={\overline {\varphi _{X}(t)}
.
Gleichmäßige Stetigkeit
φ
X
{\displaystyle \varphi _{X}
ist eine gleichmäßig stetige Funktion.
Charakterisierung
Interessant ist insbesondere, wann eine Funktion
f
:
R
→
C
{\displaystyle f\colon \mathbb {R} \to \mathbb {C} }
die charakteristische Funktion eines Wahrscheinlichkeitsmaßes ist. Eine hinreichende Bedingung liefert der Satz von Pólya (nach George Pólya ):
Ist eine Funktion
f
:
R
→
[
0
,
1
]
{\displaystyle f\colon \mathbb {R} \to [0,1]}
und gilt außerdem
f
(
0
)
=
1
{\displaystyle f(0)=1}
, so ist sie die charakteristische Funktion eines Wahrscheinlichkeitsmaßes.
Eine notwendige und hinreichende Bedingung liefert der Satz von Bochner (nach Salomon Bochner ):
Satz von Bochner
Eine stetige Funktion
f
:
R
n
→
C
{\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {C} }
ist genau dann die charakteristische Funktion eines Wahrscheinlichkeitsmaßes auf
R
n
{\displaystyle \mathbb {R} ^{n}
, wenn
f
{\displaystyle f}
eine positiv semidefinite Funktion ist und
f
(
0
)
=
1
{\displaystyle f(0)=1}
gilt.
Weitere Eigenschaften
φ
a
X
+
b
(
t
)
=
e
i
t
b
φ
X
(
a
t
)
{\displaystyle \varphi _{aX+b}(t)=e^{\mathrm {i} tb}\varphi _{X}(at)}
für alle
a
,
b
∈
R
.
{\displaystyle a,b\in \mathbb {R} \,.}
Umkehrbarkeit
Ist
φ
X
{\displaystyle \varphi _{X}
integrierbar , dann lässt sich die Wahrscheinlichkeitsdichte von
X
{\displaystyle X}
rekonstruieren als
f
X
(
x
)
=
1
2
π
∫
−
∞
∞
e
−
i
t
x
φ
X
(
t
)
d
t
.
{\displaystyle f_{X}(x)={\frac {1}{2\pi }\int \limits _{-\infty }^{\infty }e^{-\mathrm {i} tx}\varphi _{X}(t)\,\mathrm {d} t\,.}
Momenterzeugung
E
(
X
k
)
=
φ
X
(
k
)
(
0
)
i
k
{\displaystyle \mathbb {E} (X^{k})={\frac {\varphi _{X}^{(k)}(0)}{\mathrm {i} ^{k}
für alle natürlichen
k
∈
N
{\displaystyle k\in \mathbb {N} }
, falls
E
(
|
X
|
k
)
<
∞
{\displaystyle \mathbb {E} (|X|^{k})<\infty }
.
In dieser Eigenschaft ist die charakteristische Funktion ähnlich zur momenterzeugenden Funktion .
Insbesondere ergeben sich die Spezialfälle
E
(
X
)
=
φ
X
′
(
0
)
i
,
{\displaystyle \mathbb {E} (X)={\frac {\varphi _{X}'(0)}{\mathrm {i} }\,,}
E
(
X
2
)
=
−
φ
X
″
(
0
)
.
{\displaystyle \mathbb {E} (X^{2})=-\varphi _{X}''(0)\,.}
Wenn für eine natürliche Zahl
n
∈
N
{\displaystyle n\in \mathbb {N} }
der Erwartungswert
E
(
|
X
|
n
)
{\displaystyle \mathbb {E} (|X|^{n})}
endlich ist, dann ist
φ
X
{\displaystyle \varphi _{X}
n
{\displaystyle n}
-mal stetig differenzierbar und in eine Taylor-Reihe um
0
{\displaystyle 0}
entwickelbar:
φ
X
(
t
)
=
∑
k
=
0
n
φ
X
(
k
)
(
0
)
k
!
t
k
+
R
n
+
1
(
t
)
=
∑
k
=
0
n
(
i
t
)
k
k
!
E
(
X
k
)
+
R
n
+
1
(
t
)
.
{\displaystyle \varphi _{X}(t)=\sum \limits _{k=0}^{n}{\frac {\varphi _{X}^{(k)}(0)}{k!}t^{k}+R_{n+1}(t)=\sum \limits _{k=0}^{n}{\frac {(\mathrm {i} t)^{k}{k!}\mathbb {E} (X^{k})+R_{n+1}(t)\,.}
Ein wichtiger Spezialfall ist die Entwicklung einer Zufallsvariablen
X
{\displaystyle X}
mit
E
(
X
)
=
0
{\displaystyle \mathbb {E} (X)=0}
und
Var
(
X
)
=
1
{\displaystyle \operatorname {Var} (X)=1}
:
φ
X
(
t
)
=
1
−
1
2
t
2
+
R
3
(
t
)
mit
lim
t
→
0
R
3
(
t
)
t
2
=
0
.
{\displaystyle \varphi _{X}(t)=1-{\frac {1}{2}t^{2}+R_{3}(t)\quad {\text{mit}\quad \lim \limits _{t\rightarrow 0}{\frac {R_{3}(t)}{t^{2}=0\,.}
Bei unabhängigen Zufallsvariablen
X
1
{\displaystyle X_{1}
und
X
2
{\displaystyle X_{2}
gilt für die charakteristische Funktion der Summe
Y
=
X
1
+
X
2
{\displaystyle Y=X_{1}+X_{2}
φ
Y
(
t
)
=
φ
X
1
(
t
)
φ
X
2
(
t
)
,
{\displaystyle \varphi _{Y}(t)=\varphi _{X_{1}(t)\,\varphi _{X_{2}(t)\,,}
denn wegen der Unabhängigkeit gilt
φ
Y
(
t
)
=
E
(
e
i
t
(
X
1
+
X
2
)
)
=
E
(
e
i
t
X
1
e
i
t
X
2
)
=
E
(
e
i
t
X
1
)
E
(
e
i
t
X
2
)
=
φ
X
1
(
t
)
φ
X
2
(
t
)
.
{\displaystyle \varphi _{Y}(t)=\mathbb {E} \left(e^{\mathrm {i} t(X_{1}+X_{2})}\right)=\mathbb {E} \left(e^{\mathrm {i} tX_{1}e^{\mathrm {i} tX_{2}\right)=\mathbb {E} \left(e^{\mathrm {i} tX_{1}\right)\mathbb {E} \left(e^{\mathrm {i} tX_{2}\right)=\varphi _{X_{1}(t)\,\varphi _{X_{2}(t)\,.}
Charakteristische Funktion von zufälligen Summen
Sind
(
X
i
)
i
∈
N
{\displaystyle (X_{i})_{i\in \mathbb {N} }
unabhängig identisch verteilte Zufallsvariablen und
N
{\displaystyle N}
eine
N
0
{\displaystyle \mathbb {N} _{0}
-wertige Zufallsvariable, die von allen
X
i
{\displaystyle X_{i}
unabhängig ist, so lässt sich die charakteristische Funktion der Zufallsvariable
S
:=
∑
i
=
1
N
X
i
{\displaystyle S:=\sum _{i=1}^{N}X_{i}
als Verkettung der wahrscheinlichkeitserzeugenden Funktion
m
N
(
t
)
{\displaystyle m_{N}(t)}
von
N
{\displaystyle N}
und der charakteristischen Funktion von
X
1
{\displaystyle X_{1}
darstellen:
φ
S
(
t
)
=
m
N
(
φ
X
1
(
t
)
)
{\displaystyle \varphi _{S}(t)=m_{N}(\varphi _{X_{1}(t))}
.
Eindeutigkeitssatz
Es gilt der folgende Eindeutigkeitssatz: Wenn
X
{\displaystyle X}
,
Y
{\displaystyle Y}
Zufallsvariablen sind und
φ
X
(
t
)
=
φ
Y
(
t
)
{\displaystyle \varphi _{X}(t)=\varphi _{Y}(t)}
für alle
t
∈
R
{\displaystyle t\in \mathbb {R} }
gilt, dann ist
X
=
d
Y
{\displaystyle X{\overset {d}{=}Y}
, d. h.
X
{\displaystyle X}
und
Y
{\displaystyle Y}
haben die gleiche Verteilungsfunktion. Folglich kann damit die Faltung einiger Verteilungen leicht bestimmt werden.
Aus dem Eindeutigkeitssatz lässt sich der Stetigkeitssatz von Lévy folgern: Wenn
(
X
n
)
n
∈
N
{\displaystyle (X_{n})_{n\in \mathbb {N} }
eine Folge von Zufallsvariablen ist, dann gilt
X
n
→
d
X
{\displaystyle X_{n}{\stackrel {d}{\rightarrow }X}
(Konvergenz in Verteilung ) genau dann, wenn
lim
n
→
∞
φ
X
n
(
t
)
=
φ
X
(
t
)
{\displaystyle \lim \limits _{n\rightarrow \infty }\varphi _{X_{n}(t)=\varphi _{X}(t)}
für alle
t
∈
R
{\displaystyle t\in \mathbb {R} }
gilt. Diese Eigenschaft kann bei zentralen Grenzwertsätzen ausgenutzt werden.
Beispiele
Verteilung
Charakteristische Funktion
φ
X
(
t
)
{\displaystyle \varphi _{X}(t)}
Diskrete Verteilungen
Binomialverteilung
X
∼
Bin
(
n
,
p
)
{\displaystyle X\sim \operatorname {Bin} (n,p)}
φ
X
(
t
)
=
(
p
e
i
t
+
1
−
p
)
n
{\displaystyle \varphi _{X}(t)=\left(pe^{\mathrm {i} t}+1-p\right)^{n}
Poisson-Verteilung
X
∼
Poi
(
λ
)
{\displaystyle X\sim \operatorname {Poi} (\lambda )}
φ
X
(
t
)
=
e
λ
(
e
i
t
−
1
)
{\displaystyle \varphi _{X}(t)=e^{\lambda \left(e^{\mathrm {i} t}-1\right)}
Negative Binomialverteilung
X
∼
NegBin
(
r
,
p
)
{\displaystyle X\sim \operatorname {NegBin} (r,p)}
φ
X
(
t
)
=
(
1
−
p
e
i
t
1
−
p
)
−
r
{\displaystyle \varphi _{X}(t)=\left({\frac {1-pe^{\mathrm {i} t}{1-p}\right)^{-r}
Absolutstetige Verteilungen
X
∼
N
(
0
,
1
)
{\displaystyle X\sim N(0,1)}
standardnormalverteilt
φ
X
(
t
)
=
e
−
t
2
2
{\displaystyle \varphi _{X}(t)=e^{-{\frac {t^{2}{2}
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim N(\mu ,\sigma ^{2})}
normalverteilt
φ
X
(
t
)
=
e
i
t
μ
−
1
2
σ
2
t
2
{\displaystyle \varphi _{X}(t)=e^{\mathrm {i} t\mu -{\frac {1}{2}\sigma ^{2}t^{2}
X
∼
U
(
a
,
b
)
{\displaystyle X\sim U(a,b)}
gleichverteilt
φ
X
(
t
)
=
e
i
b
t
−
e
i
a
t
i
(
b
−
a
)
t
{\displaystyle \varphi _{X}(t)={\frac {e^{\mathrm {i} bt}-e^{\mathrm {i} at}{\mathrm {i} (b-a)t}
X
∼
C
(
0
,
1
)
{\displaystyle X\sim \;C(0,1)}
Standard-Cauchy-verteilt
φ
X
(
t
)
=
e
−
|
t
|
{\displaystyle \varphi _{X}(t)=e^{-|t|}
X
∼
G
(
p
,
b
)
{\displaystyle X\sim \;G(p,b)}
gammaverteilt
φ
X
(
t
)
=
(
b
b
−
i
t
)
p
{\displaystyle \varphi _{X}(t)=\left({\frac {b}{b-\mathrm {i} t}\right)^{p}
Allgemeinere Definitionen
Definition für mehrdimensionale Zufallsvariablen
Die charakteristische Funktion lässt sich auf
ℓ
{\displaystyle \ell }
-dimensionale reelle Zufallsvektoren
X
=
(
X
1
,
…
,
X
ℓ
)
{\displaystyle \mathbf {X} =(X_{1},\dotsc ,X_{\ell })}
wie folgt erweitern:
φ
X
(
t
)
=
φ
X
(
t
1
,
…
,
t
l
)
=
E
(
e
i
⟨
t
,
X
⟩
)
=
E
(
∏
j
=
1
ℓ
e
i
t
j
X
j
)
{\displaystyle \varphi _{\mathbf {X} }(t)=\varphi _{\mathbf {X} }(t_{1},\dots ,t_{l})=\mathbb {E} (e^{i\langle t,\mathbf {X} \rangle })=\mathbb {E} \left(\prod _{j=1}^{\ell }e^{it_{j}X_{j}\right)}
,
wobei
⟨
t
,
X
⟩
=
∑
j
=
1
ℓ
t
j
X
j
{\displaystyle \langle t,\mathbf {X} \rangle =\sum \limits _{j=1}^{\ell }t_{j}X_{j}
das Standardskalarprodukt bezeichnet.
Definition für nukleare Räume
Auch für nukleare Räume existiert der Begriff der charakteristischen Funktion. Die Funktion
φ
:
N
→
C
{\displaystyle \varphi :N\rightarrow \mathbb {C} }
, definiert auf dem nuklearen Raum
N
{\displaystyle N}
, heißt charakteristische Funktion, wenn folgende Eigenschaften gelten:
φ
{\displaystyle \varphi }
ist stetig,
φ
{\displaystyle \varphi }
ist positiv definit, d. h. für jede Wahl
α
1
,
…
,
α
n
∈
C
,
ξ
1
,
…
,
ξ
n
∈
N
,
{\displaystyle \alpha _{1},\ldots ,\alpha _{n}\in \mathbb {C} ,\xi _{1},\ldots ,\xi _{n}\in N,}
ist
∑
j
,
k
=
1
n
α
j
α
k
¯
φ
(
ξ
j
−
ξ
k
)
≥
0
,
{\displaystyle \sum _{j,k=1}^{n}\alpha _{j}{\overline {\alpha _{k}\varphi (\xi _{j}-\xi _{k})\geq 0,}
φ
{\displaystyle \varphi }
ist normiert, d. h.
φ
(
0
)
=
1.
{\displaystyle \varphi (0)=1.}
In diesem Fall besagt der Satz von Bochner-Minlos , dass
φ
{\displaystyle \varphi }
ein Wahrscheinlichkeitsmaß auf dem topologischen Dualraum
N
′
{\displaystyle N^{\prime }
induziert.
Für zufällige Maße
Die charakteristische Funktion lässt sich auch für zufällige Maße definieren. Sie ist dann jedoch ein Funktional , ihre Argumente sind also Funktionen. Ist
X
{\displaystyle X}
ein zufälliges Maß, so ist die charakteristische Funktion gegeben als
φ
X
(
f
)
=
E
(
exp
(
i
∫
f
d
X
)
)
{\displaystyle \varphi _{X}(f)=\mathbb {E} \left(\exp \left(i\int f\mathrm {d} X\right)\right)}
für alle beschränkten, messbaren reellwertigen Funktionen
f
{\displaystyle f}
mit kompaktem Träger . Das zufällige Maß ist durch die Werte der charakteristischen Funktion an allen positiven stetigen Funktionen mit kompaktem Träger eindeutig bestimmt.[ 1]
Beziehung zu anderen erzeugenden Funktionen
Außer den charakteristischen Funktionen spielen noch die wahrscheinlichkeitserzeugenden Funktionen und die momenterzeugenden Funktionen eine wichtige Rolle in der Wahrscheinlichkeitstheorie.
Die wahrscheinlichkeitserzeugende Funktion einer
N
0
{\displaystyle \mathbb {N} _{0}
-wertigen Zufallsvariable
X
{\displaystyle X}
ist definiert als
m
X
(
t
)
=
E
(
t
X
)
{\displaystyle m_{X}(t)=\mathbb {E} (t^{X})}
. Demnach gilt der Zusammenhang
m
X
(
e
i
t
)
=
φ
X
(
t
)
{\displaystyle m_{X}(e^{it})=\varphi _{X}(t)}
.
Die momenterzeugende Funktion einer Zufallsvariable ist definiert als
M
X
(
t
)
:=
E
(
e
t
X
)
{\displaystyle M_{X}(t):=\mathbb {E} (e^{tX})}
. Demnach gilt der Zusammenhang
M
i
X
(
t
)
=
M
X
(
i
t
)
=
φ
X
(
t
)
{\displaystyle M_{iX}(t)=M_{X}(it)=\varphi _{X}(t)}
, wenn die momenterzeugende Funktion existiert. Im Gegensatz zur charakteristischen Funktion ist dies nicht immer der Fall.
Außerdem gibt es noch die kumulantenerzeugende Funktion als Logarithmus der momenterzeugenden Funktion. Aus ihr wird der Begriff der Kumulante abgeleitet.
Einzelnachweise
↑ Achim Klenke: Wahrscheinlichkeitstheorie . 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6 , S. 553 , doi :10.1007/978-3-642-36018-3 .
Literatur
Weblinks