集合の特性関数については「指示関数 」をご覧ください。
U (−1, 1) の一様確率変数の特性関数。原点を中心とする対称性のある確率変数であるため、この関数は実数値を返す。ただし、一般に特性関数は複素数を返す。 確率論 と統計学 において、任意の確率変数 に対する特性関数 (とくせいかんすう、英 : characteristic function )とは、その確率分布 を完全に定義する関数である。したがって、確率密度関数 や累積分布関数 の代わりに特性関数を解析の基盤とすることもできる。確率変数の重み付き総和で分布を定義する単純な特性関数も存在する。
1 変量の分布以外にも、ベクトルまたは行列型の確率変数についての特性関数もあり、さらに一般化することもできる。
実数引数をとる関数と考えたとき、特性関数は積率母関数 とは異なり、常に存在する。特性関数の振る舞いとその分布の属性には、モーメントの存在や密度関数の存在などの関係がある。
導入 特性関数は確率変数 を記述する代替手段を提供する。累積分布関数
F X ( x ) = E [ 1 { X ≤ x } ] {\displaystyle F_{X}(x)=\operatorname {\mathbb {E} } [\mathbf {1} _{\{X\leq x\}}]} は確率変数 X の確率分布の振る舞いと属性を完全に決定するが、それと同様に特性関数
φ X ( t ) = E [ e i t X ] {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{itX}]} も確率変数 X の確率分布の振る舞いと属性を完全に決定する。どちらか一方が分かっていればもう一方を求めることができ、その確率変数の特徴についてそれぞれ異なる洞察を与える。しかし、これらの関数を単純な標準的関数で表せるかどうかは、場合によって異なる。
確率変数が確率密度関数 を持つ場合、特性関数と密度関数は互いにもう一方のフーリエ変換 になっているという意味で双対 である。確率変数に積率母関数 がある場合、特性関数は複素領域に拡張されうる。
φ X ( − i t ) = M X ( t ) {\displaystyle \varphi _{X}(-it)=M_{X}(t)} [1] なお、確率密度関数や積率母関数が存在しない場合でも、ある確率分布の特性関数は常に存在する。
特性関数は、特に独立した確率変数の線型結合 の分析で有効である。他にも、確率変数の分解可能性(英語版) の理論においても重要である。
定義 スカラーの確率変数 X について、その特性関数は、eitX の期待値 として定義される。ここで i は虚数単位 、t ∈ R は特性関数の引数である。
φ X : R → C ; φ X ( t ) = E [ e i t X ] = ∫ − ∞ ∞ e i t x d F X ( x ) ( = ∫ − ∞ ∞ e i t x f X ( x ) d x ) {\displaystyle \varphi _{X}:\mathbb {R} \to \mathbb {C} ;\quad \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{itX}]=\int _{-\infty }^{\infty }e^{itx}\,dF_{X}(x)\qquad \left(=\int _{-\infty }^{\infty }e^{itx}f_{X}(x)\,dx\right)} ここで FX は X の累積分布関数 、積分はリーマン=スティルチェス型 である。確率変数 X に確率密度関数 fX がある場合、その特性関数は確率密度関数のフーリエ変換 であり、上記の括弧内の式が対応する。
なお、特性関数の定義に出現する定数は一般的なフーリエ変換のものとは異なる。例えば書籍によっては φX (t ) = E[e−2πitX ] と定義しており、これは本質的にはパラメータの変更である。他にも、確率測度 p の特性関数を ˆ p 、確率密度関数 f に対応する特性関数を ˆ f と表すこともある。
特性関数の記法は、多変量の確率変数やさらに複雑な確率要素 に一般化される。特性関数の引数は確率変数 X が値を持つ空間の連続的双対空間 に常に属する。主な場合における定義を以下に示す。
X が k -次元の確率ベクトルの場合、t ∈ R k について、 φ X ( t ) = E [ e i t ′ X ] , {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{it'X}],} X がk × p -次元の確率行列の場合、t ∈ R k × p について、 φ X ( t ) = E [ e i tr ( t ′ X ) ] , {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{i\operatorname {tr} (t'X)}],} X が複素確率変数の場合、t ∈ C について[5] 、 φ X ( t ) = E [ e i Re ( t ¯ X ) ] , {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{i\operatorname {Re} ({\overline {t}}X)}],} X が k -次元の複素確率ベクトルの場合、t ∈ C k について[5] 、 φ X ( t ) = E [ e i Re ( t ∗ X ) ] , {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{i\operatorname {Re} (t^{*}X)}],} X (s ) が確率過程 の場合、X のほとんど全ての実現値について積分 ∫R t (s )X (s )ds が収束するような全ての関数 t (s ) について、 φ X ( t ) = E [ e i ∫ R t ( s ) X ( s ) d s ] . {\displaystyle \varphi _{X}(t)=\operatorname {\mathbb {E} } [e^{i\int _{\mathbb {R} }t(s)X(s)ds}].} ここで t' (プライム)は t 転置行列 、tr(·) は行列の跡作用素、Re は複素数の実部、z は z の複素共役 、z ∗ ≔ z ' は共役転置行列 を意味する。
具体例 分布 特性関数 φ (t ) 退化 δa e i t a {\displaystyle e^{ita}} ベルヌーイ Bern(p ) 1 − p + p e i t {\displaystyle 1-p+pe^{it}} 二項 B(n , p ) ( 1 − p + p e i t ) n {\displaystyle (1-p+pe^{it})^{n}} ポアソン Pois(λ ) e λ ( e i t − 1 ) {\displaystyle e^{\lambda (e^{it}-1)}} 一様 U (a , b ) e i t b − e i t a i t ( b − a ) {\displaystyle {\frac {e^{itb}-e^{ita}}{it(b-a)}}} ラプラス L(μ , b ) e i t μ 1 + b 2 t 2 {\displaystyle {\frac {e^{it\mu }}{1+b^{2}t^{2}}}} 正規 N (μ , σ2 ) e i t μ − 1 2 σ 2 t 2 {\displaystyle e^{it\mu -{\frac {1}{2}}\sigma ^{2}t^{2}}} カイ二乗 χ 2 k ( 1 − 2 i t ) − k / 2 {\displaystyle (1-2it)^{-k/2}} コーシー Cauchy(μ , θ ) e i t μ − θ | t | {\displaystyle e^{it\mu -\theta |t|}} ガンマ Γ(k , θ ) ( 1 − i t θ ) − k {\displaystyle (1-it\theta )^{-k}} 指数 Exp(λ ) ( 1 − i t λ − 1 ) − 1 {\displaystyle (1-it\lambda ^{-1})^{-1}} 多変量正規 N (μ , Σ ) e i t ′ μ − 1 2 t ′ Σ t {\displaystyle e^{it'\mu -{\frac {1}{2}}t'\Sigma t}}
性質 確率変数の特性関数は、測度 が有限な空間上の有界な連続関数の積分であるため、常に存在する。 特性関数は空間全体について一様連続 である。 ゼロ付近では根を持たない (φ (0) = 1 )。 有界である (|φ (t )| ≤ 1 )。 エルミート関数である(φ (−t ) = φ (t ) )。原点を中心として対称性のある確率変数の特性関数は実数関数であり偶関数 である。 累積分布関数 と特性関数の間には全単射 が存在する。すなわち、2 つの任意の確率変数 X 1 と X 2 について、次が成り立つ: F X 1 = F X 2 ⇔ φ X 1 = φ X 2 . {\displaystyle F_{X_{1}}=F_{X_{2}}\ \Leftrightarrow \ \varphi _{X_{1}}=\varphi _{X_{2}}.} 確率変数 X に最大 k -次のモーメントがある場合、その特性関数 φX は実数直線全体について k 階連続微分可能である。このとき、次が成り立つ: E X k = ( − i ) k φ X ( k ) ( 0 ) . {\displaystyle \operatorname {E} \,X^{k}=(-i)^{k}\varphi _{X}^{(k)}(0).} 特性関数 φX がゼロにおいて k 階の導関数を持つなら、確率変数 X は k が偶数なら最大で k -次のモーメントを持つが、k が奇数なら最大で k − 1 -次までである[1] 。 X 1 , …, Xn が独立確率変数で、a 1 , …, an が何らかの定数としたとき、Xi の線型結合の特性関数は次のようになる。 φ a 1 X 1 + … + a n X n ( t ) = φ X 1 ( a 1 t ) ⋅ … ⋅ φ X n ( a n t ) . {\displaystyle \varphi _{a_{1}X_{1}+\ldots +a_{n}X_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\cdot \ldots \cdot \varphi _{X_{n}}(a_{n}t).} 特性関数の裾野の振る舞いは、対応する確率密度関数の平滑性を決定する。 連続性 上述した確率分布と特性関数の全単射は「連続」である。すなわち、累積分布関数の族 {Fj (x )} が何らかの分布 F (x ) に弱収束(英語版) するとき、対応する一連の特性関数 {φj (t )} も収束し、極限 φ (t ) はそのままの F の特性関数に対応する。これをより形式的に述べると、次のようになる。
レヴィの連続性定理 (Lévy's continuity theorem) :n -変量確率変数の列 {Xj } が確率変数 X に分布において収束する場合、常に列 {φXj } は原点で連続な関数 φ に各点収束 する。この φ は X の特性関数である。 この定理は大数の法則 や中心極限定理 の証明によく使われる。
反転公式 累積分布関数 と特性関数には1対1対応 が存在するので、一方を知っていれば常にもう一方を求めることができる。上に挙げた特性関数の定義によれば、累積分布関数 F (または確率密度関数 f )を知っていれば φ を計算できる。一方、特性関数 φ を知っていて対応する累積分布関数を求めたい場合、以下に挙げる反転定理 を利用できる。
定理 特性関数 φX が積分可能なら、FX は絶対連続であり、X の確率密度関数は以下のように与えられる(X がスカラーの場合)。 f X ( x ) = F X ′ ( x ) = 1 2 π ∫ − ∞ ∞ e − i t x φ X ( t ) d t {\displaystyle f_{X}(x)=F_{X}'(x)={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{-itx}\varphi _{X}(t)\,dt} 多変量の場合の確率密度関数は、ルベーグ測度 λ に対する分布 μX のラドン=ニコディム微分 として理解される。 f X ( x ) = d μ X d λ ( x ) = 1 ( 2 π ) n ∫ R n e − i ( t ⋅ x ) φ X ( t ) λ ( d t ) {\displaystyle f_{X}(x)={\frac {d\mu _{X}}{d\lambda }}(x)={\frac {1}{(2\pi )^{n}}}\int _{\mathbb {R} ^{n}}e^{-i(t\cdot x)}\varphi _{X}(t)\lambda (dt)} 定理(レヴィ) 累積分布関数 FX の特性関数を φX とし、2 つの点 a < b で定義される { x ∣ a < x < b } {\displaystyle \{x\mid a<x<b\}} が μX の連続性集合ならば(1 変量では、この条件は FX が a と b で連続なことと等価である)、 F X ( b ) − F X ( a ) = 1 2 π lim T → ∞ ∫ − T + T e − i t a − e − i t b i t φ X ( t ) d t , {\displaystyle F_{X}(b)-F_{X}(a)={\frac {1}{2\pi }}\lim _{T\to \infty }\int _{-T}^{+T}{\frac {e^{-ita}-e^{-itb}}{it}}\,\varphi _{X}(t)\,dt,} X がスカラーの場合 μ X ( { a < x < b } ) = 1 ( 2 π ) n lim T 1 → ∞ ⋯ lim T n → ∞ ∫ { − T ≤ t ≤ T } ∏ k = 1 n ( e − i t k a k − e − i t k b k i t k ) φ X ( t ) λ ( d t ) {\displaystyle \mu _{X}{\big (}\{a<x<b\}{\big )}={\frac {1}{(2\pi )^{n}}}\lim _{T_{1}\to \infty }\cdots \lim _{T_{n}\to \infty }\int \limits _{\{-T\leq t\leq T\}}\prod _{k=1}^{n}\left({\frac {e^{-it_{k}a_{k}}-e^{-it_{k}b_{k}}}{it_{k}}}\right)\varphi _{X}(t)\lambda (dt)} , X がベクトル型確率変数の場合 定理 a が X について原子的 ならば(1 変量の場合、これは FX の不連続点を意味する)、 F X ( a ) − F X ( a − 0 ) = lim T → ∞ 1 2 T ∫ − T + T e − i t a φ X ( t ) d t {\displaystyle F_{X}(a)-F_{X}(a-0)=\lim _{T\to \infty }{\frac {1}{2T}}\int _{-T}^{+T}e^{-ita}\varphi _{X}(t)\,dt} , X がスカラー型確率変数の場合 μ X ( { a } ) = lim T 1 → ∞ ⋯ lim T n → ∞ ( ∏ k = 1 n 1 2 T k ) ∫ { − T ≤ t ≤ T } e − i ( t ⋅ x ) φ X ( t ) λ ( d t ) {\displaystyle \mu _{X}(\{a\})=\lim _{T_{1}\to \infty }\cdots \lim _{T_{n}\to \infty }\left(\prod _{k=1}^{n}{\frac {1}{2T_{k}}}\right)\int \limits _{\{-T\leq t\leq T\}}e^{-i(t\cdot x)}\varphi _{X}(t)\lambda (dt)} , X がベクトル型確率変数の場合 定理 (Gil-Pelaez) 1 変量確率変数 X について、x が FX の連続点ならば、 F X ( x ) = 1 2 − 1 π ∫ 0 ∞ Im [ e − i t x φ X ( t ) ] t d t {\displaystyle F_{X}(x)={\frac {1}{2}}-{\frac {1}{\pi }}\int _{0}^{\infty }{\frac {\operatorname {Im} [e^{-itx}\varphi _{X}(t)]}{t}}\,dt} 特性関数の判定基準 減少しない càdlàg 関数 (右連続左極限関数)F で、極限が F (−∞) = 0 および F (+∞) = 1 となる場合、F は何らかの確率変数の累積分布関数 に対応している。
他にも、与えられた関数 φ について、それが何らかの確率変数の特性関数かどうかを判定する単純な判定基準が存在する。これについての中心的成果としてボホナーの定理(英語版) があるが、その主な条件である非負定性の判定が非常に難しいため、これが利用できる場面は多くはない。他にも Khinchine , Mathias , Cramér などの定理もあるが、それらも応用が難しい。一方 Pólya の定理は非常に単純な凸条件を提供するが、それは十分条件であって必要条件ではない。この条件を満たす特性関数を Pólya-type と呼ぶ[1] 。
ボホナーの定理 (Bochner's theorem) :任意の関数 φ : R n → C {\displaystyle \scriptstyle \varphi :\ \mathbb {R} ^{n}\to \mathbb {C} } が何らかの確率変数の特性関数であるとき、常に φ は非負定性で原点で連続であり、かつ φ (0) = 1 である。 ヒンチンの判定条件 (Khinchine’s criterion) :原点で値が 1 で絶対連続な複素数値関数 φ は、以下のように表現できるときのみ特性関数といえる。 φ ( t ) = ∫ − ∞ ∞ g ( t + θ ) g ( θ ) ¯ d θ {\displaystyle \varphi (t)=\int _{-\infty }^{\infty }g(t+\theta ){\overline {g(\theta )}}d\theta } マティアスの定理 (Mathias' theorem) :原点で値が 1 で、実数値で偶関数で連続で絶対積分可能な関数 φ は、以下が成り立つ場合のみ特性関数といえる。 ( − 1 ) n ∫ − ∞ ∞ φ ( p t ) e − t 2 / 2 H 2 n ( t ) d t ≥ 0 {\displaystyle (-1)^{n}\int _{-\infty }^{\infty }\varphi (pt)e^{-t^{2}/2}H_{2n}(t)dt\geq 0} ここで n = 0, 1, 2, … であり、常に p > 0 である。H 2n は、2n -次のエルミート多項式 を意味する。 ポリアの定理を使い、有限区間では同じだが、それ以外の区間では異なる 2 つの確率変数を構築した例 ポリアの定理 (Pólya's theorem) :φ が実数値の連続関数で以下の条件を満たす場合、 φ (0) = 1 , φ は偶関数 , φ は t > 0 について凸関数 , φ (∞) = 0 , φ (t ) は絶対連続で対称な分布の特性関数である。 有限または可算な個数の特性関数の凸線型結合 ∑ n a n φ n ( t ) {\displaystyle \scriptstyle \sum _{n}a_{n}\varphi _{n}(t)} (ただし、 a n ≥ 0 , ∑ n a n = 1 {\displaystyle \scriptstyle a_{n}\geq 0,\ \sum _{n}a_{n}=1} )も特性関数である。 有限個の特性関数の積 ∏ n φ n ( t ) {\displaystyle \scriptstyle \prod _{n}\varphi _{n}(t)} も特性関数である。原点で連続な関数に収束するなら、無限個の積でも成り立つ。 φ が特性関数、α がある実数としたとき、φ , Re[φ ] , |φ |2 , φ (αt ) も全て特性関数である。 利用 連続性定理 があるため、特性関数は中心極限定理 の証明でよく使われる。
分布の基本的操作 特性関数は、独立 な確率変数の線型関数を操作する際に特に便利である。例えば、X 1 , X 2 , …, Xn を独立な(同分布 である必要はない)確率変数の列とし、
S n = ∑ i = 1 n a i X i {\displaystyle S_{n}=\sum _{i=1}^{n}a_{i}X_{i}} とする。ここで ai は定数である。すると、Sn の特性関数は次のように定義できる。
φ S n ( t ) = φ X 1 ( a 1 t ) φ X 2 ( a 2 t ) ⋯ φ X n ( a n t ) {\displaystyle \varphi _{S_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\varphi _{X_{2}}(a_{2}t)\cdots \varphi _{X_{n}}(a_{n}t)} 特に φ X + Y ( t ) = φ X ( t ) φ Y ( t ) {\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t)} となる。これを示すには、特性関数の定義を書いてみればよい。
φ X + Y ( t ) = E ( e i t ( X + Y ) ) = E ( e i t X e i t Y ) = E ( e i t X ) E ( e i t Y ) = φ X ( t ) φ Y ( t ) {\displaystyle \varphi _{X+Y}(t)=E\left(e^{it(X+Y)}\right)=E\left(e^{itX}e^{itY}\right)=E\left(e^{itX}\right)E\left(e^{itY}\right)=\varphi _{X}(t)\varphi _{Y}(t)} X と Y の独立性は、3 つ目の式と 4 つ目の式が等しいことを示すのに必要となる。
もう一つの興味深い例として、ai = 1 / n の場合、Sn は標本平均 となる。この場合 X で平均を表し、
φ X ¯ ( t ) = ( φ X ( t / n ) ) n {\displaystyle \varphi _{\overline {X}}(t)=\left(\varphi _{X}(t/n)\right)^{n}} となる。
モーメント 特性関数は確率変数のモーメントを求める場合にも使える。n -次のモーメントがある場合、特性関数は n 階微分可能で、次が成り立つ:
E [ X n ] = i − n φ X ( n ) ( 0 ) = i − n [ d n d t n φ X ( t ) ] t = 0 . {\displaystyle \operatorname {\mathbb {E} } [X^{n}]=i^{-n}\,\varphi _{X}^{(n)}(0)=i^{-n}\,\left[{\frac {d^{n}}{dt^{n}}}\varphi _{X}(t)\right]_{t=0}.} 例えば、X が標準的なコーシー分布 に従うとする。すると φ X ( t ) = e − | t | {\displaystyle \varphi _{X}(t)=e^{-|t|}} である。コーシー分布には期待値 がなく、この特性関数は点 t = 0 で微分可能 ではない。また、n 回の独立 な観測についての標本の平均 X の特性関数は、上の節にあるように φ X ¯ ( t ) = ( e − | t | / n ) n = e − | t | {\displaystyle \varphi _{\overline {X}}(t)=(e^{-|t|/n})^{n}=e^{-|t|}} となる。これは標準のコーシー分布の特性関数であり、標本の平均と母集団は同じ分布である。
特性関数の対数はキュムラント母関数 であり、キュムラント を求める際に有用である。ただし、キュムラント母関数を積率母関数 の対数と定義する場合もあり、その場合は特性関数の対数を第 2 キュムラント母関数と呼ぶ。
データ解析 標本データに累積分布関数をあてはめるとき、特性関数を使うことができる。確率密度関数の閉形式が使えないため最尤法 が適用しにくい場合、安定分布 の当てはめも含め、特性関数を使ったあてはめが有効である。この場合の推定手順は、データから計算された経験的な特性関数と理論的な特性関数をマッチさせるという方法である。Paulson, Holcomb & Leitch 1975 と Heathcote 1977 は、そのような推定手順の理論的背景を提供している。さらに、Yu 2004 では、最尤法の適用が難しい場合に、経験的な特性関数を時系列 モデルに適合させるという応用を解説している。
例 尺度母数 θ 、形状母数 k のガンマ分布 の特性関数は次の通りである。
( 1 − θ i t ) − k {\displaystyle (1-\theta \,i\,t)^{-k}} ここで、次のような 2 つのガンマ分布を考える。
X ∼ Γ ( k 1 , θ ) and Y ∼ Γ ( k 2 , θ ) {\displaystyle X~\sim \Gamma (k_{1},\theta ){\mbox{ and }}Y\sim \Gamma (k_{2},\theta )} X と Y が互いに独立のとき、X + Y がどのような分布になるかを求めたい。それぞれの特性関数は次の通りである。
φ X ( t ) = ( 1 − θ i t ) − k 1 , φ Y ( t ) = ( 1 − θ i t ) − k 2 {\displaystyle \varphi _{X}(t)=(1-\theta \,i\,t)^{-k_{1}},\,\qquad \varphi _{Y}(t)=(1-\theta \,i\,t)^{-k_{2}}} X と Y が独立であることと、特性関数の基本性質から、次が導かれる。
φ X + Y ( t ) = φ X ( t ) φ Y ( t ) = ( 1 − θ i t ) − k 1 ( 1 − θ i t ) − k 2 = ( 1 − θ i t ) − ( k 1 + k 2 ) {\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t)=(1-\theta \,i\,t)^{-k_{1}}(1-\theta \,i\,t)^{-k_{2}}=\left(1-\theta \,i\,t\right)^{-(k_{1}+k_{2})}} これは、尺度母数 θ 、形状母数 k 1 + k 2 のガンマ分布の特性関数に他ならない。したがって、最終的に次の結果が得られる。
X + Y ∼ Γ ( k 1 + k 2 , θ ) {\displaystyle X+Y\sim \Gamma (k_{1}+k_{2},\theta )} この結果は、尺度母数が同じ n 個の独立なガンマ分布の確率変数に拡張することができ、以下の関係が導かれる。
∀ i ∈ { 1 , … , n } : X i ∼ Γ ( k i , θ ) ⇒ ∑ i = 1 n X i ∼ Γ ( ∑ i = 1 n k i , θ ) {\displaystyle \forall i\in \{1,\ldots ,n\}:X_{i}\sim \Gamma (k_{i},\theta )\qquad \Rightarrow \qquad \sum _{i=1}^{n}X_{i}\sim \Gamma \left(\sum _{i=1}^{n}k_{i},\theta \right)} 関連する概念 関連する概念として、積率母関数 と確率母関数(英語版) がある。特性関数は全ての確率分布について存在するが、積率母関数はそうとは限らない。
特性関数は、フーリエ変換 と密接な関係がある。確率密度関数 p (x ) の特性関数は、p (x ) の連続フーリエ変換 P (t ) の複素共役 である。
φ X ( t ) = ⟨ e i t X ⟩ = ∫ − ∞ ∞ e i t x p ( x ) d x = ( ∫ − ∞ ∞ e − i t x p ( x ) d x ) ¯ = P ( t ) ¯ {\displaystyle \varphi _{X}(t)=\langle e^{itX}\rangle =\int _{-\infty }^{\infty }e^{itx}p(x)\,dx={\overline {\left(\int _{-\infty }^{\infty }e^{-itx}p(x)\,dx\right)}}={\overline {P(t)}}} 同様に φX (t ) への逆フーリエ変換で p (x ) を得られる。
p ( x ) = 1 2 π ∫ − ∞ ∞ e i t x P ( t ) d t = 1 2 π ∫ − ∞ ∞ e i t x φ X ( t ) ¯ d t {\displaystyle p(x)={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{itx}P(t)\,dt={\frac {1}{2\pi }}\int _{-\infty }^{\infty }e^{itx}{\overline {\varphi _{X}(t)}}\,dt} 確率変数が密度関数を持たない場合でも、特性関数はその確率変数に対応した測度のフーリエ変換と見なすことができる。
脚注 [脚注の使い方 ]
参考文献 Lukacs, E. (1970). Characteristic functions . London: Griffin Billingsley, Patrick (1995). Probability and measure (3rd ed.). John Wiley & Sons. ISBN 0-471-00710-2 Pinsky, Mark (2002). Introduction to Fourier analysis and wavelets . Brooks/Cole. ISBN 0-534-37660-6 Bochner, Salomon (1955). Harmonic analysis and the theory of probability . University of California Press Andersen, H.H.; Højbjerre, M.; Sørensen, D.; Eriksen, P.S. (1995). Linear and graphical models for the multivariate complex normal distribution . Lecture notes in statistics 101. New York: Springer-Verlag . ISBN 0-387-94521-0 Sobczyk, Kazimierz (2001). Stochastic differential equations . Kluwer Academic Publishers. ISBN 9781402003455 Cuppens, R. (1975). Decomposition of multivariate probabilities . Academic Press Wendel, J.G. (1961). “The non-absolute convergence of Gil-Pelaez' inversion integral”. The Annals of Mathematical Statistics 32 (1): 338–339. Paulson, A.S.; Holcomb, E.W.; Leitch, R.A. (1975). “The estimation of the parameters of the stable laws”. Biometrika 62 : 163–170. Heathcote, C.R. (1977). “The integrated squared error estimation of parameters”. Biometrika 64 (2): 255–264. Yu, J. (2004). “Empirical characteristic function estimation and its applications”. Econometrics Reviews 23 (2): 93–1223. Bisgaard, T. M.; Z. Sasvári (2000). Characteristic functions and moment sequences . Nova Science